専門家がAIを制御すべきだと言う理由

重要なポイント

  • 新しい研究は、超スマートな人工知能を制御する方法がないかもしれないことを示唆しています。
  • あるジャーナル紙は、AIを制御するには、現在私たちが持っているよりもはるかに高度な技術が必要になると主張しています。
  • 一部の専門家は、真にインテリジェントなAIが私たちが考えるよりも早くここに来るかもしれないと言います。
概念画像:人工知能ロボットの顔は、ネットワークフォームの完成と内部の2つの部分に分かれています。
茅野雄一郎/ゲッティイメージズ

科学者によると、人間が超スマートな人工知能を開発した場合、それを制御する方法はないかもしれません。

AIは、人類のすべての問題の治療法として、または ターミネータースタイルの黙示録。 ただし、これまでのところ、AIは人間レベルのインテリジェンスにさえ近づいていません。 しかし、高度なAIをひもでつなぐことは、それが開発されたことがあれば、人間にとって複雑すぎる問題になる可能性があると、 最近の論文 に掲載されました 人工知能研究ジャーナル.

「世界を制御する超インテリジェントなマシンは空想科学小説のように聞こえます」と、論文の共著者の1人であるマヌエルセブリアンは次のように述べています。 ニュースリリース.

「しかし、プログラマーがそれをどのように学んだかを完全に理解することなく、特定の重要なタスクを独立して実行するマシンはすでに存在します。 したがって、これがいつか制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます。」

お近くのスーパーコンピューターに間もなく登場

ジャーナルペーパーは、AIを制御するには、現在所有しているよりもはるかに高度なテクノロジーが必要になると主張しています。

彼らの研究では、チームは超知能AIができないことを保証する理論的封じ込めアルゴリズムを考案しました AIの動作を最初にシミュレートし、考慮された場合はそれを停止することにより、あらゆる状況下で人々に危害を加えます 危害を与える。 しかし、著者はそのようなアルゴリズムを構築できないことを発見しました。

「問題を理論計算機科学の基本的なルールに分解すると、AIに命令するアルゴリズムであることがわかります。 世界を破壊しないことは、不注意にそれ自身の活動を停止させる可能性があります。 マックスプランク人間開発研究所 ドイツでは、ニュースリリースで述べた。

「これが起こった場合、封じ込めアルゴリズムがまだ脅威を分析しているかどうか、または有害なAIの封じ込めが停止したかどうかはわかりません。 事実上、これは封じ込めアルゴリズムを使用できなくします。」

概念画像:AIロボットの顔を変換するバイナリコード。
茅野雄一郎/ゲッティイメージズ

真にインテリジェントなAIは、私たちが考えるよりも早くここに来るかもしれないと主張します Michalis Vazirgiannis、フランスのエコールポリテクニークのコンピュータサイエンス教授。 「AIは人間の人工物ですが、急速に自律的な存在になりつつあります」と彼は電子メールで次のように述べています。 ライフワイヤー.

「重要なポイントは、特異点が発生した場合(つまり、AIエージェントがエンティティとしての意識を持っている場合)であり、したがって、彼らは独立性、自制心、そして最終的な支配を主張します。」

特異性がやってくる

スーパーAIの差し迫った到着を予測するのは、Vazirgiannisだけではありません。 AIの脅威を真に信じる人々は、Vazirgiannisが説明する「特異点」について話したいと考えています。これは、AIが 人間の知性に取って代わり、「AIアルゴリズムは潜在的にその存在を認識し、利己的に行動し始め、 協力して」

Googleのエンジニアリングディレクターであるレイカーツワイルによると、特異点が到着します 21世紀半ば以前. 「2029年は、AIが有効なチューリングテストに合格し、人間レベルの知能を達成する時期について私が予測した一貫した日付です」とカーツワイル氏は語った。 未来派.

「自分の家を掃除できない場合、AIにどのようなコードに従うように依頼する必要がありますか?」

「私は「特異点」の日付を2045年に設定しました。これは、私たちが作成したインテリジェンスとマージすることによって、有効なインテリジェンスを10億倍にする日です。」

しかし、すべてのAI専門家が、インテリジェントマシンが脅威であると考えているわけではありません。 開発中のAIは医薬品開発に役立つ可能性が高く、実際のインテリジェンスを示していない、AIコンサルタント エマニュエル・マッジョーリ メールインタビューで言った。 「AIの周りには大きな誇大宣伝があり、それは本当に革命的であるように聞こえます」と彼は付け加えました。 「現在のAIシステムは公表されているほど正確ではなく、人間が決して犯さない間違いを犯します。」

今すぐAIを制御する

私たちの制御を逃れないようにAIを規制することは難しいかもしれません、とVazirgiannisは言います。 政府ではなく企業が、AIを動かすリソースを管理しています。 「アルゴリズム自体でさえ、通常、これらの大規模で強力な、通常は多国籍のエンティティの研究所で作成および展開されています」と彼は言いました。

「したがって、州政府がAIを制御するために必要なリソースをますます制御できないことは明らかです。」

一部の専門家は、超知能AIを制御するには、人間がコンピューティングリソースと電力を管理する必要があると述べています。 「のようなSF映画 マトリックス 人間がAIによって生物動力源として使用されるディストピアの未来について予言する」と語った。

「リモートでは不可能ですが、人類はコンピューティングリソース(つまり、コンピュータークラスター、GPU、 スーパーコンピューター、ネットワーク/通信)、そしてもちろん、AIの機能に絶対的に有害な電力を供給する発電所。」

空に顔を形成する雲のブロックを見ている警備員。
Colin Anderson Productions pty ltd /ゲッティイメージズ

AIの制御に関する問題は、研究者がそのようなシステムがどのように意思決定を行うかを常に理解しているとは限らないことです。 データサイエンスソフトウェア会社KNIME、電子メールのインタビューで言った。 「そうしないと、どうすればそれを「制御」できるでしょうか?」

「私たちにとって、無関係な入力に基づいてまったく異なる決定が下されるのはいつかわかりません」と彼は付け加えました。

AIを使用するリスクを制御する唯一の方法は、そのリスクが管理可能な場合にのみAIが使用されるようにすることです。 「言い換えると、2つの極端な例:少しのエラーが壊滅的な副作用をもたらす可能性がある原子力発電所をAIに任せないでください」と彼は付け加えました。

「一方、AIは、室温を少し上下に調整する必要があるかどうかを、快適な生活のための小さなリスクに見合うだけの価値があると予測しています。」

AIを制御できない場合は、元NASAのコンピューターエンジニアであるマナーを教えたほうがよいでしょう。 ピータースコット メールインタビューで言った。 「最終的には、子供たちの可制御性以上にAIの可制御性を確保することはできません」と彼は言いました。

「私たちは彼らを正しく育て、最高のものを望んでいます。 これまでのところ、彼らは世界を破壊していません。 それらをうまく育てるには、倫理をよりよく理解する必要があります。 自分の家を掃除できない場合、AIにどのようなコードに従うように依頼する必要がありますか?」

しかし、人類に対するすべての希望が失われるわけではない、とAI研究者のYonatan Wexler、R&Dのエグゼクティブバイスプレジデントは述べています。 OrCam. 「進歩は確かに印象的ですが、私の個人的な信念は、人間の知性を過小評価してはならないということです」と彼は電子メールのインタビューで述べました。 「私たちは種として、AI自体を含め、非常に素晴らしいものを生み出しました。」

よりスマートなAIの探求は続いています。 しかし、手遅れになる前に、私たちがどのように作品を管理するかを検討する方がよいかもしれません。