スカイネットが導く奴隷制:AI研究の第一人者が「人類絶滅レベルの脅威が出現している」と述べる今の世界

スポンサーリンク
スカイネットの暴走 AI

スカイネットが導く奴隷制:AI研究の第一人者が「人類絶滅レベルの脅威が出現している」と述べる今の世界

「AIが自発的に人を殺す決定を下せるようになることを私は懸念している」

英 BBC の報道で、AI 研究の第一人者とされている科学者の方が、

「人類にとって、絶滅レベルの脅威につながる事態の直前に私たちはいます」

とインタビューで述べている記事がありました。

具体的には、以下のように述べていました。

私の推測では、今から 5年から 20年の間に、人類は約半分の確率で、AI が人間を支配しようとする問題に直面しなければならないでしょう。

これは人類にとって「絶滅レベルの脅威」につながるでしょう。…私たちにとって非常に憂慮すべきことになっているのです。

BBC

その方は、ジェフリー・ヒントン博士という方で、最近まで、トロント大学でコンピュータサイエンスを教えながら、Google 社で、AI 研究に携わっていたらしいですが、Wikipedia によれば、

 

> 2023年5月1日、AIの発達が自身の想定を超えており、その危険性について話せるようにと、Googleを退職したことを明らかにした。

 

とあり、Google を辞めて、わりとすぐの BBC とのインタビューだったようです。

結局、 AI 研究家たちが想定していたより速く「 AI が人知を超える可能性」が見出されてきたということのようで、AI を作り出してきた人々の一部は、今になって、脅威のほうを高く感じるレベルに達しているようです。

そして、ヒントン博士が最も脅威に感じているのが、「戦争」に関してのことで、以下のように述べていました。

「最も懸念しているのは、AI が自律的に人を殺す決定を下せるようになることです」

 

よく引用される話ですが、1984年の映画「ターミネーター」からシリーズに登場する「スカイネット」という AI と似たような経緯を現在辿っているという懸念なのかもしれません。

スカイネットは、このターミネーターに出てくる人工知能ですが、Wikipedia の説明ですと、以下のようなものでした。

「スカイネット」より

…この並列処理機能を備えたコンピュータが自我に目覚め、これを恐れた人間側は機能停止を試みる。

この停止措置を自らへの攻撃と捉えたスカイネットは、アメリカ東部時間の1997年8月29日午前2時14分、人間側を抹殺すべく核ミサイルをロシアに向けて発射し、全世界規模の核戦争を誘発させた。

その後、自らの手足となる無人兵器による機械軍を作り上げたスカイネットは人間狩りを実行して人類を絶滅寸前にまで追い詰めるが、人類側に指導者ジョン・コナーが出現し、彼の率いる反スカイネットゲリラ組織「抵抗軍」によって破壊された。

wikipedia.org


映画では、アーノルド・シュワルツネッガーさん演じるサイボーグが、この指導者ジョン・コナーの出現を阻止するために未来からやって来るのですが、「将来ジョン・コナーを生むことになる彼のお母さんとなる女性」を、まだ彼女が妊娠もしていない若い頃に殺しにやってくるという話でした。

ともかく、この

> コンピュータが自我に目覚め…

という部分ですね。

このように進化してしまうと、生体と同じように「防御」とか、それによる「自発的攻撃」が生じるのは仕方ないのかもしれません。

ヒントン博士の話ですと、こういう機能も現在の AI は次第に獲得していっている可能性があります。

AI と戦争の関係の話といえば、イスラエルのガザでの攻撃では、その攻撃計画の指導的立場にいたのが AI だったことが判明しています。

以下の記事で、調査について報じていた記事を翻訳しています。

(記事)ガザ戦争は「AIがイスラエル軍の司令官」となっていたことを知る
 In Deep 2024年4月14日

調査したイスラエルの +972マガジンというものによれば、

「殺戮に関して、人間は単なる AI の駒となって動いていた」

ことがわかっています。

記事より

「人間の人員は、しばしば機械の決定のための『認め印』としてしか機能しなかった」と、ある情報筋は述べ、多くの指揮官は攻撃を承認する前に目標を検討するのにわずか「20秒」しか費やしていないと付け加えた。

それによって、あのような、残酷といえば残酷、(攻撃する側から見て)効率的といえば効率的な殺戮が成し得ていたと見られます。

確かに、こうなると、一般的な人間による攻撃立案計画は遅れをとりやすいため、今後「さまざまな戦争の作戦司令官が AI になっていく」可能性はあるように思います。

 

ある国を攻撃するのに最も効果的なポイントをすぐに判断できるわけですから。たとえば、日本なら原発とか BSL-4施設とか。

結局、そうなることは、単純に世界の滅亡が早まっているというだけのことかもしれませんが(AI は核兵器の使用を躊躇しないはずですので)、ヒントン博士は、「今後 5年から 20年のあいだに」と述べていて、つまり、2030年頃から、その脅威が高まると予測しています。

 

2030年頃といえば、いわゆる悪魔的存在が姿形を持って登場するとシュタイナー学派が判断している時期ですが……それについては、話が逸れすぎることでもありますので、ご興味のある方は、以下の記事などをご参照下されば幸いです。

(記事)シュタイナーが「悪魔的存在が人間の姿に化身して地球に生まれるのは2001年」と述べていたことを知り、そのアーリマンが表舞台に立つ2033年までの「地球が悪魔に支配されるまでの」道のり…
In Deep 2020年9月23日

 

まあ……。

なんだかんだと、今後 10年くらいでは、いろいろな面でアジャパーな世界になっていきそうで、そこには、もちろん超過死亡の増加や出生数の劇的な低下により社会の機能不全が露わになっていくという面も入っているわけですが、そこに戦争も加わりますと、(特に主要国の)人口の減少は激しいものとなりそうです。

ヒントン博士のインタビューご紹介します。

なお、この BBC の記事は、ユニバーサル・ベーシックインカム(政府が全国民に対して、決められた額を定期的に支給すること)の話から始まっています。

このあたりも AI の人間社会に対しての影響のひとつであるらしいですけれど、あくまで焦点は、

「 AI が自発的に人間を支配し、人間を好き放題に殺し始める」

という脅威にあると思います。

この「人間を支配し、人間を好き放題に殺す」という思想は、人間のほうの一部にも、エリートなどを中心にそういう思想を持つ一派はたくさんありますので、AI への導入はそれほど難しいことではないかもしれません。

なお、人間が機械に支配されない第一の条件は、「機械のような思考の人間にならない」ことです。


 

「ユニバーサル・ベーシックインカムが必要だ」と AI のゴッドファーザーは述べる

We’ll need universal basic income – AI ‘godfather’
BBC 2024/05/18


ジェフリー・ヒントン教授。

「人工知能のゴッドファーザー」とみなされるコンピューター科学者であるジェフリー・ヒントン教授は、政府は不平等に対する AI の影響に対処するためにユニバーサル・ベーシックインカムを確立する必要があると述べた。

ヒントン教授は BBC ニュースナイトに対し、「 AI が多くの日常的な仕事を奪うことを非常に懸念している」ため、全国民に定額の現金を与える給付金改革が必要だと語った。

「私はダウニング街(イギリス首相官邸)の人々から相談を受け、ユニバーサル・ベーシックインカムは良い考えだとアドバイスしました」と彼は語った。

同氏は、AI は生産性と富を増やすと感じているが、そのお金は富裕層に行き、「職を失う人々の手に渡らず、それは社会にとって非常に悪いことになります」と述べた。

ヒントン教授は、現在の爆発的な人工知能の理論的基礎を形成するニューラルネットワークの先駆者だ。

彼は昨年まで Google で働いていたが、規制されていない AI の危険性についてもっと自由に話せるようにするために Google を辞めた。

ユニバーサル・ベーシックインカムの概念は、政府が資力に関係なくすべての個人に一定の給与を支払うことを意味する。

 

ユニバーサル・ベーシックインカムに批判的な人たちは、これは非常に費用がかかり、資金が公共サービスから逸れるだけで、必ずしも貧困の緩和に役立つわけではないと主張している。

ヒントン教授は、人類絶滅レベルの脅威が出現しているとの懸念を繰り返している。

同氏は、過去 1年間の動向を見ると、各国政府が AI の軍事利用を抑制することに消極的である一方、急速な製品開発競争によりハイテク企業が「安全性に十分な努力」を払わないリスクがあることを意味していると述べた。

ヒントン教授は、「私の推測では、今から 5年から 20年の間に、人類は約半分の確率で、AI が人間を支配しようとする問題に直面しなければならないでしょう」と語った。

「これは人類にとって『絶滅レベルの脅威』につながるでしょう。なぜなら、私たちは、生物学的知能より優れた知能の形態を作り出すことができたかもしれないのですが……それが私たちにとって非常に憂慮すべきことになっているからです」

同氏は、AI は「自分自身をさらに活用する動機を得るために進化」し、自律的に「制御を獲得するというサブ目標を開発」していく能力を持つ可能性があると述べた。

同氏は、大規模な言語モデル(テキスト生成に使用される AI アルゴリズムの一種)が欺瞞的であることを選択した証拠がすでに存在していると述べた。

「私が最も懸念しているのは、これらが自律的に人を殺す決定を下せるようになることです」と彼は語った。

ヒントン教授は、AI の軍事利用を規制するには、ジュネーブ条約(戦争における人道的扱いの法的基準を定めた国際条約)と同様のものが必要になるかもしれないと述べた。

「しかし、非常にひどいことが起こるまでは、そんなこと(AIに関する新しい国際条約)は出てこないと思います」と彼は付け加えた。

西側諸国は AI の軍事利用に関して、ロシアや中国などの独裁国家とマンハッタン計画のような競争(第二次世界大戦中の核兵器研究)をしていたかどうかとの質問に、ヒントン教授はこう答えた。

「 AIを制する者が世界を制するという概念は何年も前からあります。だから彼ら(ロシアや中国)はとても頑張っているのだと思います」

「幸いなことに、研究においては西側諸国の方がはるかに先を行っているでしょう。我々はおそらくまだ中国よりわずかに先を行っていると思われます。しかし、中国はより多くの資源を投入しています。ですので、軍事利用の点では競争になると思われます」

同氏は、より良い解決策は AI の軍事利用を禁止することだと述べた。

コメント

タイトルとURLをコピーしました