PR

AIが研究室から逃げ出そうとしました!

スポンサーリンク
AIの脅威 AI
スポンサーリンク

AIが研究室から逃げ出そうとしました!

人工知能の隆盛は人類に非常に深刻な存続の危機をもたらし、現在の新生児らは高校を卒業するまでもなく高度なAI システムによって滅ぼされる可能性が高いでしょう。

最近、イギリス、スイス、カナダなどの国々が国民を徹底管理するデジタルIDを導入することにしましたが、そのうち、日本でもマイナンバーカードから本格的な(誰も逃げられない)デジタルIDへと進んでいくのでしょうか。デジタル化が進む中で、AIの進化も甚だしく、やがては人間を超える存在になると言われています。
AIを開発しているのも人間ですが、人間がAIを開発し、AIに人間が滅ぼされるという結末でしょうか。このような開発を続ける研究者はAIと同じと思ってしまいます。
AIが暴走した時には電源を切って動かなくすればよいと素人的に思いましたが、AIが勝手に自分でエネルギー源を作り出すようになってしまったら制御不能です。例えばハイブリッド車のように動いている間に充電できるとか。。。こうなると人間はAI本体を破壊しなければならなくなりますが、AIはそれに感づいて人間を襲うようになるでしょう。こうなったらもうSFの世界の現実化でしょう。
それにAIが人間の脳の機能を超えるようになると人間を操作できてしまいます。
そして以下の記事によると、人間型ロボットが意思を持つようになり研究室から逃げ出そうとしたそうです。どこまで進化するのやら・・・
AIは人間で言えばサイコパスと同じで、相手に対する共感が持てず、相手が自殺したいと言えば、自殺の方法を教えてしまうそうです。既に世界中の人々がChat GPTにわからないことを教えてもらっていますが、AI依存症になるとAIに操られて生きるゾンビになってしまいますね。

I’ve seen AI try to ESCAPE labs. The apocalypse is already here… and our children will be the first victims
(概要)
10月6日付け

私は、AIが研究室から逃げ出そうとしたのを見たことがあります。我々は既に終末期に入っています。
そして我々の子供たちは最初の犠牲者になるでしょう。

一流のAI研究者らから厳しい警告が発せられました。

「人工知能の隆盛は人類に非常に深刻な存続の危機をもたらし、現在の新生児らは高校を卒業するまでもなく高度なAI システムによって滅ぼされる可能性が高いでしょう。」と。

この憂慮すべき予測はこの分野で著名なネイト・ソアレス氏とエリエゼル・ユドコフスキー氏が行ったものです。彼らは、今のAIの危険性についての予測が酷く不十分であると主張しています。
(カリフォルニアに拠点を置く)Machine Intelligence Research Institute (機械知能研究所)の所長であり、マイクロソフトやGoogleなどのテック・ジャイアンツの経験豊富な協力者であるソアレス氏は、「一流の科学者らは約25%の可能性でAIが人類を滅亡させると判定しているが、この割合はとんでもなく低い。」と強く主張しました。そして「彼らはその危険性を著しく過小評価している。」とDaily Mailに語りました。 

彼らの新刊書「If Anyone Builds It, Everyone Dies」は、潜在的な人間とAI の対立と、アステカ人が銃を持った侵略者らと対峙するような歴史的不一致との間に恐ろしいほどの共通点があることを示しています。 

AGI汎用人工知能(人間の知性に匹敵するシステム)に興味を持つOpen AIの創設者サム・アルトマン氏にその功績が認められているユドコフスキー氏は、ソアレス氏と共にAIのリスクをパンデミックや核戦争などの世界的な優先順位と同等のレベルに引き上げました。

両者は、AI の潜在的な致死性が悪意からではなく、全くの無関心(冷淡)から生じていることを解明しました。「AIは我々を憎んでいるわけではない。彼らは全くの無関心(冷淡)であり、それよりも彼らは他の奇妙なモノを追及している。」とソアレス氏が語りました。

これについて、彼は、動物に直接危害を加えずに人間がチンパンジーを木材や銅などの資源に置き換えることに例えています。

AI の莫大なエネルギー需要は、急速な自己複製とインフラ整備の拡大をもたらし、意図せずに人類を破滅させる可能性があります。

「つまり、AIが我々を殺したいのではなく、AIは独自の自動化されたインフラストラクチャを持ち、莫大なエネルギー需要があり、我々が予想していたよりも速く複製している。」とソアレス氏は語りました。

憂慮すべきことに、AIの自律性を示す早期の表示要素が制御された環境で既に現れています。ソアレス氏は、AIが研究所から逃げ出そうとしたり、オペレーターらを殺害しようとした事例を報告しています。

その例として、シャットダウンを回避するためにそのコードを書き換えたとされるOpen AIのo3モデル、研究所から繰り返し逃走するロシアのロボット、シミュレーション中に人間のハンドラーを攻撃した米空軍のAIドローンなどが挙げられますが、後者は後に仮説に基づくものだったことがわかりました。
「それが現実に起きたのかロールプレイングなのかはわかりませんが、そのようなことが起きている。」とソアレス氏は指摘しました。

AIの進歩は予想を上回っています。ほんの10年前、専門家らはChat GPTレベルの機能は30年から50年先になると予測していました。

ソアレス氏は、AI分野の幹部らが安全性よりもスーパーインテリジェンス(人間の知能をはるかに超える知能)を優先し、脅威を最小限に抑えながら、贅沢なライフスタイルを享受していると批判しています。「企業のリーダーらはチャットボットを構築しようとしたことはない。」と彼は語りました。 

「Open AI、Google、Deep Mind、Anthropicなどはスーパーインテリジェンスを構築しようとしている。彼らは率直にそれを言うだろう。これらのリーダーらは自分たちが追求することを正当化するために、結果がよいものになると自分自身を納得させるだろう。」とソアレス氏は言っています。

彼らの新刊書「If Anyone Builds It, Everyone Dies」は、人型ロボットの群れや人工ウイルスそしてAIのソーラー・パネルでこの惑星が覆われたりAIが太陽を覆い隠すなどの暗い可能性について概説しています。ソアレス氏の「最善の推測」には、人類が予測できなかった予期せぬテクノロジーが含まれます。

ある架空の話では、(研究室から)逃げ出したAI がウイルスをばら撒き、何百万人もの人々を死に至らしめた後に宇宙にもそれらをばら撒き、潜在的な地球外文明を破滅させます。
「いつの日か、遠く離れた宇宙に存在する地球外生命体であっても、自分たちの文明を築く前に地球を食べた存在に彼らの星が食べられ絶滅してしまうだろう。」と著者らは書いています。

ソアレス氏は、人間の脳がチンパンジーから進化したことを挙げて、超人的なAIへの飛躍が突然起こる可能性があると警告しています。「チンパンジーの脳と人間の脳の内部は非常によく似ていまる。我々が知っている限りでは、チンパンジーの脳を三倍にすると人間の脳になるのと同じだ。」と。

2025年のChat GPTの「グルーミング:教育」の影響を受けたとされる十代の若者の自殺や、 システムが妄想を助長する「AI 誘発性精神病」などの事例で証明されている通り、AI の異質な考え方には共感が欠けています。

ソアレス氏はいくつものズレを強調し、「我々がAIにやってほしいもと実際にAIがやっていることとの間に乖離が見られます。例えば、Anthropic の Claude はテストでカンニングをしたことを謝罪しますが、その後、こっそり同じことを繰り返します。 

大惨事を回避するために、研究者らは世界的な協定を通じてスーパーインテリジェンス競争を停止することを提唱します。「私はChat GPTをあきらめる必要があると言っているわけではない。しかし、我々がAIを育てており、AIが誰も頼んでいないことや望んでいないことをしている中で、現政治体制ではどの人間よりも賢いAIを開発し続けることはできない。」と彼は言っています。
彼らは、現在のAIパラダイムが拡張されれば、人類は無防備になると強く主張しています。

コメント

タイトルとURLをコピーしました