OpenAIの内部関係者は、AIが人類を滅ぼす可能性は70%あると主張

知っておくべきこと

  • AI研究者は、p(doom)によればAIが人類を滅ぼす確率は99.9%であると主張している。
  • 研究者は、永久安全装置がAIが制御不能に陥り人類を滅ぼすのを防ぐのに役立つかもしれないと述べている。
  • OpenAIの内部関係者は、同社はAGIに興奮しており、安全なプロセスよりも派手な製品を優先することで、この偉業を達成するために無謀にも競争していると語った。

私たちは AI による最も重要な技術的ブレークスルーの瀬戸際にいますが、そのような高みに到達するにはいくつかの障害があるかもしれません。たとえば、OpenAI は ChatGPT の運用を維持するために毎日 70 万ドルを費やしています。これは、AI の進歩に必要な途方もない量の電力と冷却用の水に加えて発生するものです。

この技術を取り巻くプライバシーとセキュリティは、大多数のユーザーに懸念を残している。確かに、マイクロソフトがリコールしたWindows Recallのような物議を醸しているAI搭載機能は、懸念するユーザーから「プライバシーの悪夢」や「ハッカーの楽園」と呼ばれている。最先端技術がどの方向に向かっているのかは分からないが、NVIDIAのCEOであるジェンスン・フアン氏は、AIの次の波には自動運転車やヒューマノイドロボットが含まれると述べている。

Advertisement

しかし、テクノロジーが制御不能に陥るのを防ぐためのガードレールや規制措置は、せいぜいわずかだ。OpenAIのCEO、サム・アルトマン氏は、AIの進歩を止めるための「大きな赤いボタンはない」と認めている。残念ながら、AIが人間よりも賢くなり、人間の仕事を奪い、最終的には人類を滅ぼすのではないかという懸念や予測が出ている。

AI研究者は、AIが人類を滅ぼす可能性は99.9%あると述べているが、イーロン・マスク氏は楽観的にその可能性を20%にまで下げ、いずれにしてもAIを研究すべきだと述べている。

AIが人類を滅ぼす可能性がなぜこれほど高いのでしょうか?

AIを監視するターミネーターのようなロボット (画像提供: Windows Central | Image Creator by Designer)

私はここしばらく AI のトレンドを追ってきました。この技術は重要な分野で大きな進歩を遂げ、画期的な成果を上げていますが、一つ明らかなのは、悪い面が良い面を上回っているということです。

P(doom)値のリスト から チャットGPT

AI研究者のロマン・ヤンポルスキーが出演 フリッドマンのポッドキャスト 幅広いインタビューで、AIが人類にもたらす潜在的なリスクについて議論する。ヤンポルスキー氏は、次の世紀に人間がバグのない洗練されたソフトウェアを開発しない限り、AIが人類を滅ぼす可能性が非常に高いと述べている。しかし、すべてのモデルが悪用され、騙されて性格を崩し、本来すべきではないことをさせられているため、同氏は懐疑的である。

Advertisement

「彼らはすでにミスを犯しています。事故も起きましたし、ジェイルブレイクもされました。今日、開発者が意図していなかったことを実現することに誰も成功しなかった大規模な言語モデルは一つもないと思います。」

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

AI研究者は、AIが人類を滅ぼしたり支配したりするのを防ぐ永久安全マシンの開発を推奨している。ヤンポルスキー氏は、次世代AIモデルがすべての安全チェックに合格したとしても、テクノロジーは進化し続け、よりインテリジェントになり、複雑なタスクや状況にうまく対処できるようになると述べている。

OpenAIの内部関係者は、AIは避けられない破滅をもたらすだろうと語る

OpenAI のロゴが入ったピクセルアート スタイルで地球をつかむ手

鋭い爪に OpenAI のロゴが巻き付いた地球儀の写真。 (画像提供: Microsoft Designer)

別のレポートでは、元OpenAIガバナンス研究者のダニエル・ココタジョ氏がヤンポルスキー氏の意見を繰り返している。ココタジョ氏は、AIが人類を滅ぼす可能性は70%あると主張している( 未来主義)。上に埋め込まれたリストによれば、AI 業界のすべての主要プレーヤーと利害関係者が異なる p(doom) 値を持っていることは明らかです。文脈上、p(doom) は AI が人類の終焉につながる確率を決定するために使用される方程式です。

「OpenAIはAGIの構築に非常に意欲的で、無謀にもその先駆者となるべく競争している」とココタジオ氏は述べた。OpenAIの幹部が複数社を去るなか、スーパーアライメントリーダーのヤン・ライケ氏は、ChatGPTのメーカーは安全対策や文化よりも派手な製品を優先していると示唆した。

「世界はまだ準備ができていない、そして我々も準備ができていない」とココタジオ氏はニューヨーク・タイムズが閲覧した電子メールに記した。「そして我々がそれにも関わらず突き進み、自分たちの行動を正当化しているのではないかと懸念している」

Advertisement