
【重要】法廷証言で明らかになった重要事実#
2026年5月7日、カリフォルニア州オークランドの連邦法廷で開かれたイーロン・マスクのOpenAI訴訟において、元従業員の証言によりOpenAIの安全性への取り組みに関する重要な事実が明らかになりました。
主要ポイント:
- 元AGI準備チーム所属のRosie Campbell氏が法廷で証言
- 2021年入社時と比べ、組織が研究重視から製品重視に変化したと証言
- AGI準備チームと超知能調整チームの両方が2024年までに解散
- GPT-4のインド展開で安全性手順が軽視された事例が判明
背景:なぜこのタイミングで安全性が争点となったのか#
マスク氏の法的努力は、OpenAIの営利子会社が同社の創設使命である「人類がAGI(汎用人工知能)から恩恵を受けることの確保」を強化するか、それとも損なうかに焦点を当てています。
Campbell氏は2021年にOpenAIのAGI準備チームに参加し、2024年にチームの解散後に同社を退職しました。同じ時期に、安全性に焦点を当てたもう一つのチーム「超知能調整チーム」も閉鎖されました。
証言で明らかになった組織変化#
研究重視から製品重視への転換#
Campbell氏は法廷で次のように証言しました: 「入社時は非常に研究重視で、AGIや安全性の問題について話すのが一般的でした。時間が経つにつれて、より製品重視の組織のようになりました。」
反対尋問で、Campbell氏はAGI構築というラボの目標には重要な資金調達が必要である可能性が高いことを認めましたが、適切な安全対策を講じずに超知能コンピューターモデルを作成することは、元々参加した組織の使命に適合しないと述べました。
GPT-4インド展開での安全性手順軽視#
Campbell氏は、マイクロソフトがOpenAIのGPT-4モデルのバージョンを、同社の展開安全委員会(DSB)による評価前にBing検索エンジンを通じてインドで展開した事例を指摘しました。
モデル自体は大きなリスクを示さなかったものの、「技術がより強力になるにつれて強い前例を設定する必要がある。確実に従われていることが分かる良い安全プロセスを設置したい」と彼女は述べました。
非営利理事会の統制機能不全#
サム・アルトマンCEOの2023年解任事件#
GPT-4のインド展開は、OpenAIの非営利理事会が2023年にサム・アルトマンCEOを一時的に解任する原因となった危険信号の一つでした。この事件は、当時の主任科学者イリヤ・サツケヴァー氏や当時のCTOミラ・ムラティ氏を含む従業員が、アルトマン氏の対立回避型の管理スタイルについて苦情を申し立てた後に発生しました。
理事会への情報不提供問題#
当時の理事会メンバーだったターシャ・マッコーリー氏は、アルトマン氏がその特異な構造を機能させるために理事会に対して十分に率直でなかったという懸念について証言しました。
マッコーリー氏はまた、アルトマン氏が理事会を誤解させる広く報道されたパターンについて議論しました。特に、アルトマン氏は、OpenAIの安全性ポリシーに対する暗示的批判を含む白書を発表した第三の理事会メンバーであるヘレン・トナー氏を除名するマッコーリー氏の意図について、別の理事会メンバーに嘘をついていました。
アルトマン氏はまた、ChatGPTを公開で立ち上げる決定について理事会に知らせず、メンバーは彼の潜在的利益相反の開示不足を懸念していました。
統制の失敗#
マッコーリー氏は法廷で次のように述べました: 「我々は非営利理事会であり、我々の下にある営利組織を監督できることが我々の任務でした。それを行う主要な方法が疑問視されていました。情報に基づいた方法で決定を下すことを可能にする情報が伝えられているという高い信頼度は全くありませんでした。」
しかし、アルトマン氏を解任する決定は、同社従業員への株式売却提案と同時期に行われました。マッコーリー氏によると、OpenAIのスタッフがアルトマン氏の味方をし始め、マイクロソフトが現状回復に働きかけたため、理事会は最終的に方針を転換し、アルトマン氏に反対していたメンバーが退任したとのことです。
専門家による分析#
マスクチームから報酬を受けて専門証人として活動しているコロンビア大学ロースクールの元学部長デビッド・シャイザー氏は、マッコーリー氏の懸念を支持しました。
「OpenAIは、その使命の重要な部分が安全性であり、利益よりも安全性を優先すると強調してきました。その一部は安全性ルールを真剣に受け止めることです。何かが安全性審査の対象になる必要がある場合、それが行われる必要があります。重要なのはプロセスの問題です」とシャイザー氏は述べました。
より広範囲な規制への示唆#
AIが既に営利企業に深く組み込まれている中、この問題は単一のラボをはるかに超えています。マッコーリー氏は、OpenAIでの内部統制の失敗は、先進AIのより強力な政府規制を受け入れる理由であるべきだと述べました。
「すべてが一人のCEOがその決定を下すことに帰結し、我々には公共の利益が危険にさらされているなら、それは非常に最適ではありません」
現在のOpenAIの安全性への取り組み#
OpenAIは現在、モデルの評価を公開し、安全性フレームワークを公的に共有していますが、同社は現在のAGI調整への取り組みについてのコメントを拒否しました。準備責任者のディラン・スカンディナロ氏が2月にAnthropic社から採用されました。アルトマンCEOは、この採用により「今夜はよく眠れる」と述べました。
よくある質問と回答#
Q: なぜ安全性チームが解散されたのですか? A: ソース記事では具体的な理由は明記されていません。詳細は元記事を参照してください。
Q: マスク氏の訴訟の焦点は何ですか? A: OpenAIが研究組織から世界最大の民間企業の一つへと変貌したことが、組織創設者の暗黙の合意を破ったという主張に焦点を当てています。
Q: 現在のOpenAIの安全性への取り組みはどうですか? A: 同社はモデルの評価を公開し、安全性フレームワークを共有していますが、現在のAGI調整への取り組みについてはコメントを拒否しています。
まとめ:押さえておくべき3つのポイント#
組織変化の証拠: 元従業員の法廷証言により、OpenAIが研究重視から製品重視の組織に変化したことが明らかになった
安全性手順の軽視: GPT-4のインド展開事例で、適切な安全性評価プロセスが軽視されたことが判明
統制機能の失敗: 非営利理事会によるCEO解任の試みとその失敗は、組織統制の根本的な問題を浮き彫りにした
今後の注目ポイント#
この法廷での証言は、AI業界全体の安全性と規制に関する議論に大きな影響を与える可能性があります。特に、営利企業におけるAI開発の安全性確保や、適切な統制メカニズムの必要性について、業界全体での議論が加速することが予想されます。
出典: Elon Musk’s lawsuit is putting OpenAI’s safety record under the microscope




