オープンAIを退社したサツキバー氏は新会社でAIの安全対策に取り組む=ロイター

【シリコンバレー=清水孝輔】米新興企業オープンAI元幹部のイリヤ・サツキバー氏は19日、人間の知能を超える安全な人工知能(AI)を開発するための新会社を設立すると表明した。サツキバー氏はオープンAIで開発を率いたが、5月に同社を退社していた。新会社では短期的な利益を追わず、安全性を高める研究を優先する。

サツキバー氏が19日にX(旧ツイッター)で「新しい会社を始める」と表明した。新会社の名前はセーフ・スーパーインテリジェンスで、米国企業として米西部カリフォルニア州パロアルトとイスラエルのテルアビブに拠点を置く。

サツキバー氏はオープンAI共同創業者兼チーフサイエンティストとして研究をけん引した。2023年11月に当時の理事(企業の取締役に相当)としてサム・アルトマン最高経営責任者(CEO)の解任に同調した。騒動直後にアルトマン氏が復帰すると、理事から外れて表舞台に登場しなくなっていた。

オープンAIは人間よりも賢い「スーパーインテリジェンス」の研究に取り組んできた。サツキバー氏はオープンAIでAIの高度化と安全性を両立する組織を率いてきた。この組織はサツキバー氏が退社した直後、事実上解散したことが明らかになった。

サツキバー氏は米ブルームバーグ通信の取材に対し、新会社について「最初の製品は安全なスーパーインテリジェンスになる」と述べた。AI企業の間で市場競争が激しくなるなか、安全性が確保できるまではサービスとしてAIを市場に投入しない考えを示した。

サツキバー氏は「深層学習の父」と呼ばれるトロント大のジェフリー・ヒントン名誉教授の教え子の一人で、オープンAIのCEO解任騒動後も連絡を取り合ってきた。ヒントン氏は「(サツキバー氏が)AIの危険性を非常に心配している」と述べたことがある。

【関連記事】

  • ・米OpenAI、安全対策強化へ委員会 新モデル開発に着手
  • ・OpenAI、高度AIの安全対策チーム解消 事業拡大優先か
  • ・OpenAI、共同創業者サツキバー氏が退社 AI研究主導

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。