AI・テクノロジー

サム・アルトマン「俺、AGIの作り方知っているよ」

こんにちは、リュウセイです。
「ChatGPT✖️ブログ運営」を日々研究しています。

今回はOpenAIのCEOであるサム・アルトマン氏がブログで公開したReflectionsという記事をベースに記事を書いていきます。

記事にはサム・アルトマン氏と彼がCEOを務めるOpenAIのストーリーが書かれているのですが、アルトマン氏は若干ポエミーな部分があると言われ、例に漏れず一般の人には文章が少し分かりづらいです。

そこで、AIに超絶分かりやすく解説してもらった文章を合わせて読んでみたら、かなり分かりやすい感じで書いてくれて、やっぱりAIの要約・翻訳パワーはすごい!と感じました。

ただ、それでも細かい背景をある程度知っておかないと「なるほど、OpenAIはこうして進んで来たのか!」という全体像がつかみにくいなとも思ったんです。

そもそも、サム・アルトマン氏はOpenAIのCEOとしていろいろな発信をしている人。

だけど、その発信の中には「彼自身が抱いている未来観」が盛り込まれているケースが多く、その分ちょっと抽象度も高いんですよね。

この記事では、「Reflections」の内容をざっと知りつつ、当該記事には詳しく書かれていない背景情報も押さえてみようというコンセプトで執筆を始めます。

  • 特にOpenAIが初期は非営利を掲げていたのに、なぜ営利化へ突き進んだのか?
  • その裏側でイーロン・マスク氏が離脱して提訴騒動を起こしたのは何故なのか?

こういった部分も含めてオールインワンで説明していこうと思います。

最終的には、OpenAIの経緯をざっと理解してもらって、「サム・アルトマンさん、意外と波乱万丈やってるんだな」と思ってもらうのが狙いです。

詳しく噛み砕いて記事を書くので、ぜひ最後まで読んでみてくださいね。

それではまずは、OpenAIやAGI、そしてサム・アルトマン本人がどんな人物なのかを順番に見ていきましょう。

前提知識【OpenAIとAGIを知るために】

僕たちが「Reflections」の内容をきちんと理解するうえで欠かせないのが、まずはOpenAIがどんな組織で、そこで進められているAI開発がどんなレベルなのかという基本情報です。

OpenAIといえば「ChatGPT」というツールが超有名になりましたが、ChatGPTだけがOpenAIのすべてではありません。

実はもっと大きな枠組みとして、AGI(汎用人工知能)を目指す研究や、そこに至るための強力な計算資源の確保、そして世界中のAI人材を引き寄せる仕組みなど、多岐にわたる動きを展開している団体なんです。

だからこそ、「サム・アルトマンって結局何がすごいの?」とか「OpenAIはどういう会社(組織)なの?」という基本を押さえておかないと、Reflectionsに書かれている話がピンと来ない可能性が高いんですよね。

ここでは「サム・アルトマン」「OpenAI」「ChatGPT」「AGI」という4つのキーワードを軸に、必要最低限の知識を解説していきます。

詳しく知っている人にとっては退屈かもしれないけれど、詳しくない人が読み進めるときに“置いてきぼり”を食らわないようにするためなので、軽く目を通してみてください。

ちなみに「なるべく詳しくない人に向けた解説をするぞ!」と意気込んでいますが、それでも専門用語や略称が増えがちな世界なので、なるべく噛み砕いて書きますね。

専門用語が出てきたら、その都度補足するのでご安心ください!

「サム・アルトマン」とはどんな人物?

まずはOpenAIのCEOでもあるサム・アルトマンという人物について解説していきます。

彼はアメリカ出身の起業家であり投資家でもあり、さらにY Combinator(ワイ・コンビネーター)という有名スタートアップアクセラレーターの元社長としても知られています。

Y Combinator(以下YCと呼びます)は「Dropbox」や「Airbnb」などを支援してきたことで世界的に有名な組織で、たくさんのベンチャー企業を成功に導いてきました。

そんなYCを率いていたサム・アルトマン氏は、もともと起業家や投資家の世界でずっと活躍してきたわけですね。

しかし彼の最大の特徴は、「AI時代が必ず来る」と確信していて、それに向けた技術や事業展開を超速で推し進める実行力にあるんじゃないかと僕は思います。

よくサム・アルトマン氏は「未来を読む力がある」「新しい技術に対して強烈に突き進むパワーがある人」と評されますが、確かにそういう面は否定できません。

彼がOpenAIのCEOとして掲げるビジョンや戦略には、大衆受けしにくい“攻めの姿勢”が色濃く反映されている印象ですね。

たとえば、「ChatGPTを世に出して一気にAI革命を加速させる」という大きな動きがありましたが、社内外では「リスク管理が追いついてないのでは?」と心配する声も少なくありませんでした。

それでもサム・アルトマン氏はリリースを強行し、それが結果として世界的なAIブームを巻き起こすきっかけになりました。

一方で、そのリリース後の社会的影響やリスクに関しては、OpenAIや彼自身がものすごく注目を浴びることにもなったんです。

ここから読み取れるのは、サム・アルトマン氏はスピード感重視で、大きな賭けにも挑むタイプだということ。

さらに、彼の発するメッセージには「AIの進化は止まらないから、社会も一緒に変わっていかなきゃいけないよね」という考えが垣間見えます。

これは「Reflections」などのブログ記事や、インタビュー動画などでも度々語られているんですね。

もう少しサム・アルトマン氏のパーソナルな背景に触れると、彼は1985年4月22日生まれと言われています。

彼が若い頃からコンピューターやテクノロジーに関心を持っていたのは有名なエピソードで、初めてプログラミングに触れたのも相当早かったと言われています。

そして高校を卒業した後、名門のスタンフォード大学に進学するも中退して自分のスタートアップを立ち上げたという、アメリカの起業家あるあるストーリーでもあるんですね。

ただ重要なのは、彼が単なる“テック好き”にとどまらず、投資や経営、さらには社会全体がどう変わるべきかというメタ視点を持っていることだと思います。

これはYCで多くの企業を支援した経験が大きいのでしょうし、他にも多面的に事業を見てきたからこそ、今のOpenAIをリードする立場に収まっているのだと感じます。

サム・アルトマン氏には「起業家」「投資家」「経営者」「思想家」など、いろいろな肩書きがつきまといますが、僕としては“強い未来志向を持つプロデューサー気質の人”というイメージがしっくり来ています。

大きなゴールを掲げて、そのための道筋や投資を大胆かつ柔軟に組み上げるプロデューサーという感じですね。

それだけ多様な視点とビジョンを持ち、社会全体を巻き込もうとしているのがサム・アルトマン氏です。

ちなみに「Reflections」以外にも、彼はいろんなメディアやSNSで情報発信を続けています。

英語圏のメディアが中心ですが、興味があるあなたはTwitter(X)やプレスリリースなどを追ってみると、新しい動向をキャッチできるかもしれません。

「OpenAI」とはどんな会社?

次は、サム・アルトマン氏が率いる「OpenAI」という組織について整理しましょう。

OpenAIと聞くと多くの人は「世界的に有名なAI研究所」と思い浮かべるでしょうし、まさに間違いではありません。

でもその一方で、最初は非営利団体として始まったものが、いまでは営利部門を抱える複雑な構造になっている点も意外と知られていません。

OpenAIは2015年末にイーロン・マスク氏やサム・アルトマン氏など、テック業界の著名人が共同で設立しました。

この時は「AGIを作り出して世界に恩恵をもたらす」という大きな目的がありながら、同時に「AI技術が独占されてはいけない」という理想が掲げられていました。

そのため、最初は完全な非営利団体としてスタートし、出資者たちも「大きなリターンを望まない」寄付的な形でお金を出していたんですね。

しかし、その後AI研究が進むにつれ、膨大なコンピュータ資源(GPUやTPUなど)の調達が必須になってきました。

研究の規模が一気に大きくなればなるほど、年間で数十億ドル単位の資金が必要になる…というのは、さすがに寄付だけではどうにも難しい世界です。

そこで2019年ごろに、OpenAIは非営利団体を中核にしながらも「OpenAI LP」という形で営利企業を設立する道を選びました。

「LP」はリミテッド・パートナーシップ(有限責任組合)という形態で、利益の上限を設定して投資家にリターンを分配しつつ、余剰は引き続き非営利部門に回すという独特の構造をとっています。

これにより投資家たちから大規模な資金調達を行いやすくなり、研究開発を加速できるようになったわけです。

ここがOpenAIの大きな特徴であり、同時に「もう“Open”じゃないんじゃないか」という批判の的にもなっています。

イーロン・マスク氏が離脱したのも、この組織構造の転換と深く関係していると言われています(詳しくは後の章で書きますね)。

さらに重要なのが、OpenAIの最終目標は“AGI(汎用人工知能)”を実現することだという点。

通常のAI研究は特定のタスクに特化した「狭いAI(Narrow AI)」が中心ですが、OpenAIは「人間がやるあらゆる知的タスクを代替または超越する汎用性」を目指しているのです。

これはテック業界だけでなく、社会全体にとっても超インパクトのあるゴールであり、賛否両論を巻き起こしています。

たとえば、OpenAIの開発したGPTシリーズの大規模言語モデルは、今まさに世界中で使われている「ChatGPT」の頭脳部分でもありますが、さらに強力なモデルをどんどん作ろうとしていますよね。

この進化の速度はとても速く、「GTPS-4」「GPT-4.5」「GPT-5?」など、次々とバージョンアップの噂が飛び交っています。

技術的な進化を追うだけでも大変ですが、そこに加えて組織構造の複雑さや、莫大な資金調達の話が絡むと、初心者が一気に混乱してしまうのも無理はありません。

加えて、OpenAIは安全性と倫理面でも大きな責任を負う立場にいます。

「ChatGPTの使い方ひとつとっても、スパムメールや詐欺など悪用が増える可能性があるじゃないか」という声もあるし、「AGIができたら人類の仕事はどうなるの?」という不安も絶えません。

このため、OpenAIは研究成果を社会へ段階的にリリースする方針を取ると表明し、リスク管理に力を注ぎ始めました。

ただし、そういった安全策とビジネスとしてのスピード感をどう両立させるかは一筋縄ではいかない問題です。

  • もしOpenAIが慎重になりすぎると、別のAI企業が先を越してしまうかもしれない。
  • 逆に、リスクを顧みず突っ走れば社会問題を引き起こしてしまうかもしれない。

この葛藤の中で、サム・アルトマン氏がCEOとしてどんな舵取りをしているのかを見守るのは、とても面白いテーマだと思います。

まとめると、OpenAIは「当初の非営利理念を持ちつつも、いまは巨大資金を動かす営利部門も抱えており、AGI実現を本気で狙う研究集団」です。

そのスケール感やスピード感にはまさに世界が注目しているので、こうした背景を頭に入れておくと「Reflections」で書かれる話もより理解しやすくなるのではないでしょうか。

「ChatGPT」とはどんなAIツール?

さて、OpenAIの代表的なプロダクトといえば、今や世界的に有名な「ChatGPT」でしょう。

その名の通り、チャット形式でGPTシリーズの言語モデルと対話できるサービスとして、2022年11月30日に登場しました。

今でこそ「AIとチャットする」ことに慣れた人が増えましたが、当時は「AIと会話? そんなの研究所の中だけの話でしょ?」と思われていた節があります。

そこにOpenAIがドカンと公式ウェブサービスとして公開し、無料でもある程度使える形にしたことで、一気にAIが身近なものとして広まりました。

僕自身、「ChatGPTが登場するちょっと前までは、ここまで“対話”ができるAIが一般に普及するなんて誰が想像した?」と感じるくらい衝撃的でしたね。

実際に触ってみると、普通に文章を打ち込んだら、普通に返事が返ってくるんです。

しかも自然言語で会話が成り立つだけでなく、要望に応じてプログラムコードを書いてくれたり、複雑な概念を分かりやすく説明してくれたりするのですから、そりゃみんな驚きますよね。

ChatGPTの凄さは、ユーザーにとって「専門知識を持っていなくてもAIが使える」という敷居の低さです。

大規模言語モデル(LLM)としてのGPTは元々研究者向けにAPI提供されていましたが、そこにユーザーフレンドリーなチャットUIを乗せただけで、これだけ世界を変えてしまうんだなと痛感しました。

具体的にChatGPTが得意なことを挙げると、

  • 文章要約(長文の内容を短くまとめる)
  • アイデア出し(ブレインストーミングの相手をしてもらう)
  • プログラミングのサポート(コードのサンプルを示したり、バグを指摘したり)
  • 外国語の翻訳(割と自然な訳文が得られる)
  • 学習の補助(問題を解いてもらう、分かりやすい解説を求める)

などなど、多岐にわたります。

もちろん万能ではありません。

Hallucination(幻覚)と呼ばれる事実誤認の回答をしてしまうこともあるし、答えが不正確なときだってあります。

また、センシティブな質問や法律的にグレーな要望には応じないようブロックされる場合もあります。

ただ、それでもなお「これが無料で使えるの?!」と驚く人が続出するくらいのインパクトがあるんです。

事実、リリースから2カ月ほどで1億ユーザーを突破したと言われていて、これはSNSや他のオンラインサービスを含めても史上例を見ない普及速度でした。

さらにOpenAIは、ChatGPTの有料プラン「ChatGPT Plus」を展開し、追加機能や優先利用枠を提供することで収益を得始めました。

その上で、APIも開放して多くの企業や開発者が自分たちのサービスにChatGPTを組み込めるようにしています。

僕も日常的にChatGPTを使いまくっているわけですが、やっぱり「自然言語でAIと会話できる」強みは大きい。

CLI(コマンドライン)なんかでPythonスクリプトを走らせてAIに命令するより、誰でもチャットUIを使ってパパッと対話できたほうが手軽ですよね。

この手軽さは「一度使うと手放せなくなる」類のものなので、それだけでもOpenAIの製品戦略は大成功とも言えます。

ただし、この瞬間にもGoogleやMicrosoftなどの巨大企業、さらには無数のスタートアップが似たようなチャットAIを世に出してきています。

先行者であるOpenAIが今後どうやって技術の優位性を維持していくのか、またユーザーをどう獲得していくのかも注目ポイントです。

いずれにせよ、ChatGPTはOpenAIの歴史を大きく変えた主力製品であり、サム・アルトマン氏自身も「これがAI革命の始まりだ」と語っています。

もしあなたがChatGPTをまだ触ったことがないなら、一度でもいいから是非試してみると世界が変わるかもしれません。

「Reflections」で語られる理想や世界観の一端が、きっとあなたにも具体的に感じられるはずですよ。

「AGI」とはどのような概念?

最後に、今回のブログ記事でも何度か登場している「AGI」というキーワードを簡単に解説しましょう。

AGIはArtificial General Intelligenceの頭文字を取ったもので、日本語では「汎用人工知能」と訳されることが多いです。

何が「汎用」なのかというと、人間が行う知的作業を総合的に遂行できる能力を持つという点がポイントになります。

いま世の中にある多くのAIは、画像認識や音声合成、文章生成など、特定の分野やタスクに特化した「狭いAI」と呼ばれるものです。

たとえば、画像認識AIは画像の中の物体を識別するのが得意だけど、言語翻訳はできませんし、複雑な経営判断をするわけでもありません。

一方でAGIは、人間が脳を使ってやっているあらゆる知的活動を、同等かそれ以上のレベルで実行できるAIを指します。

つまりは「なんでも屋」的な人工知能で、ものすごくざっくり言えば「人間レベルの思考と学習ができるAIを作ろう」という超壮大なプロジェクトなんです。

このAGIがもし実現すれば、医学の研究から経済政策の立案、さらには創作活動まで、ほぼすべてにわたってAIが人間以上の働きをする可能性が出てきます。

当然、それだけの力を持ったAIが誕生すれば、社会の形態が大きく変わるのは想像に難くありません。

OpenAIは、このAGI実現を大きなゴールとして掲げているわけですが、実際にそこへ至るには莫大なリソースと技術ブレークスルーが必要だとされています。

サム・アルトマン氏自身が「AGI開発は一筋縄ではいかないけど、ChatGPTやGPTシリーズはその過程の一部にすぎない」と公言していることからも、さらに先の未来を見据えているのが分かりますね。

AGIに関しては、楽観的な見方をする人もいれば、「そんなものが本当にできたら人間の存在意義はどうなるの?」と不安や警鐘を鳴らす人もいます。

映画や小説などのフィクション作品で、AIが暴走して人類を危機に陥れるシナリオを見たことがあるあなたも多いのではないでしょうか。

実際、AGIが人間を超えたときにどうなるかは、誰にもはっきり分かりません。

ただし、OpenAIやサム・アルトマン氏が口をそろえて言うのは「AGIは巨大な可能性を秘めていて、人類の問題解決を飛躍的に進める力がある」という点です。

たとえば、難病の治療法を短期間で見つけられるかもしれないし、環境問題だって一気に解決へ向かうかもしれない。

それこそ“AIが人間を助け、豊かな未来を築く”シナリオだって十分に描けるわけですよね。

だからこそOpenAIは、あくまで「AGIを安全かつ人類に利益をもたらす形で開発する」というミッションを掲げているわけですが、そのために何が必要なのかはまだ手探り状態。

「Reflections」でも、AGIの安全性や社会との共進化を強調している部分が散見されます。

要するにAGIとは、まさに“AI革命の最終形態”とも言うべき壮大なテーマであり、OpenAIの動向を追うなら絶対に外せないキーワードなのです。

ここまでで、サム・アルトマン氏、OpenAI、ChatGPT、そしてAGIといった主要なキーワードを一通りざっくりお話しました。

次の章からはいよいよ、サム・アルトマン氏が書いた「Reflections」そのものの内容を紹介しつつ、当該記事に書かれていない背景情報にも迫っていこうと思います。

この背景知識を踏まえて読めば、「なるほど、サム・アルトマンやOpenAIって、こんな流れでAI研究に取り組んできたんだな」と理解が深まるはずです。

それでは次の章に進んで、サム・アルトマン氏の記事を具体的に読み解いていきましょう!

サム・アルトマンの記事「Reflections」を読み解く

ここでは、サム・アルトマン氏が自身のブログで公開している「Reflections」を軸に、その狙いと背景をざっくり掘り下げてみます。

そもそもサム・アルトマンという人物は、常に「AIの未来」を軸に発信を行うタイプです。

だけど、その発信内容はかなり抽象度が高く、時にポエミーと評されることもあるんですよね。

「Reflections」もまさに、そんなサム氏の思想が詰まった記事だと言えます。

読んでみると、彼が「AIによって社会がどう変わるべきか」を語っている箇所があちこちに散りばめられていて、いわゆるテクニカルな論文や技術記事とは全然違う雰囲気を醸し出しているんです。

サム・アルトマン氏は「AI革命は必然であり、それに社会がどう適応していくかが最重要」と強調します。

一方で「すべての人がAIの恩恵を受けるようにしたい」という理想論も強く掲げている。

そこには「だからこそ段階的に安全性を確保していくべきだ」という慎重論と、「でもリリースを遅らせすぎると革新を逃してしまう」という攻めの姿勢が複雑に入り混じっています。

「Reflections」を読んでいると、サム氏がこのアンビバレント(相反する)な感情を抱えながら、果敢に舵を切っている様子が伝わってくるんです。

実際、ChatGPTのリリースも賛否両論ありましたが、世界的な注目を浴びる中で彼らは「やってみないと分からない」「社会と共に学びながら進化していく」というスタンスを貫きました。

記事中には、彼自身が「不確実性のなかで最善策を模索している」という趣旨のコメントも散見されます。

ただ、この「Reflections」には、イーロン・マスク氏が離脱した背景やOpenAIが営利化した経緯など、ちょっと生々しい話はほとんど出てきません。

あくまで「OpenAIとしてここまで歩んできた道を振り返り、これからもAGIに向けてチャレンジを続けるよ」という、自分たちの未来志向をポジティブに語る内容が中心です。

ある意味では、世間に向けて発信する「OpenAIのストーリー」をスマートにまとめたのが「Reflections」なのだと思います。

ただ、この言葉だけを読んで「OpenAIやサムは一枚岩で、ほとんど苦労なしに成功を収めてきたんだな」なんて勘違いしないでほしいんです。

実際には波乱に満ちた歴史があって、その詳細を知ればこそ「そりゃサムもいろいろ考えた末にこういう書き方をしているんだな」と納得できる部分が多い。

要するに、「Reflections」はOpenAIやサム・アルトマン氏に対する“公式見解”的な意味合いが強い記事でもあるんですね。

つまり世界に向けて「どう自分たちを見せたいか」を明確化しており、その文面には理想とビジョンに包まれたメッセージが詰め込まれている。

彼の文章は、テック界隈のCEOが書くような実直でビジネスライクな文章とも、学術研究者が書くような論文とも違います。

もっとパーソナルで、なおかつ壮大なストーリーを感じさせるんです。

そこに「彼自身のポエム成分」が出ているのかも?

いずれにせよ「Reflections」は、今のOpenAIがどこに立ち、どこへ向かおうとしているのかを語るうえで外せない資料であり、サム氏がこれまで抱いてきた思いを凝縮した文章でもあります。

だから、もしあなたがOpenAIの動向に興味を持ったならば、一度は原文を読んでみるのがおすすめです。

ただ、長くて抽象的なので、途中で「ん?これはなんの話?」と迷うかもしれない。

そんなときは、この記事の他章にある「背景情報」や「営利化の流れ」を先に把握すると、ずっと読みやすくなります。

実際に僕も最初は「Reflections」をざっと読み、「なんとなく分かったけど抽象的だなあ」と思いながら背景を調べていくうちに「あ、こういうことか!」とようやく繋がったんです。

要はこのブログ記事全体が「Reflections」を理解するための補助線になればいいなと思って書いているわけですね。

この後の章では、OpenAIがなぜ非営利から営利へ移行したか、そのプロセスや組織形態の話をより突っ込んで解説します。

そこを踏まえて読み直すと、「Reflections」の言葉の重みが違って感じられるかもしれません。

原文

The second birthday of ChatGPT was only a little over a month ago, and now we have transitioned into the next paradigm of models that can do complex reasoning. New years get people in a reflective mood, and I wanted to share some personal thoughts about how it has gone so far, and some of the things I’ve learned along the way.

As we get closer to AGI, it feels like an important time to look at the progress of our company. There is still so much to understand, still so much we don’t know, and it’s still so early. But we know a lot more than we did when we started.

We started OpenAI almost nine years ago because we believed that AGI was possible, and that it could be the most impactful technology in human history. We wanted to figure out how to build it and make it broadly beneficial; we were excited to try to make our mark on history. Our ambitions were extraordinarily high and so was our belief that the work might benefit society in an equally extraordinary way.

At the time, very few people cared, and if they did, it was mostly because they thought we had no chance of success.

In 2022, OpenAI was a quiet research lab working on something temporarily called “Chat With GPT-3.5”. (We are much better at research than we are at naming things.) We had been watching people use the playground feature of our API and knew that developers were really enjoying talking to the model. We thought building a demo around that experience would show people something important about the future and help us make our models better and safer.

We ended up mercifully calling it ChatGPT instead, and launched it on November 30th of 2022.

We always knew, abstractly, that at some point we would hit a tipping point and the AI revolution would get kicked off. But we didn’t know what the moment would be. To our surprise, it turned out to be this.

The launch of ChatGPT kicked off a growth curve like nothing we have ever seen—in our company, our industry, and the world broadly. We are finally seeing some of the massive upside we have always hoped for from AI, and we can see how much more will come soon.

It hasn’t been easy. The road hasn’t been smooth and the right choices haven’t been obvious.

In the last two years, we had to build an entire company, almost from scratch, around this new technology. There is no way to train people for this except by doing it, and when the technology category is completely new, there is no one at all who can tell you exactly how it should be done.

Building up a company at such high velocity with so little training is a messy process. It’s often two steps forward, one step back (and sometimes, one step forward and two steps back). Mistakes get corrected as you go along, but there aren’t really any handbooks or guideposts when you’re doing original work. Moving at speed in uncharted waters is an incredible experience, but it is also immensely stressful for all the players. Conflicts and misunderstanding abound.

These years have been the most rewarding, fun, best, interesting, exhausting, stressful, and—particularly for the last two—unpleasant years of my life so far. The overwhelming feeling is gratitude; I know that someday I’ll be retired at our ranch watching the plants grow, a little bored, and will think back at how cool it was that I got to do the work I dreamed of since I was a little kid. I try to remember that on any given Friday, when seven things go badly wrong by 1 pm.

A little over a year ago, on one particular Friday, the main thing that had gone wrong that day was that I got fired by surprise on a video call, and then right after we hung up the board published a blog post about it. I was in a hotel room in Las Vegas. It felt, to a degree that is almost impossible to explain, like a dream gone wrong.

Getting fired in public with no warning kicked off a really crazy few hours, and a pretty crazy few days. The “fog of war” was the strangest part. None of us were able to get satisfactory answers about what had happened, or why.

The whole event was, in my opinion, a big failure of governance by well-meaning people, myself included. Looking back, I certainly wish I had done things differently, and I’d like to believe I’m a better, more thoughtful leader today than I was a year ago.

I also learned the importance of a board with diverse viewpoints and broad experience in managing a complex set of challenges. Good governance requires a lot of trust and credibility. I appreciate the way so many people worked together to build a stronger system of governance for OpenAI that enables us to pursue our mission of ensuring that AGI benefits all of humanity.

My biggest takeaway is how much I have to be thankful for and how many people I owe gratitude towards: to everyone who works at OpenAI and has chosen to spend their time and effort going after this dream, to friends who helped us get through the crisis moments, to our partners and customers who supported us and entrusted us to enable their success, and to the people in my life who showed me how much they cared.

We all got back to the work in a more cohesive and positive way and I’m very proud of our focus since then. We have done what is easily some of our best research ever. We grew from about 100 million weekly active users to more than 300 million. Most of all, we have continued to put technology out into the world that people genuinely seem to love and that solves real problems.

Nine years ago, we really had no idea what we were eventually going to become; even now, we only sort of know. AI development has taken many twists and turns and we expect more in the future.

Some of the twists have been joyful; some have been hard. It’s been fun watching a steady stream of research miracles occur, and a lot of naysayers have become true believers. We’ve also seen some colleagues split off and become competitors. Teams tend to turn over as they scale, and OpenAI scales really fast. I think some of this is unavoidable—startups usually see a lot of turnover at each new major level of scale, and at OpenAI numbers go up by orders of magnitude every few months. The last two years have been like a decade at a normal company. When any company grows and evolves so fast, interests naturally diverge. And when any company in an important industry is in the lead, lots of people attack it for all sorts of reasons, especially when they are trying to compete with it.

Our vision won’t change; our tactics will continue to evolve. For example, when we started we had no idea we would have to build a product company; we thought we were just going to do great research. We also had no idea we would need such a crazy amount of capital. There are new things we have to go build now that we didn’t understand a few years ago, and there will be new things in the future we can barely imagine now.

We are proud of our track-record on research and deployment so far, and are committed to continuing to advance our thinking on safety and benefits sharing. We continue to believe that the best way to make an AI system safe is by iteratively and gradually releasing it into the world, giving society time to adapt and co-evolve with the technology, learning from experience, and continuing to make the technology safer. We believe in the importance of being world leaders on safety and alignment research, and in guiding that research with feedback from real world applications.

We are now confident we know how to build AGI as we have traditionally understood it. We believe that, in 2025, we may see the first AI agents “join the workforce” and materially change the output of companies. We continue to believe that iteratively putting great tools in the hands of people leads to great, broadly-distributed outcomes.

We are beginning to turn our aim beyond that, to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future. With superintelligence, we can do anything else. Superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity.

This sounds like science fiction right now, and somewhat crazy to even talk about it. That’s alright—we’ve been there before and we’re OK with being there again. We’re pretty confident that in the next few years, everyone will see what we see, and that the need to act with great care, while still maximizing broad benefit and empowerment, is so important. Given the possibilities of our work, OpenAI cannot be a normal company.

How lucky and humbling it is to be able to play a role in this work.

(Thanks to Josh Tyrangiel for sort of prompting this. I wish we had had a lot more time.)

There were a lot of people who did incredible and gigantic amounts of work to help OpenAI, and me personally, during those few days, but two people stood out from all others.

Ron Conway and Brian Chesky went so far above and beyond the call of duty that I’m not even sure how to describe it. I’ve of course heard stories about Ron’s ability and tenaciousness for years and I’ve spent a lot of time with Brian over the past couple of years getting a huge amount of help and advice.

But there’s nothing quite like being in the foxhole with people to see what they can really do. I am reasonably confident OpenAI would have fallen apart without their help; they worked around the clock for days until things were done.

Although they worked unbelievably hard, they stayed calm and had clear strategic thought and great advice throughout. They stopped me from making several mistakes and made none themselves. They used their vast networks for everything needed and were able to navigate many complex situations. And I’m sure they did a lot of things I don’t know about.

What I will remember most, though, is their care, compassion, and support.

I thought I knew what it looked like to support a founder and a company, and in some small sense I did. But I have never before seen, or even heard of, anything like what these guys did, and now I get more fully why they have the legendary status they do. They are different and both fully deserve their genuinely unique reputations, but they are similar in their remarkable ability to move mountains and help, and in their unwavering commitment in times of need. The tech industry is far better off for having both of them in it.

There are others like them; it is an amazingly special thing about our industry and does much more to make it all work than people realize. I look forward to paying it forward.

On a more personal note, thanks especially to Ollie for his support that weekend and always; he is incredible in every way and no one could ask for a better partner.

6250 responses A posthaven user upvoted this post. A posthaven user upvoted this post. A posthaven user upvoted this post. Vu Nguyen upvoted this post. Garry Tan upvoted this post. A posthaven user upvoted this post. eric diep upvoted this post. 6243 visitors upvoted this post.

Sam Altman

日本語訳(Gemini 2.0が一晩でやってくれました)

ChatGPTの2回目の誕生日からわずか1ヶ月余りが過ぎ、私たちは複雑な推論ができるモデルの次のパラダイムへと移行しました。 新しい年を迎えると、人は反省的な気分になるものですが、これまでの道のりについての個人的な考えと、その過程で学んだことをいくつか共有したいと思います。

AGI(汎用人工知能)に近づくにつれて、当社の進捗状況を見直す重要な時期だと感じています。まだ理解すべきことはたくさんあり、知らないこともたくさんあり、まだ始まったばかりです。しかし、創業当初よりも多くのことを知っています。

私たちは約9年前にOpenAIを設立しました。AGIが可能であると信じており、それが人類史上最も影響力のある技術になり得ると考えていたからです。 私たちは、それをどのように構築し、広く有益なものにするかを解明したいと思っていました。歴史に足跡を残そうとすることに興奮していました。私たちの野望は非常に高く、その仕事が社会に同じように並外れた利益をもたらす可能性があると信じていました。 当時、ほとんどの人は関心がなく、もし関心があったとしても、それは私たちが成功する可能性がないと思っていたからでした。

2022年、OpenAIは「Chat With GPT-3.5」と一時的に呼ばれるものに取り組んでいる静かな研究所でした。(私たちは、物事に名前を付けるよりも研究の方が得意です。) 私たちは、APIのプレイグラウンド機能を使用する人々を見ていて、開発者がモデルと話すことを本当に楽しんでいることを知っていました。その経験を中心としたデモを構築することで、未来について重要なことを人々に示し、私たちのモデルをより良く、より安全にするのに役立つと考えました。

私たちは最終的に、それをありがたいことにChatGPTと名付け、2022年11月30日にリリースしました

私たちは常に、ある時点で転換点を迎え、AI革命が始まることを抽象的に知っていました。しかし、それがどのような瞬間になるかは知りませんでした。驚いたことに、それはこれであることが判明しました。

ChatGPTのリリースは、当社、業界、そして世界全体で、これまで見たことのないような成長曲線を開始しました。 私たちはついに、AIに常に期待してきた巨大なプラスの側面を目の当たりにし、さらに多くのものがすぐにやってくることを理解しています。 それは簡単ではありませんでした。道は平坦ではなく、正しい選択は明白ではありませんでした。

過去2年間で、私たちはこの新しい技術を中心に、ほぼゼロから会社全体を構築する必要がありました。 これについて人々を訓練する方法は、それを行う以外にありません。そして、テクノロジーのカテゴリーが完全に新しいものである場合、正確にどのように行うべきかを教えてくれる人は誰もいません。

そのような高速で、トレーニングがほとんどない状態で会社を構築するのは、乱雑なプロセスです。多くの場合、2歩進んで1歩後退します(そして時には、1歩進んで2歩後退します)。間違いは進むにつれて修正されますが、オリジナルな作業を行っているときは、実際にハンドブックや道標はありません。 未知の海を高速で移動することは素晴らしい経験ですが、関係者全員にとって非常にストレスも大きいです。対立や誤解があふれています。

これらの数年間は、私の人生で最もやりがいがあり、楽しく、最高で、面白く、疲れ果て、ストレスの多いものでした。特に最後の2年間は不快なものでした。圧倒的な感情は感謝です。いつか私は牧場で退職して植物の成長を眺めながら、少し退屈して、子供の頃から夢見ていた仕事ができたことはどれほどクールだっただろうかと振り返るでしょう。7つのことが午後1時までにうまくいかない金曜日に、そのことを思い出そうとしています。

1年余り前のある金曜日、その日にうまくいかなかった主なことは、私がビデオ通話で突然解雇され、その後すぐに取締役会がそれについてブログ記事を公開したことでした。 私はラスベガスのホテルにいました。それは、ほとんど説明できないほどの程度で、間違った夢のように感じました。

予告なしに公然と解雇されたことで、本当にクレイジーな数時間が始まり、非常にクレイジーな数日間が続きました。 「戦いの霧」が最も奇妙な部分でした。私たち誰も、何が起こったのか、なぜなのかについて、満足のいく答えを得ることができませんでした。

この出来事全体は、私自身の意見では、善意のある人々によるガバナンスの大きな失敗でした。振り返ってみると、私は間違いなく違うやり方をしていたらよかったと思いますし、今日の私は1年前よりも優れた、より思慮深いリーダーであると信じたいです。

また、複雑な課題に対処するための多様な視点と幅広い経験を持つ取締役会の重要性も学びました。優れたガバナンスには、多くの信頼と信頼性が必要です。AGIがすべての人類の利益となることを保証するという私たちの使命を追求することを可能にする、OpenAIのためのより強力なガバナンスシステムを構築するために、非常に多くの人々が協力してくれたことに感謝します。

私が最も得た教訓は、どれだけ多くのことに感謝すべきか、そしてどれだけ多くの人に感謝の念を抱いているかということです。 この夢を追求するために時間と努力を費やすことを選択したOpenAIのすべての人々、危機の瞬間に私たちを助けてくれた友人、私たちをサポートし、彼らの成功を可能にするために私たちを信頼してくれたパートナーと顧客、そしてどれだけ気にかけているかを示してくれた私の人生の人々です。

私たちは皆、よりまとまりがあり、前向きな方法で仕事に戻り、それ以来私たちの焦点に非常に誇りを持っています。私たちは、これまでで最高の研究を容易に行うことができました。毎週のアクティブユーザー数は約1億人から3億人以上に増加しました。最も重要なことは、人々が心から愛し、実際の問題を解決する技術を世に送り出し続けていることです。

9年前、私たちは最終的にどうなるか全く見当がつきませんでした。今でも、なんとなくしか分かっていません。AIの開発には多くの紆余曲折があり、今後もさらに多くのことが起こると予想しています。

いくつかの紆余曲折は喜ばしいものでした。いくつか辛いものもありました。絶え間ない研究の奇跡が起こるのを見るのは楽しいことでしたし、多くの反対者が真の信者になりました。同僚が分裂して競合他社になるのを目にしました。チームは規模が拡大するにつれて入れ替わる傾向があり、OpenAIは本当に急速に規模を拡大しています。これはある程度避けられないと思います。スタートアップは通常、規模の大きなレベルごとに多くの離職が見られます。そして、OpenAIでは、数か月ごとに数が桁違いに増加します。過去2年間は、通常の会社での10年間のようでした。会社が急速に成長し、進化すると、利害が自然に乖離します。そして、重要な業界のどの会社でも、先頭に立つと、特に競合しようとしている場合、多くの人々がさまざまな理由で攻撃します。

私たちのビジョンは変わりません。私たちの戦術は進化し続けます。 たとえば、創業当初、私たちは製品会社を構築する必要があるとは全く考えていませんでした。私たちはただ素晴らしい研究をするつもりでした。また、これほど莫大な資本が必要になるとも思っていませんでした。数年前には理解していなかった新しいことを今構築する必要があり、今後、今では想像もできない新しいことが出てくるでしょう。

私たちはこれまでの研究と展開の実績に誇りを持っており、安全性と利益の共有に関する私たちの考え方を前進させ続けることにコミットしています。AIシステムを安全にする最善の方法は、反復的かつ段階的に世界にリリースし、社会が技術に適応し、共に進化する時間を与え、経験から学び、技術をより安全にし続けることだと信じています。 安全性とアライメントの研究で世界をリードし、実際のアプリケーションからのフィードバックでその研究を導くことの重要性を信じています。

私たちは現在、従来理解されていたように、AGIを構築する方法を知っていると確信しています。 2025年には、最初のAIエージェントが「労働力に加わり」、企業の生産性を大きく変える可能性があると考えています。人々が素晴らしいツールを反復的に利用できるようにすることが、広く分散された素晴らしい結果につながると信じ続けています。

私たちは、その先を目指し、真の意味での超知能へと照準を合わせ始めています。私たちは現在の製品を愛していますが、輝かしい未来のためにここにいます。超知能があれば、他に何でもできます。超知能ツールは、私たち自身が行う能力をはるかに超えて科学的発見とイノベーションを大幅に加速させ、それによって豊かさと繁栄を大幅に向上させる可能性があります。

これは今のところSFのように聞こえ、それについて話すことさえ少しクレイジーです。それは大丈夫です。私たちは以前にもそのような経験をしてきましたし、またそうなることを気にしていません。私たちは、今後数年間で、誰もが私たちが見ているものを見るようになり、広範な利益とエンパワーメントを最大化しながら、細心の注意を払って行動する必要性が非常に重要であると確信しています。私たちの仕事の可能性を考えると、OpenAIは普通の会社であることはできません。
この仕事に役割を果たすことができるのは、どれほど幸運で謙虚なことでしょう。

(このきっかけをくれたジョシュ・ティランギエルに感謝します。もっと時間がたくさんあればよかったのにと思っています。)

あの数日間、OpenAIと私個人を助けるために信じられないほど莫大な量の仕事をしてくれた人がたくさんいましたが、その中でも2人が際立っていました。
ロン・コンウェイとブライアン・チェスキーは、義務の範囲をはるかに超えて行動してくれたので、どのように説明すればよいのかさえわかりません。 私はもちろん、ロンの能力と粘り強さについての話を長年聞いてきましたし、ブライアンとは過去2年間、多くの助けとアドバイスを得ながら多くの時間を過ごしてきました。
しかし、彼らが本当に何ができるのかを理解するためには、人々と一緒に戦場にいるのに勝るものはありません。OpenAIは彼らの助けがなければ崩壊していただろうと、私はかなり確信しています。彼らは物事が終わるまで、何日も昼夜を問わず働きました。

彼らは信じられないほど懸命に働きましたが、終始冷静さを保ち、明確な戦略的思考と素晴らしいアドバイスをしてくれました。彼らは私がいくつかの間違いを犯すのを止め、自分たちは何も間違いを犯しませんでした。彼らは必要なすべてのことにその広大なネットワークを利用し、多くの複雑な状況を乗り切ることができました。そして、彼らが私の知らないところで多くのことをしたことは確かです。

しかし、私が最も記憶に残るのは、彼らの配慮、思いやり、そしてサポートです。

私は創業者と会社をサポートすることがどのようなものかを知っていると思っていましたし、ある意味ではそうでした。しかし、私はこれまで、これらの人が行ったことのようなものを、見たことも聞いたこともありません。そして今、彼らがなぜ伝説的な地位を持っているのかをより完全に理解できます。彼らは異質であり、両者とも本当にユニークな評判に値しますが、山を動かし、助け、そして必要なときに揺るぎないコミットメントを果たすという点で類似しています。テクノロジー業界は、両者がそこにいることではるかに良くなっています。

彼らのように他にもいます。 これは私たちの業界にとって驚くほど特別なことであり、人々が認識している以上に、すべてを機能させるために役立っています。恩返しをするのを楽しみにしています。

もっと個人的なメモとして、特にあの週末と常にサポートしてくれたオリーに感謝します。彼はあらゆる面で素晴らしく、誰もがより良いパートナーを求めることはできません。

サム・アルトマン

分かりやすい解説

昔々、といっても数年ほど前のこと。サム・アルトマンさんたちは「OpenAI」という会社を作りました。彼らは「AGI(汎用人工知能)」という、人間みたいに何でもできる頭のいいコンピューターを作りたいと思っていたのです。「もしこれがうまくいったら、世界中の人がとっても便利に暮らせるようになる!」と、わくわくしながら研究を始めました。

〜ChatGPTが生まれるまで〜

最初はなかなかうまくいかないことも多く、人によっては「そんなすごいもの、作れっこないよ」と言われることもありました。それでもサムさんたちはあきらめずに、みんながパソコンに話しかけるだけで何でも教えてくれるロボットみたいなものを作ろうとしました。

すると2022年のある日、彼らはそれを「ChatGPT」と名付けて、世の中に出しました。そうしたら思いがけないほど多くの人が「すごい!」「楽しい!」と言って使ってくれたのです。あっという間にChatGPTは世界中で大人気になり、AIの時代が本格的に始まったのだと実感しました。

〜急成長の大変さ〜

サムさんたちは大喜びでしたが、そのぶん大変なことも増えました。みんながAIをどんどん使いたがるので、会社をもっと大きく、もっと強くしなければならなかったのです。でも、新しい仕事や研究を一気に増やすと、いろいろな意見のぶつかり合いや、やり方の違いが出てきます。うまくいかないことや、まちがいも起きました。

そのうえ、とある金曜日には、サムさんが急にビデオ通話で「クビです」と言われてしまう出来事が起こりました。これはサムさんにとって、悪い夢を見ているみたいにショックでした。いったい何が起こったのかはっきり分からず、周りの人も戸惑いながら数日間を過ごしました。

〜周りの人たちの助け〜

でも、サムさんたちはあきらめませんでした。多くの仲間や友だち、パートナー会社の人たちが力を貸してくれたおかげで、OpenAIはなんとか前に進めたのです。特に、ロン・コンウェイさんとブライアン・チェスキーさんという2人は昼も夜も休まず働き、サムさんやOpenAIを支えてくれました。

サムさんは「彼らがいなかったら本当に崩れ落ちていたかもしれない」と言うくらい、感謝の気持ちでいっぱいです。

〜これからのOpenAI〜

OpenAIはこれまでたくさんの失敗や成功をくり返しながら、少しずつ進んできました。サムさんは「まだまだ分からないこともあるけれど、AGIを作るためのやり方が、だんだん見えてきた」と感じています。2025年ごろには、AIが人の代わりに働いて、生産性(みんなが仕事をうまく進める力)を大きくアップしてくれるかもしれません。

さらに、その先には「超知能」と呼ばれる、今は想像もできないくらい賢いコンピューターを作ることを目指しています。それはまるでSFの物語のようだけど、サムさんは本気で「絶対できる」と思っています。

〜安全とみんなの利益〜

サムさんたちがとても大事にしているのは、AIを安全に使えるようにすることです。急にすごい頭のいいコンピューターを出してしまうと、人間がどう扱ったらいいか分からなくなります。だから、少しずつ改良しながら社会に慣れてもらい、みんなで学び合うことが大切だ、と考えています。

「世の中にとってよいAIを作り、世界のみんなの役に立ちたい」。これがサムさんとOpenAIの一番の願いです。

〜サムさんの気持ち〜

サムさんは、このOpenAIの旅がとても大変で疲れるものだったと言います。それでも、「いつか牧場に引っ越して、ゆっくり植物を育てながら、このときのことを思い出すんだろうな」と思い描いています。たとえ金曜日に何かうまくいかないことがあっても、「ここまでやってこれたのは本当に幸せなことだ」と思い返すそうです。

つらいことがあっても大勢の人が助けてくれたし、心から感謝をしているとのこと。OpenAIの中でもいろんな人が入れ替わり、チームが大きく変わっていきましたが、最後には「もっとよい研究ができるぞ!」と前を向いて進んでいるのです。

こうしてサムさんやOpenAIのみんなは、ChatGPTやAGI、そして将来の超知能のためにがんばり続けています。たくさんの人に支えられて、どんな問題も乗り越えようとしているのです。これからも世界に大きな変化をもたらす、すばらしいAIを生み出していくでしょう。みんながわくわくするような未来を、サムさんたちは本気でつくろうとしているのです。

記事では語られていない背景情報【イーロン・マスク離脱と提訴の真相(?)】

ここに書く内容は、OpenAIが公開したElon Musk wanted an OpenAI for-profitに書かれている内容を基にしています。

ここからは、サム・アルトマン氏の「Reflections」という記事には書かれていない背景事情を掘り下げていきます。

一見すると、サム・アルトマン氏とOpenAIが主導するAI界隈は華やかな成功のイメージがありますよね。

確かにChatGPTの世界的ブームも含めて、いいこと尽くしに見えるかもしれません。

でも実は、その裏側で結構“波乱”があったのも事実。

とりわけ、OpenAIの共同創業者だったイーロン・マスク氏が離脱した経緯や訴訟問題は見逃せません。

僕としては、この背景を知ると「OpenAIがただの天才集団じゃなくて、目標に突き進むためにいろいろと迷走や葛藤を経てきたんだな」と感じます。

というのも、もともとOpenAIは非営利団体として「誰もが恩恵を受けられるAIを目指す」と言いながらスタートしたのに、徐々に営利企業化していった経緯がありますよね。

この“非営利→営利”路線の変遷こそ、マスク離脱の大きな原因ともされています。

ここでは、イーロン・マスク氏がなぜOpenAIに疑問を抱き、実際どんな形で離脱に至り、さらには提訴沙汰にまで発展したのかを順序立てて解説してみたいと思います。

文章にするとめちゃくちゃ長くなるんですが、それだけ重要かつ複雑な話題ということで、気長に読んでもらえたら嬉しいです。

この章は全体を通して「いったいOpenAIの裏で何が起きていたの?」という視点でまとめます。

後ほど細かく書くように、イーロン・マスク氏が抱いた非営利構造への疑問は意外にも2015年の設立当初からあったといわれています。

とはいえ、その疑問が大きく表面化したのは、OpenAIが数十億ドル規模の資金調達を目指し始めた2017年頃。

そしてマスク氏が完全に決別の意思を固めたのが2018年前後です。

ただ「離脱と提訴に至ったのは、どこまでが本当で、どこからが憶測なの?」と混乱する方もいると思うので、出来るだけ事実ベースで伝えます。

イーロン・マスク氏本人もTwitter(現X)などでけっこうぶっちゃけてるんですよね。

「OpenAIは自分の思い描く形から変わりすぎた」とか、「そこに利益相反が生まれた」といったことが断片的に発言されています。

彼の発信は時に極端ですが、それだけに内容の真偽を精査する必要があります。

次からの小見出しで、そもそもマスク氏が抱いた非営利構造への疑問や、過半数株式を要求していた話、そして離脱からのxAI設立までの流れを丁寧にたどりますね。

最後に「マスク提訴へのOpenAIの見解」も書きますが、これまた簡単には割り切れない話なので、あなたもぜひ「なるほど、そんな背景があったのか」と踏まえて読んでもらえると嬉しいです。

ではさっそく、イーロン・マスク氏がOpenAIという組織に初めから抱いていた葛藤について、次の章で詳しく見ていきましょう。

イーロン・マスクが抱いた非営利構造への疑問

イーロン・マスク氏といえば、「SpaceX」や「Tesla」でお馴染みの超有名起業家・投資家ですよね。

彼はテクノロジーを使って人類の未来を大きく変えようとするタイプの人物で、「火星に移住する」「電気自動車で大気汚染問題を解決する」など、とにかく壮大な夢に突き進む姿勢が注目を集めてきました。

そんなマスク氏が、2015年のOpenAI設立当初から携わっていたのは有名な話。

彼はサム・アルトマン氏や他の共同創業者たちと一緒に、「将来的にAGIが誕生するのは確実だ。だからこそ、人類全体の利益になる形でAIを進めるべきだ」として、OpenAIを立ち上げたわけです。

ところが、そのときからすでにマスク氏は、「AIは大きなお金が動く分野になる。無限に近い資金が必要になるかもしれない」と考えていたらしいんです。

これはイーロン・マスク氏の過去の発言や、周囲の証言からも推測されているポイント。

Non-profit(非営利)の組織で、そんな莫大な資金をどう調達するの?と疑問に思うのは自然ですよね。

実際、当初OpenAIは大規模な投資を募るというよりは、マスク氏やサム・アルトマン氏をはじめとする出資者の善意的な寄付や、研究に共感した投資家の支援を頼りにスタートしました。

しかし、AI研究が進んでいくうちに、特に2017年頃から「AGIを目指すには超巨大なコンピューティングパワーがいる!」ということが明確になってきます。

たとえばGPU(グラフィックス・プロセッシング・ユニット)を数千台、もしくはそれ以上規模で組み合わせたり、専用のAIチップを作る話にまで発展したり、とにかく一筋縄ではいかない計算資源の確保が大命題になった。

これに対して、マスク氏は「普通に考えて、公益を目的とするだけの非営利団体で年間数十億ドル規模を捻出するのは難しい。それなら、俺が代表権や過半数の株式を持つ形で、“営利セクション”を作るのが正解じゃないか」と思ったみたいなんです。

ここがまず“疑問”の出発点。

  • 非営利を掲げるんだったら、なぜ営利企業と並行してやろうとしないのか?
  • AGI開発には途方もない資金が要るし、営利要素がなければそもそも競争で負ける可能性が高い

マスク氏はこう考えていたというわけですね。

一方、サム・アルトマン氏や他のメンバーは「いや、まだそこまでしなくてもいいはずだ」と思っていたのか、あるいは「今すぐ営利化したら、当初の理念と食い違うんじゃないか」と懸念していたのか。

いずれにせよ、設立当初からイーロン・マスク氏は「非営利のまま本当にやっていけるのか?」という大きな疑問を抱えていたのです。

あくまでマスク氏の視点では、「根本的に巨大なリソースが必要なAGI開発を続けるには、スタートアップ的なダイナミズムが不可欠だ」という考えだったのでしょう。

ここで抑えておきたいのは、彼が“非営利の理想”自体を完全に否定していたわけではないという点です。

表向きは「AIを独占させたくないし、技術をオープンに保つべきだ」という理念は共有していましたから。

ただ、「その理念を本当に実行するためにはどういう組織形態が最適なのか?」というところで異なる認識を持っていたわけですね。

そしてこの考え方の違いが、後々大きな衝突を生み出します。

非営利構造を守りたい人々と、「結局資本がいるじゃん、だったら営利化しないと」と主張する人々――。

対立の種はまさにここにあったのだと言えます。

余談かもしれませんが、マスク氏が過去に手がけてきた事業(TeslaやSpaceXなど)を思い浮かべると、いずれも大量の資金を動かしつつ、実現までに長い時間を要する壮大なプロジェクトなんですよね。

その経験上、「勢いある営利形態で巨大な資金を集めるほうが、成功の道を切り拓ける」っていう信念が固かったのだと思います。

結果的には、「非営利のままやるの? いや、もう営利で勝負すべきでしょ!」というマスク氏の意見は2017年ごろ少し通ったようにも見えますが、当時のOpenAI内部ではその扱いに大いに悩んでいました。

この先の章で書きますが、最終的にはマスク氏の要望が受け入れられなかったんですね。

だからこそ、彼は「自分でOpenAIをコントロールできないなら意味がない」と感じてしまい、離脱に向かったというわけです。

ということで、イーロン・マスクが非営利構造に疑問を持った理由は、ひと言で言えば「AGI開発に必要な金額があまりにも大きく、寄付ベースじゃ到底足りないから」という結論に尽きます。

ここはOpenAIがいわゆる「収益上限付きの営利組織(OpenAI LP)」を作るきっかけにもなった重要な論点です。

では、その具体的な衝突はどう起こり、マスクとOpenAIはどんな駆け引きをしたのか?

次の章で続けます。

過半数株式・CEO要求とOpenAIの拒否

前章で触れたとおり、イーロン・マスク氏はAGIを本気で実現しようとすれば、莫大な資金調達が不可欠だと考えていました。

それを踏まえて、マスク氏がOpenAI内でどんな要求をしたのかと言うと、ざっくり「自分が過半数の株式を持ち、CEOとして全権を握る」という壮大なものでした。

このエピソードは当時から「マスクがOpenAIを完全に乗っ取ろうとした」とか「いや、合理的な経営判断をしようとしただけ」など、いろいろと議論されています。

ただ、事実としてOpenAI側が「イーロン・マスクに一方的な支配権を与えるのはミッションに反する」として拒否したというのは明らかです。

もしかすると、OpenAIにとっては“非営利の理念”という軸が大きかったのかも。

営利を混ぜつつも基本的には「人類全体のためにAIを開発する」という高い理想を持っていたわけで、もしマスク氏がCEOとして絶対権を握れば、その理念が曲がった形で変質する可能性がある。

特にイーロン・マスク氏はビジネス面では優秀でも、その意思決定は時に非常に独裁的だと知られています。

「マスク・モデル」で成功してきたTeslaやSpaceXのような運営手法を、そのままOpenAIに適用するとなると、他のメンバーが目指す“共益”や“透明性”が損なわれるリスクがある――。

おそらくそういう危機感があったんじゃないでしょうか。

一方マスク氏にしてみれば、「非営利だとか言っておいて、いざ資金が足りなくなって営利化しようとするときに俺の意見を聞かないのはなぜだ?」という思いが募ったはず。

さらに彼は「Googleに対抗するためには、一刻も早く大資本と連携すべきだ」と考えていたようで、それを可能にするには自分がCEOになってスピード感をもって舵を取るのがベストだと思っていたとされています。

実際に「2017年秋」ごろ、マスクは自分が個人的に設立した公益法人をOpenAIの新たな構造として提案したなんて話も出ています。

要するに「自分の提案どおりにすれば、大きな出資を呼び込みつつ、公益的な理念も守れる!」という主張ですね。

でもOpenAIの取締役会や主要メンバーからすれば、「それって結局マスク個人のコントロール下に置かれるだけじゃないの?」と疑念が尽きなかったのでしょう。

こうして両者は平行線をたどり続け、やがて決裂へ。

当時の雰囲気を想像すると、マスクは「これだけ貢献してきたのになぜ俺の案に賛同してくれないんだ!」と憤慨し、サム・アルトマン氏たちは「いくらビジョンが大きくても、それは独裁的すぎる」と拒否感を強めていた――そんな構図だったのではないかと推測しています。

最終的には、OpenAIが過半数株式・CEO要求を受け入れず、マスク氏は「自分の提示した条件でなければOpenAIは確実に失敗する」と強気の発言を残したまま、離脱準備を進めていきます。

この部分が分かれ道で、もしOpenAIがマスク氏の要求を呑んでいたら、いまとは全然違う組織になっていたかもしれません。

ただ、現実には「サム・アルトマン氏が引き続きCEOを務める形で、利益上限付きの営利組織を立ち上げ、Microsoftなどから巨額の投資を引き出す」というルートに落ち着きましたよね。

マスク氏の方は「自分の提示した条件が拒否された」「少数派でいる意味はない」と悟った結果、2018年2月にOpenAIの共同議長を辞任したという流れです。

このあたりは既に公の情報として出回っていますが、実際のやり取りや駆け引きはもっと激しかったんでしょうね。

マスク氏は「OpenAIを本気で救いたかったんだ」と言っている節もありますが、OpenAI側からすると「あなた1人の色に染め上げられるわけにはいかない」と拒否反応を示さざるを得なかったということ。

ここから、OpenAIの“非営利イメージ”が大きく揺らぎ始めるんです。

なぜなら結局、数年後にはMicrosoftをはじめとする企業から莫大な資金を引き寄せたわけで、「じゃあ当初の非営利方針とは何だったの?」という批判も起こりました。

マスク氏は「だから俺が CEOになって一気にやるべきだったんだ」と思っていたかもしれませんし、OpenAI側は「マスクが居てもいなくても、我々はこの道を進むしかなかった」と言いそうです。

過半数株式・CEO要求の拒否が、その後のマスク離脱の決定打になったという点は間違いないでしょう。

マスクの離脱とxAI設立までの流れ

さあ、ここからはいよいよイーロン・マスク氏がOpenAIを去る決断をしたあたりの話を紐解いていきましょう。

前章でも書いたように、2017年秋から2018年初頭にかけてマスク氏とOpenAIの軋轢が表面化。

「このままではAI分野で大きく出遅れる」と主張するマスク氏と、「いや、あなた1人の支配体制にはできない」と考えるOpenAI陣営という対立構図でした。

そして、2018年2月にはマスク氏がOpenAIの共同議長を辞任。

「Teslaとの利害衝突」や「自動運転AIへの過度の集中」など、表向きはいろんな理由が挙げられましたが、真の理由は前章で書いたような要求が受け入れられなかったことだと見る向きが強いです。

さらにマスク氏は2018年末に「OpenAIは莫大な資金を早急に調達しなきゃダメだ。さもなくば諦めるべきだ」と強い口調で詰め寄ったとされます。

これは一種の“最終通告”だったのかもしれません。

OpenAIに残る選択肢は、巨額の資金をスピーディーに集めるか、プロジェクトを縮小せざるを得ないかという厳しい二択に迫られた形でしょう。

結果的に、OpenAIは2019年3月に「OpenAI LP」という形で利益上限付きの営利組織を設立。

外部投資を大々的に受け入れる道を開きます。

ここで、マイクロソフトからの10億ドル投資が発表されたことを覚えている人も多いかもしれません。

この動きが「OpenAIはもう非営利じゃないじゃん!」と叩かれる原因にもなったのですが、それでも組織としては一応“上限つき”の配当を投資家に保証するという形で落とし所を見つけたわけですね。

イーロン・マスク氏は、そんなOpenAIの選択をどう見ていたのか?

少なくとも、当初は「俺の助言通り、大きな資金が必要だと分かったんだな」と思ったでしょうけど、同時に「でも結局、俺の提案どおりにはやっていないし、指揮権も俺にはない」というのが不満だったはず。

その気持ちの延長線上にあるのが、2023年3月頃に注目を集めた「xAI(エックス・エーアイ)」設立なんですよね。

マスク氏は「OpenAIが商業化し、Microsoftの支配下に入った」と批判していて、「自分の理想とするAI開発をするために、あらためてxAIを立ち上げる」と宣言しました。

要は「OpenAIは俺が望んだ形じゃなくなってしまった。ならば別の組織を立ち上げて、正々堂々競争しよう」という流れですね。

ここが大きなポイントで、今後のAI業界でOpenAIとxAIがどう対峙していくのか、業界関係者は注目しています。

マスク氏がTeslaの自動運転AIや、SpaceXの打ち上げで培った技術資産をxAIに持ち込めば、オリジナリティ溢れる開発が進む可能性は否定できませんし、「人類を守るためのAI」というマスクの思想が色濃く反映されるかもしれません。

一方、OpenAIはMicrosoftとの関係を活用し、クラウドコンピューティングなど膨大なリソースを受け取りながら、さらに研究を加速させていますよね。

この二者が対立するか、あるいは何らかの形で交わるのかは分かりませんが、いずれにせよマスク氏がOpenAIを離脱したのは大きな方向性の違いがあったからという点だけははっきりしています。

「マスク氏:非営利って言ってたのに、営利になるの?じゃあ俺がCEOをやってコントロールする!」→「OpenAI:いや、それはダメです」「マスク氏:じゃあもう出ていく!」→「OpenAI:どうぞどうぞ」→「マスク氏:xAI作ります」という流れは極めてドラマチック。

AIの未来がここまで激しく動いているのは、実は裏側でこうした人間ドラマが繰り広げられていたからなんですね。

と、ざっとマスク離脱の流れをまとめると、このような段階を踏んでいます。

  1. 非営利構造への疑問と巨大資本の必要性を強く主張
  2. 過半数株式やCEO要求を通して舵取りを担おうとする
  3. 拒否され、「OpenAIは失敗する」と言い放つ
  4. 2018年2月に実質的に離脱
  5. OpenAIはその後「OpenAI LP」を設立し巨額資金を調達
  6. マスク氏は2023年にxAIをスタートし、別の道を歩む

ここで終わり……かと思いきや、実はそうじゃないんです。

イーロン・マスク氏がOpenAIを離脱した後も、さらにややこしい話が続きます。

それが「マスク氏がOpenAIを提訴した」とされる経緯

実際には訴訟が何件かあるらしいのですが、公式の場で明確に出されたものや、噂レベルのものなど、いろいろな情報が飛び交っています。

次の章では、その提訴問題をOpenAI側の見解も含めて整理してみようと思います。

マスク提訴へのOpenAIの見解

ここまで読んだあなたなら薄々感じているかもしれませんが、イーロン・マスク氏とOpenAIの間には相当な溝ができています。

一部報道によれば、マスク氏はOpenAIを相手に訴えを起こしたとされていますが、その詳細は公に完全な形で明らかにされてはいないようです。

少なくとも、少し前の時点で「マスクが法的手段をチラつかせている」という情報は海外メディアやSNS上で取り沙汰されていました。

じゃあ、OpenAI側はどんな見解を示しているのか?

実はOpenAIは比較的クールに対応していて、「イーロン・マスクの初期の貢献に対しては感謝している。でも現在は当初の非営利体制だけではやっていけないから、市場で競い合うしかないね」というスタンスです。

一言で言えば、「法廷ではなく、市場の競争で決着をつけよう」というメッセージですね。

これはOpenAIの公式サイトでも言及されていますが、やはりマスク氏が求めた“絶対支配”を認めない方針は変わらないし、「もしマスクが本気でAI競争をしたいなら、堂々と競争してくれ」というわけです。

この見解はサム・アルトマン氏もたびたびインタビューで語っていますが、「イーロンが最初期にOpenAIに貢献してくれたのは事実で、それには本当に感謝している。でも今のOpenAIは、非営利団体と営利企業を組み合わせた独特の仕組みで動いていて、当時とは違う。だからこそ、AGIに向けて全速力で研究を進められているし、多くのユーザーに使ってもらうための製品開発もできている」と。

ある意味、「もはやマスクの介入の余地はない」というニュアンスすら感じられるんです。

訴訟に関する具体的な争点としては、マスク氏が出資した金額の評価や、OpenAIが独自に高額な投資契約を結んだことによる株式評価の変化などが問題視されている可能性があります。

また、マスク氏自身が「OpenAIは営利化しすぎて、まるでMicrosoftの子会社みたいじゃないか」と批判している部分も、法的な議論に発展するかもしれません。

ただし、外部から見る限り、OpenAIは大きく慌てている様子はないんですよね。

むしろ「マスク氏がいなくてもMicrosoftなどから潤沢な資金を得て研究を進める」という事実の方が前面に出ている印象。

これは「あえてマスク氏の一人芝居に付き合わない」という選択をしているのかもしれませんし、実際にそこまで相手にしていないのかもしれません。

ここで強調しておきたいのは、OpenAIが表明しているミッション、「AGIがすべての人類に利益をもたらすようにする」というゴールは変わっていないということ。

彼らとしては、マスク氏が離脱しても、そのミッションのために一番いい体制を模索しているだけだ、という主張なんです。

あとは「営利化」によって得た資金を使い、研究者やエンジニアを大量に採用し、超巨大クラウド上でモデル訓練を回しまくることで急激な技術進歩を遂げてきたのは事実ですよね。

ChatGPTやGPT-4の大ヒットを見れば、「金をかけないと実現できない世界」がここにあると分かるわけです。

もちろん、この先マスク氏の提訴がどう展開するかは分かりません。

「裁判になるのか?和解するのか?それともマスクがやる気を失ってxAIに集中するのか?」

そこは憶測しかできないのが現状です。

ただ、「イーロン・マスクがOpenAIを提訴している(あるいは法的措置を検討している)」というニュースを耳にしたときは、その背景には「過半数株式をめぐる対立」「営利化への方針転換」「マイクロソフトとの提携」といった様々な要因があったと考えると、より腑に落ちるのではないでしょうか。

OpenAIの見解は繰り返しになりますが、「マスクを嫌っているわけではないし、初期の頃には感謝している。しかしいまは市場というフィールドで競争すべきだ」というもの。

これがサム・アルトマン氏本人の言葉とも一致しており、彼としてはマスクとの直接的なバトルよりも、AGI開発の進捗や安全策、そして社会へのインパクトにフォーカスする姿勢が強いように見えます。

今後、AI業界はますます競合が激化するでしょうし、マスク氏が設立したxAIとOpenAIがバチバチに競争する未来もあるかもしれません。

そしてその過程で、また何かしらの訴訟や和解が起こっても不思議ではありませんよね。

長い目で見ると、それがAIの発展や社会実装を加速させるのか、それとも混乱を招くのかは、まだ分かりません。

少なくとも「イーロン・マスク離脱と提訴の真相(?)」を知ることは、OpenAIの本質を理解するうえで非常に重要。

もし「Reflections」やOpenAI公式ページだけを見ていると、「なんだかAI万歳!みんなで協力して世界を良くしよう!」みたいな雰囲気ばかり感じられるかもしれませんが、裏側にはこういった激しい資本と理念のせめぎ合いがあった、というわけです。

ここでいったん本題に戻すと、サム・アルトマン氏が書いた「Reflections」には、このあたりのイーロン・マスク氏との確執はほぼ出てきません。

逆に言えば、それを知っている人からすると「よくこんな波乱の歴史を経て、こんなに落ち着いた文章を書けるな」と驚く部分もあるのではないでしょうか。

彼があえてあまり触れていないのは、まだ問題が解決していないし、そもそも提訴に関しては内部でいろいろ検討中だからかもしれないですし、単純に書く必要を感じていないのかもしれません。

いずれにしても、これらのバックグラウンドを押さえておくと、「Reflections」を読む際に「OpenAIって、一枚岩どころか結構ドタバタだったんだな。

でもそのドタバタがあって今のブレイクスルーがあるんだな」と思えるんじゃないかと思います。

以上、イーロン・マスク離脱と提訴騒動の真相についてざっくりお話しました。

ここで話を終えると少し中途半端ですが、今回の章では“記事では語られていない背景情報”として、OpenAIがどのように営利化へ向かったか、そしてマスク氏が離れた理由を解説するのがメインでした。

あなたがもし「ああ、なんだか大変そうだな」と感じたとしたら、それはまさに正解というか、本当に複雑なんですよね。

ただし、こうした紆余曲折のおかげでOpenAIは一気に加速し、社会に衝撃を与えるChatGPTを誕生させたとも言えますし、競合としてのxAIも興味深い存在として今後注目されることでしょう。

自然に次の流れとしては、OpenAIがなぜ非営利から営利へと転換を進めたのか、もう少し具体的に見ていくのが分かりやすいと思うので、次章で深掘りしていきますね。

OpenAIは「非営利」から「営利」へ【組織形態が変わる理由】

ここからは、OpenAIが初期段階で掲げていた「非営利」の理念と、そこから「営利」へと踏み切ることになった経緯を徹底的に整理してみたいと思います。

これが非常に重要なのは、「Reflections」やメディアで語られる綺麗な言葉だけでは理解しきれない“現実問題”が、ここに詰まっているからなんです。

実際に、AI研究を大規模化しようとすると莫大な予算が要るため、非営利だけでは足りなくなるという構図は、OpenAIに限らず多くの組織でも起こりうる問題だと思います。

OpenAIは特に、AGIの実現を真剣に目指しているぶん、必要な資金・人材・設備の規模が他のAI企業と桁違いに大きい。

そこにどう立ち向かうかを巡り、結果的に営利化への道を選ぶことになりました。

以下の章では、その判断が具体的にどのような形で行われ、何が理由で「まあ仕方ないよね」という雰囲気になったのか、順を追って書いていきます。

最初は「本当に非営利でやれるの?」と疑っていたイーロン・マスク氏のような人もいましたが、OpenAIとしては「非営利を守りたい」思いもあった。

それでも、AGIを目指すなら大資本が必要なのは明白であり、投資家たちの協力を得るには営利化は避けられない——というリアルなストーリーが展開されるわけです。

ここを理解すると「なぜChatGPTが登場するに至ったのか」「どうしてMicrosoftの超大規模投資が実現したのか」「イーロン・マスク氏が離脱したのは何故なのか」といった疑問が解けるはずなので、ぜひ最後まで読んでみてください。

巨大な計算資源と資金調達の必要性

OpenAIが大規模なAI開発、とりわけAGI(汎用人工知能)の研究を進めるうえで、まず壁として立ちはだかったのが「計算資源」の問題です。

具体的に言うと、数千台から数万台規模のGPU(グラフィックス・プロセッシング・ユニット)や、それに相当する専用チップなどを組み合わせて膨大な演算を行う環境を整える必要があります。

チャット型AIのChatGPTを動かすための“推論”サーバー(ユーザーからの問い合わせに即座に応じるサーバー)だけでもかなりの台数が必要なのに、そこに更なる大規模学習を加えるとなると、想像を超えたコストがかかるわけです。

実際、GPT-4などのモデルは莫大な学習データを使ううえに、学習ステップも膨大な数に及びます。

そのたびに電力も食うし、ハードウェアが摩耗することもある。

大手クラウドプロバイダからリソースを借りる場合でも一瞬で数百万ドル、あるいは数千万ドルが吹き飛んでしまいます。

「こりゃ寄付や少額の出資だけでは回らないぞ……」と、OpenAI内部も早い段階で認識していたと言われます。

さらに研究だけでなく、優秀なAI人材を確保するための“人件費”も莫大です。

AIエンジニアや研究者は世界中で争奪戦になっていて、GoogleやMeta、Microsoftなどが超高待遇で引っ張ろうとするんですね。

OpenAIが「うちで働いてくれ」と言うなら、給与や待遇をある程度は“競合並み”にする必要がある。

当然ながら、この分野のトップクラスの研究者の年俸は億単位に届くケースも珍しくなく、企業全体ではさらに膨れ上がっていきます。

ここで強調したいのは、優れたAIモデルを作るためには、膨大な計算力と超一流の人材を同時に確保しないといけないということです。

どちらか一方が欠けても、開発スピードはがくんと落ちてしまう。

だからこそOpenAIは最初期こそ「非営利でいくぞ!」と意気込んでいたものの、蓋を開けてみれば「このままだと計算資源が手当てできないかもしれない」という厳しい現実に直面したわけです。

しかも競合のベンチャーや大企業もAI研究に拍車をかけ始めていたため、「悠長にやっていたら他社が先にAGIに近いモデルを作っちゃうんじゃないか?」という焦りがあったと推測できます。

ここでのポイントは、AIの進化は単なるソフトウェア技術だけじゃなく、ハードウェアの進化と莫大な資本投下によっても左右されるという点。

どれだけ優秀なアルゴリズムを持っていても、実際の学習を回せなければ研究成果が停滞してしまいます。

この「巨大な計算資源」と「莫大な資金調達」の必要性が合わさって、OpenAIは“非営利”だけの枠組みでは限界があると痛感します。

もちろん、非営利でも寄付や助成金を募る手段はありますが、AGI規模のチャレンジで年間数十億ドルレベルの投資を何年も継続するのは至難の業。

アカデミックな研究所なら小さな実験を少しずつ進めるだけでも十分かもしれませんが、OpenAIは“最速でAGIを作る”という壮大な野望を持っていました。

結果的に「外部投資を受け入れるしかないよね」という機運が高まり、営利の要素を取り入れる動きに踏み出した、というのが大まかなストーリーです。

これが後に「OpenAI LP」の設立へとつながり、さらにMicrosoftや他の大手企業からの巨額出資の道が開けたのです。

だからOpenAIにとって、巨大計算資源+人材確保のための資金こそが非営利から営利へ方針転換する最大の理由だったと言っても過言ではありません。

ある意味では、理想と現実を突き合わせて「何を優先すべきか?」を考えた結果、「まずはこの研究を継続できる環境を確保しよう」という結論に落ち着いたのでしょう。

利益上限付き営利組織への転換

当初OpenAIは、「世界の誰もが利用できるAIを目指し、技術が独占されないようにする」という理想を掲げた完全な非営利としてスタートしました。

ところがさっき話したように、「じゃあどうやって必要な資金を長期的に確保するの?」という壁にぶち当たります。

そこに登場したのが、「利益上限付き営利組織」という一風変わった仕組みです。

世の中の企業は、利益追求が最優先の“普通の営利企業”が大半ですよね。

しかしOpenAIの場合、ベンチャーキャピタルなどから無制限にリターンを得られるモデルを導入してしまうと「営利色が強まりすぎて、本来の社会貢献ミッションが歪められるかもしれない」という懸念がありました。

つまり、儲けすぎると株主への配当圧力がかかり、研究に余計なバイアスが入るリスクがあるんです。

そこで考えられたのが「投資家にも一定のリターンは認めるけど、ある上限を超えたらそれを非営利側に回す」という仕組み。

簡単に言えば、「投資家のみなさんもちゃんと儲かるようにするけれど、儲けまくって莫大なリターンを得るわけにはいかないよね」というルールを先に設定しておくイメージです。

OpenAIは2019年に「OpenAI LP」という形でこの仕組みを導入し、各種投資家や大手企業との提携を深めました。

たとえばMicrosoftはこれを歓迎し、すぐに10億ドル規模の出資を行ったと報じられています。

Microsoftにとっては「OpenAIの最先端AI技術が使えるなら、ある程度の投資リスクを取る価値がある」と判断したわけですね。

この利益上限付きの仕組みが画期的だったのは、投資家の“過度な収益追求”を抑えつつ、大きな資本を呼び込めるという点にあります。

しかし同時に「とはいえ“上限付き”でも実質的には営利企業化じゃないか?」という批判も噴出しました。

イーロン・マスク氏が非営利の理念から遠ざかったOpenAIに対して不満を示したのも、この頃が一番強かったと思われます。

ただOpenAI側は、「AGI開発に必要な莫大な資金を調達するためには、資本主義の仕組みをある程度活用するしかない」「そのうえで社会全体に利益が行き渡るよう利益上限制を設けるんだ」と主張。

まさに「理想と現実の折衷案」が、この「利益上限付き営利組織」だったわけです。

運営形態自体は少し複雑で、非営利のOpenAI Inc.が、営利のOpenAI LPを管理するという二重構造になっています。

株式への配当は一定の倍率を超えると非営利団体に戻り、研究や共同体への還元に回すという仕組みを意図しているんですね。

そのため厳密には「もう完全に営利企業になっちゃった」とは言いきれず、かといって非営利と名乗るには投資家絡みのお金が入りすぎているという、微妙なグレー感が残りました。

そもそもAGI開発というのは、まだ学問的にも技術的にも明確なゴールが見えていない面があります。

どこまで資金が必要なのか誰にも断言できないし、いつ完成するかも分からない。

OpenAIとMicrosoftの間で、AGIの達成を「OpenAIのAIシステムが累積で1,000億ドル(約15兆円)の利益を生み出すこと」と定義する合意が存在するようです。

だからこそ投資家は「めちゃくちゃ大きくなるかもしれないけど、リターンの上限があるなら慎重になろう」という考え方になるし、OpenAIとしては「リスクを共有してほしいけど、我々のミッションを曲げられるほどの権力は渡したくない」というせめぎ合いがあったはず。

結果的に、Microsoftが開発リソースや資金援助を大々的に提供して、OpenAIは爆速で研究開発を進められる環境を手に入れました。

ChatGPTなどのプロダクトは、その加速の成果とも言えるわけです。

とはいえ、最初に掲げていた“誰もが使えるAIを作り、技術を独占しない”という理念との兼ね合いで、外部からは「もうOpenAIってオープンじゃなくなったよね」と揶揄される場面も増えました。

この移行期にイーロン・マスク氏が離脱し、複数回の批判と提訴をちらつかせる騒動が起きた――というのが、先ほど書いた背景ですね。

しかしOpenAIとしては、「このやり方がベストではないかもしれないが、少なくともAGI実現に向けて走り続けられる最善の手段だ」と考えたのでしょう。

「Reflections」にはそういった経営判断の話はあまり書かれていませんが、実情を知れば「そりゃあこのくらいの仕組みを考えないとやっていけなかったんだな」と納得もできるかもしれません。

要するに、利益上限付き営利組織への転換とは、“非営利の理念を守りつつも、ビジネスの力を借りないと立ち行かなくなる”という矛盾を抱えた結果の産物だったわけです。

今後もOpenAIがどんな形で資金を集めるのか、上限利益の設定をどう運用するのかは、業界全体の関心事です。

研究スピードが伸びれば伸びるほど、また新たな資金とリソースが必要になるかもしれないですからね。

公益法人(PBC)化と非営利部門の役割

OpenAIは非営利法人のまま突っ走るのは厳しい、でも普通の営利企業になるのはミッション的に望ましくない……と考えていました。

そこで「利益上限付き営利組織」だけでなく、公益法人(Public Benefit Corporation, PBC)への移行や、引き続き非営利部門を運営する構想にも目を向けるようになります。

PBCというのは、一種の株式会社ではあるものの「企業価値の最大化」だけを目指すのではなく、「社会や特定の公益的目的」に資する活動を重視する法人形態です。

たとえばアメリカにおいては、PBCとして登記すると、経営陣は株主に配当を生むことと同じくらい、公益への貢献を考慮しなければいけない義務を負うんですよね。

これによってOpenAIは、AI技術を商業的に展開して収益を得ながらも、“人類全体の利益”を優先するという名目を維持しやすくなるわけです。

現代の資本主義においては、普通のCコーポレーション(株主利益最優先の株式会社)に成り下がってしまうと、どうしても株主の意向が強くなるリスクが高い。

PBCなら「社会的使命の実現も企業の責任に含まれる」ため、AIの安全性や倫理的側面などを無視できないという仕組みが実装できるのです。

一方、非営利部門の役割も依然として重要で、「OpenAI Inc.」という非営利法人が研究の方向性やミッションを管理し、営利部門である「OpenAI LP」の活動を監督するようになっています。

つまり、PBC化してさらにビジネスを活発化する路線を模索しながらも、非営利の精神や目的を薄れさせない仕組みを併せ持とうとしている。

この二重または三重の構造はとても複雑に見えますが、「AIを独占させない」「しかし巨額の投資を得る」「それでも社会的責任を優先する」という3つの柱を同時に成立させるための苦肉の策と言えるでしょう。

現状、OpenAIはまだ完全にPBC形態に移行しきったわけではなく、移行のための計画や議論が進んでいる段階との見方もあります。

非営利部門と営利部門をうまく連携させつつ、それぞれに相応しい人材配置を行い、AIが与える社会的インパクトを最小限のリスクで最大化するという大義名分があるわけですね。

これにより、独立した財務アドバイザーが株式評価を行い、非営利部門への公正な利益還元を保証する仕組みも考えられています。

ただ注意したいのは、「PBC化したからといって株主が完全に後ろに下がるわけではない」という現実です。

最終的には“利益”と“公益”のバランスをどこで取るかという問題があり、経営陣の考え方や株主構成次第で、いつでも大きく揺れる可能性があります。

だからこそOpenAIは「安全と利益の共有」を強く打ち出しているのだと思います。

もし営利を優先するだけの体制になったら、ユーザーや世界中の専門家から猛反発されるでしょうし、理想として掲げるAGIビジョンとも矛盾してしまう。

一方で非営利部門は、研究や教育、あるいは医療など、AIによる社会貢献プロジェクトを主導する存在としての位置づけが期待されています。

「AGIが到来したら社会をどうデザインするか?」という、営利ベースでは扱いにくい取り組みも含めて、OpenAIの精神的支柱を担う可能性があるんですね。

そして、その非営利部門が本当に機能するかどうかは、今後のOpenAIの組織設計とガバナンス次第と言えるでしょう。

言い換えれば、PBC化も非営利部門も「AIをつくりっぱなしにせず、ちゃんと社会のために役立てる」ことを目指すための装置なんです。

これがうまく働けば、多くの人が恩恵を受けるAGIが生まれるかもしれませんが、うまくいかなければ「結局形だけの非営利風企業」になってしまうかもしれない。

OpenAIはこのリスクを承知のうえで、両立を図る道を選んだのだろうと推測します。

AIの安全性とミッションの両立

営利か非営利かに関わらず、OpenAIがずっと掲げている最重要課題は「AIの安全性をどう担保し、世界に貢献するか」という部分です。

AGIに限らず、AIが進化すればするほど、そのパワーが悪用されたりコントロール不能になったりするリスクが高まります。

だからOpenAIは「安全策を取りながら、段階的にAIを社会へ適応させていく」という方法論を打ち出してきました。

具体的には、大規模言語モデルをすぐにフルスペックで公開するのではなく、レートリミット(利用制限)をかけたり、研究者や開発者限定でアーリーバージョンを提供したり、実際のユーザーからのフィードバックを得ながら改修するやり方をとっています。

これは「成熟しきっていないAIをいきなり世界中に配布すると、意図せぬトラブルが起こる可能性が高い」という懸念への対策ですね。

一方で、OpenAIは「できるだけ早くAIを世に広めたい」と考えているのも事実。

なぜなら、社会がAIに慣れていく段階をすっ飛ばしてしまうと、“衝撃”が一気に押し寄せて混乱が生じるからです。

小出しに進化版AIをリリースし、ユーザーや社会が段階的に学びながら適応することで、大きな混乱を回避する狙いがあると言われています。

営利企業として収益をあげようとすれば、新しいモデルや機能をスピーディーに提供して、競合他社より優位に立ちたいという思惑も当然あります。

だから「安全性」と「ビジネスの速度感」をどう両立させるかは、OpenAIにとって永遠の課題でしょう。

一つの方針として、「AGIを安全にする最善策は、社会と共に進化すること」という考え方が挙げられます。

サム・アルトマン氏が「Reflections」などで言及しているのも、まさにそこ。

「リスクをゼロにしてから出そうとしたら、いつまでも社会が学習できない。AIが進化していく様子をリアルタイムで共有することで、社会もAIに適応する時間を得られる」といった主張です。

しかし、このやり方は逆に「不完全なAIを社会実験的に使わせている」ことを意味し、トラブルが起きた際の責任の所在が曖昧になりがちという問題も含んでいます。

営利企業なら賠償責任や法的な縛りをクリアにする必要がありますし、非営利の理念を掲げるなら「そもそも社会実験で被害が出たらどうするの?」という批判が出る可能性もあります。

このジレンマこそが「AIの安全性とミッションの両立」を難しくしているポイントです。

OpenAIは、これを解消するために「安全研究部門」や「リスク評価チーム」に注力してきました。

最新のモデルに関しては事前に悪用リスクや倫理的問題を検証する仕組みがあり、バグ修正やモデルの微調整を頻繁に実施しています。

さらに、国際機関や各国政府との連携を強化して「AIガバナンス」の枠組み作りにも関与し始めているのが最近の動きです。

たとえばG7でのAIに関する合意形成や、EUのAI規制議論への意見表明など、OpenAIが積極的に関わっているケースも多いですよね。

これは「とにかく社会が混乱しないように手を打たないと、せっかくの研究成果が台無しになる」という危機感の表れでもあるでしょう。

まとめると、OpenAIが非営利から営利へ転換した背景には、資金面や開発体制の都合が大きく存在しますが、一方で自分たちのミッションや安全性をないがしろにする気もないという姿勢を保っているわけです。

この“矛盾”をなるべく矛盾しない形にまとめようと格闘しつつ、実践しているのが現状。

AIが人類にとって真の意味でプラスになるのか、それとも制御不能に陥ってしまうのかは、今後のOpenAIや業界全体の動きを見守る必要があるでしょう。

「Reflections」でサムが語る理想と、現場での営利判断は噛み合うのか――。

そのあたりも(おそらく)多くの人が注視しています。

まとめ

ここまで見てきたように、OpenAIは「非営利としてスタートしたものの、巨大資金が要るAGI開発の現実とぶつかり、営利要素を組み込まざるを得なくなった」という変遷を辿りました。

それでも「利益上限付き営利組織」や「PBC化」、非営利部門の保持など、多層的な構造を用いることで当初の理念を完全に手放すことは避けようとしているのが特徴的です。

また、サム・アルトマン氏が「Reflections」で強調するように、AIの安全性や社会的インパクトはOpenAIの最重要テーマであり続けます。

どれだけ営利形態に寄っても、「AGIは人類全体のためになるものでなければならない」というメッセージを外さない点は、彼らの姿勢を示す大切な要素でしょう。

最終的には、「社会との共進化」と「ビジネス上のスピード感」をどこまで両立できるかが鍵になるはず。

ここをうまくバランスすることが、AGI時代に向けたOpenAIの最大の挑戦と言えるかもしれません。

以上で、非営利から営利への転換と、組織形態が変わった理由、そして安全性とミッションの兼ね合いについて概観しました。

このブログ記事を通して、サム・アルトマン氏が語る夢物語の裏側で、どれだけ現実的な課題とせめぎ合っているのかを感じてもらえたなら幸いです。

最後まで記事を読んでいただき、ありがとうございました!

-AI・テクノロジー