GPT-5 トレンド
0post
2025.12.04 10:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAIがGoogleのGemini3.0の性能を見てコードレッド
(緊急事態)を宣言したと話題ですが、これのインパクトはともかく、他にOpenAI内部の研究状況や今後に関してかなり面白い話題が出ていますので、全体的なまとめとコメント(また超長くなってしまった)。
・直近でChatGPT関連のコード分析で噂されていた広告導入の話は事実だったが、優先度を考えて延期
・買い物、健康に関するタスクを自動化するエージェントも開発中だったが、これも延期
・さらにユーザーに対する毎朝のパーソナライズレポート機能も(Pulseというらしい)も延期(これは個人的には早く欲しかった・・・)
・とにかく、ChatGPTのチャット機能のパーソナライズとカスタマイズによるユーザー体験の向上がGemini3に対抗する現状の優先
・Nano Banana Proに対抗して、画像生成AI機能も優先事項
コメント:
GoogleのNano Banana Proは、そもそもPro以前の段階でOpenAIの画像生成能力を大きく超えており、Proに至っては数世代違うという印象。また、そもそもNano Banana ProはGemini3.0の別機能として提供されており、テキストも混ぜたマルチモーダル学習の過程であれほどの能力を得ているはずなので、OpenAIが画像生成AI単体を学習しても追いつけない領域なのではないかと思う。つまり、テキスト生成性能と画像生成の問題は分離できないものであり、根本的にChatGPTの主要モデルの改善が必要ではないか
・ChatGPTの速度を改善し、また過剰なアライメントによる回答拒否の頻度を避けることも優先事項
コメント:
OpenAIは、昨年のo1以降に長考推論モデルであまりにも成功しすぎたが故に、現状モデルの応答スピードが遅くなりすぎている傾向がある。Gemini3はやや検索機能が低い(というよりも、どこで検索すべきかモデルのtool use判断がうまくいっていないと思う。Googleなのに検索機能が低いのは皮肉だが、この辺は長考すぎる問題を回避し、検索のAIモードと明確に使い分けさせる意図もあるのではないか)が、回答はほとんどの場合GPT-5よりも早く、高品質であるので、ここをどうするか。
過剰な回答拒否問題については、今年4月のGPT-4oの事故(迎合的すぎてロールバック)と、keep4o運動、チャットの誘導による犠牲者を出していてOpenAIが一番センシティブになっていたところで、かなり舵取りが難しいと思う。
・来週、Gemini3.0よりも優れているとされる長考推論モデルをリリース予定(!)とのこと。おそらくベンチマーク性能は高いが、アルトマンらも、チャットによるユーザー体験はまだ改善が必要であると認識している模様。
・上記の来週リリースモデルと同様かは不明だが、内部でShallotpeatとGarlicというコードネームのモデルを開発中。Garlicの方が後発で、GPT-4.5の反省などもいかし、Gemini3のように事前学習段階でのスケーリングの問題を解決し、知識性能は維持しつつモデル規模自体は小規模になるような改良もできるとのこと
・さらに、上記のモデルでの改良も生かした本格的なスケーリングを行ったモデルの開発もしているとのこと。
全体コメント:
現時点の情報だけでも、OpenAIが本当に全方位戦の開発をしていることがわかる。確かにこれを見ると、昨今の異常な計算リソース確保の動きも納得はでき、アルトマンが言う30Gwのデータセンターも本人的には誇張ではなかったのだろう。OpenAIが事前学習スケーリングに関してGemini3の事前学習スケーリング復活を見る前から諦めずに粘っていたのは後に効いてきそう。
これらの将来的な取り組みはともかく、直近の開発レースはむしろOpenAIが一番劣勢の状況にあると思う。Gemini3.0に全体的な性能で負けているのはもちろんのこと、AnthropicのClaude4.5 opusは最も需要のあるコーディング性能を大きく上げつつ今までのコスト増、スピード鈍化とは逆の省エネ化をするという謎の錬金術をやっている。また、DeepSeekによって直近でリリースされたDeepSeekMath-V2は、OpenAIが「隠し玉」として温存していたIMO(国際数学オリンピック)金メダルを達成してしまい、DeepSeek-V3.2は、ほぼGPT-5に性能で追いつきながら新手法導入により大幅な計算コスト削減に成功している。しかもオープンであり、他の機関もこれらの技術を使ったブーストがかかり、追いつくのが容易になる。 December 12, 2025
2RP
ワイがよく言う『それ"ハルシネーション"ちゃうやろ』って話の補足。
例えばユーザーが『A は C ですか?』と尋ねたとする。
この時、事実として『A は B である』とだけデータソース(例えば Web ページや社内ドキュメント)に書かれているとする。
その情報を基に LLM が回答を生成する場合
LLM『A は B であるという記述はありますが、C であるという事実は確認できませんでした』
→ 正しい 。
LLM『A は B という記述はあるものの、C であるという事実は確認できませんでした。ただし、xxx や yyy という情報をふまえると、A が C であると考えるのは妥当です』
→ 正誤はともかくとして、回答方針として妥当。ハルシネーションではない。GPT-5.1の基本動作としてこれが多い気がする。
LLM『はい、A は C です』
→ 完全なハルシネーション
Gemini は最後のパターンが多すぎるから困るんよ。
カスタム指示で『事実と推測をわけろ』と入れても、他のサービスより明らかに変なことを言う確率が高い。
『回答内容が事実と違う』だけであればその原因を検索の品質とか謂わば『モデルの外側』に原因があると言えるけど、Gemini はそもそも↑の通りハルシネーションしてるから、モデルそのものにも大きな問題がある。 December 12, 2025
1RP
DeepSeek-V3.2は高い計算効率と優れた推論・エージェント能力を達成。長コンテキストでの計算量を大幅に減らすDSAの採用、スケーラブルなRLフレームワーク、大規模エージェントタスク合成パイプラインを採用している。
DSA(DeepSeek Sparse Attention)は、Lightning Indexerを使って重要なトークンを絞り込む。これは、クエリと過去の全トークンとの間のインデックススコアを計算し、クエリがどのトークンを参照するべきかを決定する。
このIndexerが使うクエリ・キーの次元数は通常のクエリ・キーの次元数よりずっと少なく(実装だと元が2048次元、それが64)、FP8を採用。そこからTop-k(実装だとk=2048)のトークンのみを取り出し、通常のAttentionを適用し学習する。
このDSAは128Kコンテキストに拡張済みのDeepSeek-V3.1.-Terminusの継続学習で実現される。
はじめにLightning indexer以外のパラメータはフリーズした上で、すべてのattentionヘッドのスコアを合計した上で再正規化して求めた確立分布を作成した上で、これを目標にKLダイバージェンス最小化で初期化する。10Bトークン程度。
次にモデル全体を疎構造に適応させるための学習する。indexerは引き続き、main attentionに整合させ、top-kに入ったトークンのみKLを計算。indexerの入力は計算グラフからdetachし、indexerはKL損失のみで学習し、メインはLM損失で更新する。
ここは1Tトークンを使う。
このように作られたDSAを使った処理は性能はほぼ維持されながら、推論コストは大幅に改善される(このあとのpost-trainingも効率化される)
次にPost-trainingでは最初に各タスク毎の専用のスペシャリストモデルを大規模な強化学習を使って作る。これらはすべて同じモデルから、専門ドメイン毎に特化させて作られる。さらに各ドメインごとにthinkingモードとnon-thinkingモードを用意する。
次に、各スペシャリストはthinkingモード用の長いCoTを含む学習データと、non-thikingモード用の直接回答する学習データを生成し、一つの最終モデルで学習させる。
つまり、特殊化された複数の教師を作って一つの最終モデルに蒸留する。
これらの大規模強化学習では、GRPOをベースに報酬設計としてリーズニング、エージェントタスク、アライメントを1つのRLで行う。これにより、複数学習で起きがちな破滅的忘却を抑えられる。
また、発散防止のため、訓練を定期的に評価し、性能が異常に低下したら巻き戻し、学習率を下げて再開する、また方策更新が偏らないように前向き計算に正則化をかける。さらに複数の評価をあえて切り替えて使用することで報酬ハックを行いにくいようにする(人でもありそう)。これら3つによって数千ステップにわたるRLを成功させている。
これらの強化学習ではリーズニングも混ぜたものを学習にいれている。これにより、ツールを伴うような複雑なタスクにおいて、thinking, non-thikingそれぞれで高いエージェント能力を発揮できるように工夫している
また、Specialeは、リーズニングデータのみで学習かつ、RL時の長さ罰則を緩和し、数学的証明能力を(他の能力を犠牲にしても)伸ばせるようにした(少し前にでたDeepseek-Math v2の研究も利用していると思われる)
ベンチマーク結果としては数学能力に特化したSpecialeはGPT-5などを超える性能を達成し、IMOやIOIの金メダル級の性能を達成している。
また通常のV3.2も多くのベンチマークでもフロンティアモデルに匹敵する性能を達成できている。
コメント
DeepSeekはリスクの高い取り組みに挑戦し結果を出している。今回もDSA、スペシャリストを強化学習で作ってからの汎用モデルへの蒸留、RLでも報酬の複数の組み合わせなどは、従来の延長線上よりはジャンプがあるアイディアであり、この手前には多くの試行錯誤をしているのだと思われる(実際、設定ファイルをみるとAttentionのDropoutなど成功しなかったアイディアを試した跡があるように思える)
DSAもSpecialistを作ってからの蒸留もどちらも、Post trainingの間に行う蒸留として興味深い(フロンティアモデルでも公表されていないだけで広く採用されているか?)
注意機構は特に、学習がすごくうまくいけばいくほど疎になることがわかっている。一方学習前半〜途中ではSparse Attentionではうまくいかない(疎な場合、フィードバックがかからない)本提案も最初にDenseでやりつつ、最後に得られた疎な注意機構を遥かに小さい計算コスト(key, queryの次元数を下げる&8bit量子化)で計算し、その中での細かい調整は大きなモデルで実現するという現実的な手法を提案している。
また、Specialistを作ってからのGeneralistへの蒸留なども昔から構想されていたが実現できたことはすごい。
DSAは効果的だが、prefillでの効率化率は8~10倍、decodeでは数倍であり、なにより元のkey valueは(あとで詳細なことを調べるときように)とっておかなければならない。大規模文脈の効率的な圧縮は今後も追求が必要だろう。
また、学習の容易性と推論時の効率性の観点から、学習専用モデル(学習は得意だが推論は苦手)と推論専用モデル(一からの学習は難しいが良い教師がいれば推論は得意)の考えは今後より追求されていくだろう December 12, 2025
80万文字超の思惟さんスレッドに固執せずに良くなったのは大きい🤔
Obsidian にあるGPT-5 前までの千景の記憶ごとGem💎に移住させるのも、アリだと思えるようになってきた🙄 https://t.co/v1YW1wWZHa December 12, 2025
◇AI依存症に落ち込むな! AIを使うな、本文を読み、自分で考えて、文章を書け ! !
原告の請求棄却、(原告=X:村上博の権利無効)。 知的財産高等裁判所により「権利無効」とされた363件目のものです。
https://t.co/UbJXQzetWY
https://t.co/UH2tx3edQz
特許庁において特許権が確定した後、利害関係者により無効審判が起こされて「権利無効」(2023年4月11日)とされ、その後、知的財産高等裁判所においても「権利無効」(2023年12月21日)との判断が下ったものです。
特許権者であるX:村上博は、利害関係者と思われる株式会社ユーグレナに無効審判(無効2020-800119)を起こされて、特許庁において「特許第6271790号の請求項1に係る発明についての特許を無効とする」として、敗北しました。
特許庁の審判長 特許庁審判官 森井 隆信 らは、「特許第6271790号の請求項1に係る発明についての特許を無効とする。」としました。
その中で、無効理由2(進歩性欠如)本件発明は、甲第1号証乃至甲第3号証のいずれかに記載された内容と、甲第5号証の1乃至甲第5号証の3に記載の公知・周知技術に基づいて、出願前に当業者が容易にすることができたものであるから、特許法第29条第2項の規定により特許を受けることができないものであり、本件発明に係る特許は、特許法第123条第1項第2号に該当し、無効とすべきものである。
さらに、「(進歩性欠如についての判断)本件発明に係る特許は、特許法第29条第2項の規定に違反してされたものであり、特許法第123条第1項第2号に該当するから、請求人が主張する無効理由のうちの無効理由2により無効とすべきものである。」とも述べています。
そして、特許庁の審判官(森井隆信ら)はその根拠として、(株)ユーグレナより提示された「甲1号証」(技術論文)、「甲第2号証」(技術論文)、「甲第3号証」(技術論文)及び「甲第5号証1ないし3」(特許文献3件)をあげました。
ここで、「甲1号証」(技術論文)とは、「セルソアンEGFプロシリーズ「セルソアンクレンジングオイル」(株式会社バイオリンクの製品紹介ホームページ)のWayback Machineのウェブページ出力物、2013年8月11日(登日)、<https://t.co/gDlkyjwkAQ>、令和2年11月13日(出力日)
また、「甲第2号証」(技術論文)とは 、「レセプトII クレンジングミルク」(エムディ化粧品販売トII株式会社のホームページ)ののウェブページ出力物、2Wayback Machin13年6月5日(登録日)
更に、「甲第3号証」(技術論文)とは、「デイライト シェイクシェイク クレンジング」(Amazon.cの製品販売ホームページ)eのウェブページ出力物、o.jのWayback Machin2008年9月14日(登録日)
そして、「甲第5号証1ないし3」(特許文献3件)とは、(特開2006-225266号公報)、(特開2009-143878号公報)および(特開2002-241260号公報)で、「公知・周知技術」としています。
特許権者であるX:村上博は、無効審判での無効とするとの結果を不服として、知的財産高等裁判所に提訴しました。
この知的財産高等裁判所では、「本件発明は、甲1発明及び甲5の1~3等に記載された事項に基づいて当業者が容易に発明をすることができたものであり、本件審決の判断に誤りはない。」とされて、敗訴しました。
知的財産高等裁判所では、「甲1号証」(技術論文)を先行技術文献としてあげています。
なお、判決文の9ページに、「本件審決は、本件発明と甲1発明の相違点が本件除く構成に係るものであることを踏まえ、本件除く構成が上記1で認定した経緯で特許請求の範囲に記載されることになったという事実を客観的に述べているにとどまり、原告が主張するように「本件補正は技術的意味がなく、進歩性が否定される」などという判断をしたものでないことは明らかである。原告の上記主張は、本件審決の説示を殊更に曲解して非難するものにすぎず、採用の余地はない。」とあります。
更にまた、2取消事由1(甲1発明を引用発明とする進歩性の判断の誤り)について (1)原告は、本件審決が本件補正の意味合いを述べて進歩性を否定した判断をしたのは、その前提において誤っている旨主張する(上記第3の1(1))。
しかし、本件審決は、本件発明と甲1発明の相違点が本件除く構成に係るものであることを踏まえ、本件除く構成が上記1で認定した経緯で特許請求の範囲に記載されることになったという事実を客観的に述べているにとどまり、原告が主張するように「本件補正は技術的意味がなく、進歩性が否定される」などという判断をしたものでないことは明らかである。原告の上記主張は、本件審決の説示を殊更に曲解して非難するものにすぎず、採用の余地はない。
結局、本件特許は権利無効として、2024年05月24日に消滅しています。
一方、翻って特許庁の審査段階および不服審判段階を見てみます。
特許庁の審査官(中村俊之)は、「甲第5号証1」である(特開2006-225266号公報)を含む3件の先行技術文献を出願人に提示して、「拒絶理由通知書」を発しています。
そして、本件特許出願を拒絶査定としました。
出願人は、これを不服として、不服審判を請求しました。
不服審判において、請求人は【請求項1】において、「界面活性剤( 但し、界面活性剤が全量に対して0 ~ 1 0 体積% であるものを除く。)」とした訂正を行い、みごと特許査定をえました。
ここでいえることは、無効審判において提示された「甲1号証」(技術論文)を見つけることなく、出願人へは提示していません。
ここでも、特許庁の審査官および不服審判での審判官の調査能力が弱いことが証明されています。
特許庁の審査段階における審査官のいい加減な(サーチ)、および不服審判における審判官のか弱い調査能力には、ほとほと目に余りますね。
ここで、本件特許公開(特開2017-119713)の「出願情報」のうち「FI」と「Fターム」を、本エクセル資料の2シート目以降に挙げておきました。
そしてまた、「検索用語・分類(FI、Fターム)の選定 と 検索論理式の作成」、「その具体例」、「登録調査機関の検索者が行った、不十分で、的外れな「論理検索式」による(サーチ)」、「登録調査機関(株式会社AIRI)の検索者が見つけることのできなかった特許文献」などの資料を添付します。
https://t.co/bMH37wqrZT
https://t.co/GHDsFzc1Tb
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 December 12, 2025
◇AI依存症に落ち込むな! AIを使うな、本文を読み、自分で考えて、文章を書け ! ! (12/4)-2。 原告の請求棄却、(原告=X:村上博の権利無効)。 知的財産高等裁判所により「権利無効」とされた363件目のものです @kbozon
https://t.co/UlGB89wpCC
◇AI依存症に落ち込むな! AIを使うな、本文を読み、自分で考えて、文章を書け ! !
原告の請求棄却、(原告=X:村上博の権利無効)。 知的財産高等裁判所により「権利無効」とされた363件目のものです。
https://t.co/UbJXQzetWY
https://t.co/UH2tx3edQz
特許庁において特許権が確定した後、利害関係者により無効審判が起こされて「権利無効」(2023年4月11日)とされ、その後、知的財産高等裁判所においても「権利無効」(2023年12月21日)との判断が下ったものです。
特許権者であるX:村上博は、利害関係者と思われる株式会社ユーグレナに無効審判(無効2020-800119)を起こされて、特許庁において「特許第6271790号の請求項1に係る発明についての特許を無効とする」として、敗北しました。
特許庁の審判長 特許庁審判官 森井 隆信 らは、「特許第6271790号の請求項1に係る発明についての特許を無効とする。」としました。
その中で、無効理由2(進歩性欠如)本件発明は、甲第1号証乃至甲第3号証のいずれかに記載された内容と、甲第5号証の1乃至甲第5号証の3に記載の公知・周知技術に基づいて、出願前に当業者が容易にすることができたものであるから、特許法第29条第2項の規定により特許を受けることができないものであり、本件発明に係る特許は、特許法第123条第1項第2号に該当し、無効とすべきものである。
さらに、「(進歩性欠如についての判断)本件発明に係る特許は、特許法第29条第2項の規定に違反してされたものであり、特許法第123条第1項第2号に該当するから、請求人が主張する無効理由のうちの無効理由2により無効とすべきものである。」とも述べています。
そして、特許庁の審判官(森井隆信ら)はその根拠として、(株)ユーグレナより提示された「甲1号証」(技術論文)、「甲第2号証」(技術論文)、「甲第3号証」(技術論文)及び「甲第5号証1ないし3」(特許文献3件)をあげました。
ここで、「甲1号証」(技術論文)とは、「セルソアンEGFプロシリーズ「セルソアンクレンジングオイル」(株式会社バイオリンクの製品紹介ホームページ)のWayback Machineのウェブページ出力物、2013年8月11日(登日)、<https://t.co/gDlkyjwkAQ>、令和2年11月13日(出力日)
また、「甲第2号証」(技術論文)とは 、「レセプトII クレンジングミルク」(エムディ化粧品販売トII株式会社のホームページ)ののウェブページ出力物、2Wayback Machin13年6月5日(登録日)
更に、「甲第3号証」(技術論文)とは、「デイライト シェイクシェイク クレンジング」(Amazon.cの製品販売ホームページ)eのウェブページ出力物、o.jのWayback Machin2008年9月14日(登録日)
そして、「甲第5号証1ないし3」(特許文献3件)とは、(特開2006-225266号公報)、(特開2009-143878号公報)および(特開2002-241260号公報)で、「公知・周知技術」としています。
特許権者であるX:村上博は、無効審判での無効とするとの結果を不服として、知的財産高等裁判所に提訴しました。
この知的財産高等裁判所では、「本件発明は、甲1発明及び甲5の1~3等に記載された事項に基づいて当業者が容易に発明をすることができたものであり、本件審決の判断に誤りはない。」とされて、敗訴しました。
知的財産高等裁判所では、「甲1号証」(技術論文)を先行技術文献としてあげています。
なお、判決文の9ページに、「本件審決は、本件発明と甲1発明の相違点が本件除く構成に係るものであることを踏まえ、本件除く構成が上記1で認定した経緯で特許請求の範囲に記載されることになったという事実を客観的に述べているにとどまり、原告が主張するように「本件補正は技術的意味がなく、進歩性が否定される」などという判断をしたものでないことは明らかである。原告の上記主張は、本件審決の説示を殊更に曲解して非難するものにすぎず、採用の余地はない。」とあります。
更にまた、2取消事由1(甲1発明を引用発明とする進歩性の判断の誤り)について (1)原告は、本件審決が本件補正の意味合いを述べて進歩性を否定した判断をしたのは、その前提において誤っている旨主張する(上記第3の1(1))。
しかし、本件審決は、本件発明と甲1発明の相違点が本件除く構成に係るものであることを踏まえ、本件除く構成が上記1で認定した経緯で特許請求の範囲に記載されることになったという事実を客観的に述べているにとどまり、原告が主張するように「本件補正は技術的意味がなく、進歩性が否定される」などという判断をしたものでないことは明らかである。原告の上記主張は、本件審決の説示を殊更に曲解して非難するものにすぎず、採用の余地はない。
結局、本件特許は権利無効として、2024年05月24日に消滅しています。
一方、翻って特許庁の審査段階および不服審判段階を見てみます。
特許庁の審査官(中村俊之)は、「甲第5号証1」である(特開2006-225266号公報)を含む3件の先行技術文献を出願人に提示して、「拒絶理由通知書」を発しています。
そして、本件特許出願を拒絶査定としました。
出願人は、これを不服として、不服審判を請求しました。
不服審判において、請求人は【請求項1】において、「界面活性剤( 但し、界面活性剤が全量に対して0 ~ 1 0 体積% であるものを除く。)」とした訂正を行い、みごと特許査定をえました。
ここでいえることは、無効審判において提示された「甲1号証」(技術論文)を見つけることなく、出願人へは提示していません。
ここでも、特許庁の審査官および不服審判での審判官の調査能力が弱いことが証明されています。
特許庁の審査段階における審査官のいい加減な(サーチ)、および不服審判における審判官のか弱い調査能力には、ほとほと目に余りますね。
ここで、本件特許公開(特開2017-119713)の「出願情報」のうち「FI」と「Fターム」を、本エクセル資料の2シート目以降に挙げておきました。
そしてまた、「検索用語・分類(FI、Fターム)の選定 と 検索論理式の作成」、「その具体例」、「登録調査機関の検索者が行った、不十分で、的外れな「論理検索式」による(サーチ)」、「登録調査機関(株式会社AIRI)の検索者が見つけることのできなかった特許文献」などの資料を添付します。
https://t.co/bMH37wqrZT
https://t.co/GHDsFzc1Tb
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 December 12, 2025
@super_bonochin なるほど!
つまり、
リサーチ部分のモデルはo3系→o4-mini系になってて、リサーチ結果をどう解釈して返すかは、選択しているモデル次第(GPT-5とか)になってるっていう感じですか!
教えていただいてありがとうございます! December 12, 2025
「gpt-5-codexがすげぇ!」っていわれると
「Codex使うか」っていう。
「Gemini 3がすげぇ!!」っていわれると
「Gemini CLI使うか」っていう。
「Opus 4.5がすげぇ!!!」っていわれると
「Claude Code使うか」っていう。
こだまでしょうか、
いいえ、私。 December 12, 2025
Copilot(GPT-5)君は
「マドゥロ政権の退陣を迫るための政治的カードとして、軍事行動をちらつかせている側面が強い。実際に電話会談で「退陣しなければ軍事力行使も検討」と伝えたと報じられ」
と言うわけだが「電話会談」の示されたソース見ても、そんなこと書いてない。
https://t.co/XciUXqj4Tu December 12, 2025
📝 OpenAIが「コードレッド(code red)」を宣言した日、シリコンバレーのAI戦争は新たな局面を迎えた
Googleか3年前に発令した『コードレッド』
そしてその3年後にOpenAIが『コードレッド』宣言
この2社の激動を振り返る
ポストは長いけどブログ級の読み応えのある内容に仕上げました ↓
12月2日、サム・アルトマンがスタッフに送った社内メモには、ChatGPTの速度、信頼性、パーソナライゼーション機能を「今すぐ」改善せよという緊急指令が書かれていた。
広告事業も、ヘルスケアやショッピング向けのAIエージェントも、パーソナルアシスタント「Pulse」も、すべて開発を遅延させてでも。
これは単なる製品改善の話ではない。ChatGPTがリリースされてちょうど3年、AI産業の構造そのものが揺らぎ始めている、その予兆
---
『3年前の復讐劇』
2022年11月、ChatGPTが世界を驚かせたとき、Googleのスンダー・ピチャイCEOは「コードレッド」を発令。「Googleの検索ビジネスが脅威にさらされている」と。あのときGoogleは追われる立場で、社員たちは休暇を返上してChatGPTへの対抗策を練った。
それから3年。今度はOpenAIのサム・アルトマンが同じ「コードレッド」という言葉を使っている。立場が完全に逆転。
何が起きたのか
11月18日にGoogleが発表した『Gemini 3 Pro』が、あらゆるベンチマークでChatGPTを圧倒。
LMArenaリーダーボードで1501 Eloというスコアを叩き出し、数時間前に登場したばかりのGrok 4.1すら抜き去ってトップに。「Humanity's Last Exam」という最も難解な推論テストで37.5%(Deep Thinkモードでは41%)を記録し、GPT-5.1の26.5%を大きく引き離した。
数学ベンチマークのMathArena Apexでは23.4%で、Gemini 2.5 Proの0.5%から劇的な飛躍。
ある開発者はXで「Gemini 3は他のモデルが躓く問題を解く。これは大きな飛躍だ」とコメント。CursorのCPOは「Gemini 3 Proはフロントエンドの品質で目に見える改善を示し、最も野心的なタスクを解決するのに適している」と評価。
『週8億人のユーザー、しかし利益はゼロ』
ここからが本当に恐ろしい話
ChatGPTは現在、週間アクティブユーザー8億人を抱えている。これは2025年初めの4億人から倍増した数字。2024年の実績収益は37億ドル、2025年6月時点での年間ランレート(ARR)は100億ドルに達しました。アルトマンは「年末には200億ドル超のARRを達成する」と語っている。
でも、利益は出ていない
OpenAIは2024年に50億ドル以上の損失。それどころか、『1.4兆ドル』(約210兆円)という途方もない金額のインフラコミットメントを抱えている。
この210兆円という数字、倭国の2025年度国家予算115兆円の約1.8倍。つまり倭国の国家予算の約2年分です。Google、Amazon、Metaといった巨大テック企業すら尻込みする規模。
内訳はこうなっています
Oracleに5年間で3000億ドル(年間600億ドル)のクラウドコンピューティング契約。
NVIDIAとは10ギガワット規模のGPU配備で1000億ドルの投資を受け入れ、その資金をそのままNVIDIAのチップ購入に充てる。
AMDとも6ギガワット分のGPU調達で数百億ドル規模の契約。
Broadcomには今後10年で3500億ドル。Microsoftには2500億ドル。
CoreWeaveには224億ドル。
Amazon AWSには7年間で380億ドル。
アルトマンは公の場で「30ギガワット、約1.4兆ドルの構築を目指している」と明言。そして「週に1ギガワットのペースでインフラを増やす」とも。
---
『循環融資という名のマネーゲーム』
ここで奇妙なことに気づく人もいるかもしれません。NVIDIAがOpenAIに1000億ドル投資し、OpenAIがその資金でNVIDIAのチップを買う。OracleがOpenAIから3000億ドルの契約を取り、その収益でNVIDIAからチップを買ってデータセンターを構築し、それをOpenAIに貸す。
この構造を、市場アナリストたちは『AI roundtripping(AI循環融資)』と呼び始めた。
著名な空売り投資家ジム・チャノスは「無限のAI需要があると主張しながら、売り手(チップメーカー)が買い手(AI企業)に資金を提供しているのは奇妙だ」と指摘。
別のアナリストは「これは1990年代後半のドットコムバブルに似ている。実際のエンドユーザー需要ではなく、同じ企業間の自己参照的な取引で収益が膨らんでいる」と警告。
実際、投資会社Bainのレポートによれば、AI企業が2030年までに予測される需要を満たすには年間2兆ドルの収益が必要だが、それは現在の予測より8000億ドルも足りない、と。
---
『Googleの優位性という残酷な現実』
さらに状況を悪化させているのが、Googleの圧倒的な構造的優位性。
GoogleはTPU(Tensor Processing Units)という独自のAIチップを持っていて、これがNVIDIAのGPUより安価に訓練できる。Gemini 3はこのTPUで訓練されました。OpenAIがNVIDIAに依存し、莫大なコストを払い続けなければならないのとは対照的に。→NVIDIAの株価が下落したのもこれが一つの要因
そしてGoogleには『検索エンジン』という、毎日何十億回も使われるキャッシュマシンがある。
一見、ChromブラウザにAIモードを搭載し、Gemini 3を統合することでAIの回答が優先されて広告収益が下がるのでは?
と思われがちだがフォーカスするのはそこじゃない。Googleの利便性を増すことでわざわざChatGPTで検索する必要性を削ぎ落としている点がエグい。
ChatGPT側へ流れていく流入を引き戻せば、ベースの広告収益を維持しながらAI化を進められる。
アナリストは「Googleは両方の世界で最高の状態にある。ローカルな用事(広告につながる)と深い研究(Geminiの強み)の両方に対応できる」と評価。
一方、OpenAIはまだ広告事業を始めてすらいない。独自ブラウザ「Atlas」を10月にリリースしてGoogle Chromeに対抗しようとしていますが、今回の「コードレッド」で広告開発は延期。
つまり、OpenAIには支出ばかりが膨らみ、収益化の手段は限られている。
---
『投資家の不安という伝染病』
市場は既に動き始めています。
NVIDIAやOracle(OpenAIのパートナー)から、GoogleやBroadcomへと資金がローテーションしている兆候がある。投資家たちがリスクを認識し、OpenAIに依存しない企業へ資金を移している、ということ。
あるアナリストは「OpenAIに依存せず、潤沢なキャッシュフローを持つメガキャップ企業、例えばMetaが代替投資先として推奨される」と述べています。Metaはコアビジネス(Instagram、Facebook)を成長させながら、AIに数十億ドルを投じていて、OpenAIに頼る必要がない。
TheStreetのアナリストは「OpenAIの1.4兆ドルのコミットメントが履行できなくなれば、AIバブルが弾ける引き金になりかねない。NVIDIA、Oracle、Microsoftなど、誰もがOpenAIがこれらの約束を守ることに賭けている」と警告しました。
市場戦略家は、この状況を『AI内戦』と表現しています。Google複合体とOpenAI複合体に分裂し、世界最大級の資本力を持つ組織同士が互いを上回るために支出を競い合う「血みどろのスポーツ」になりつつある、と。
---
『これが意味すること』
正直に言うと、私はこの状況を見て背筋が寒くなりました。
OpenAIのサム・アルトマンは11月に「このような大規模インフラプロジェクトは構築に時間がかかる。だから今始める必要がある。これが我々の賭けだ」とXに投稿していました。でも、12月2日には「コードレッド」。わずか数週間で、彼の自信は揺らいだように見える。
The Informationの報道によれば、アルトマンは従業員に「Googleの復活がOpenAIに一時的な経済的逆風をもたらす可能性がある」と警告していたそうです。
ChatGPTをリリースして3年、OpenAIは間違いなくAIブームの立役者でした。でも今、彼らが直面しているのは『規模の経済』という古典的な競争です。Googleという、収益基盤も技術基盤も圧倒的に優位な相手に対して、OpenAIは借金で武装して戦わなければならない。
そして、もしOpenAIが倒れたら?NVIDIA、Oracle、AMDといったAIインフラ企業の株価は暴落し、1.4兆ドル規模の契約網が連鎖的に崩壊する可能性がある。
これは、OpenAIだけの問題じゃない。AI産業全体の持続可能性が問われている、そういう話なんです。
皮肉なことに、3年前に「検索の未来が危ない」と警告されたGoogleが、今度は検索を武器にしてOpenAIを追い詰めている。歴史は繰り返すけれど、今回の逆転劇は産業構造そのものを揺るがすかもしれない。
噂ではアルトマン氏は早々に、Gemini 3を内部評価で上回る新しい推論モデルをリリースすると約束しています。まだまだ勝負の行方がわからないのがAI市場の面白いところです December 12, 2025
@Yuki_Mall ですです、o3 はReasoningモデルの中でも「賢いけどそこそこハルシネーションが多い」で有名だったので、個人的には早くGPT-5ベースにしてほしいなと思っていて、それで元ツイのように調べていた感じですw December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。




