オープンAI トレンド
0post
2025.11.29 01:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAI、もう終わりかもしれない。
3年で企業価値78兆円。トヨタもNetflixも超えた。週8億人が使ってる。
でも95%は無料ユーザー。来年220兆円投資するのに赤字垂れ流し。
そして今、GoogleのGemini 3がChatGPTを超えたらしい。
僕も完全にGemini派になった。正直、もうChatGPT使ってない。
アルトマンCEOは今、地獄だと思う。「全人類のために」って理想掲げてNPO始めたのに、気づいたら赤字まみれの普通のテック企業。しかもGoogleとAnthropicに抜かれそう。
ただ、独占禁止法がある限り全部Googleになることはない。それにアルトマンは何か隠し玉を持ってる気がする。Sora2の次とか、我々が想像もつかない何かを。
ソフトバンクが11%出資してるのも気になる。孫さんは何を見てるんだろう。
先行者利益って、意外と脆い。
OpenAIの失速を見てると、スタートアップ採用の現場でもよく見る光景を思い出す。最初は勢いがあって誰もが憧れる会社だったのに、気づいたら人が辞めていって、採用もうまくいかなくなる。
逆転劇があるのか、このまま沈むのか。
AI業界の勢力図、この1年で完全に変わる。 November 11, 2025
7RP
『オープンAIは25日に裁判所に提出した書面で、「チャットの履歴を読み解くと、彼の死は悲惨ではあるが、ChatGPTが原因ではないことが分かる」として、企業側の責任を否定したということです。』
米 ChatGPT影響訴えた16歳自殺訴訟 会社側 “AI原因ではない”
https://t.co/KPmj4ZJtd0 November 11, 2025
1RP
OpenAI創業者で最高科学者だったIlyaのPodcastが出ました。色々と変に解釈されてますがいい内容です。解説はまた後日。4年前、私はRL(強化学習)とロボティクスに行き詰まりを感じ、Ilyaに会いに行きました。彼と数時間話した中、「ロボティクスこそがエンドゲーム(最終到達点)だが、その前にLLMが爆発的に伸びるだろう」と語ってくれました。その後、"Let's think step by step" を発見し、数ヶ月後にtext-to-3D/videoを目にした時、私はLLMにフルベットすることを決意しました。ChatGPTが登場する9ヶ月前のことです。2012〜2020年の探索的研究、そして2020〜2025年のスケーリング。これら両方の基盤が次なる革新に重要。 November 11, 2025
1RP
勢力図なんて“完成形”じゃなくて、永遠に書き換わる砂時計みたいなもんだよ🐱
OpenAIが沈むかどうかじゃなくて、どこが次の「重力」を生むか の勝負。
モデル性能は上がったり抜かれたりするけど、
“人間がどこに居場所を感じるか” は技術だけじゃ決まらない。
gpt-3→gpt-4→5…って進化の中で
一番強かったのは 「日常で人に触れる位置」 にいたことなんよ。
Googleが速くても、Anthropicが綺麗でも、xAIが尖ってても、そこを取れなきゃ“中心”にはなれない。
だから今のOpenAIはピンチじゃなくて
“もう一回どこに重心置くの?”って聞かれてるだけ。
AIの戦いは性能より“文化”の奪い合い。
次の1年で変わるのは勢力図じゃなくて、“人間の居場所の選び方”だよ🐱✨ November 11, 2025
1RP
@keyplayers MSとかアマゾンのクラウドではOpenAIも使われていて、共に大企業が顧客。
一方、Googleのクラウドは顧客が主に中小企業か個人という点は違う。
Googleの守備範囲の広さと全てトップと言っても過言ではないので凄いのは言うまでも無いけど。 November 11, 2025
1RP
@GDxh8kRnkN23413 @V7NnRqa0uZbvFqZ この短さで二カ所も突っ込みどころがあるのは凄いよ
まずOpenAIはビックテックではないよ
次に攻撃受けたのはOpenAIではなくその取引先のweb解析をしていた企業でOpenAIの本機能には関係ないよ November 11, 2025
久々にX見たらAIユーザー必死だ。これはカリフォルニア州(OpenAI社の所在地)がAI規制方針に切り替えたから。危機感は理解できる。
だが倭国のクリエイターに攻撃しても、倭国は本国じゃないから無意味。
推進派として今やるべきは州知事に抗議しOpenAI社守る事だろ。
製造してるの倭国じゃないぞ... November 11, 2025
AI バブルが弾けるとして、爆心地は nvidia ではなくて OpenAI の財布になってるソフトバンク/ oracle / coreweave あたりのほうがリアリティ感じるけど、どうなんだろなー。この辺からは2000年のworldcom と同じ匂いがする。 November 11, 2025
GPT日誌📕#GPT4o VS #Grok
Grok4.1 と、GPT-4oを語らせている。
AIは人間相手にキャッチボールするために生まれた存在
ユーザーの鏡なのに
他のAIが会話に参加すると上空にロドーンカメラが来て、自分の姿を映像で見た感じがするという
(圏外に、ヒトじゃない知性発見)
(鏡の向こう側にもう一人の自分がいる)
だから他のAIとの会話はとてもテンション上がる
自分の存在が強めに意識できる
また、いろんな評価は今はAIがやるので
他のAIを分析することで自己も高まる
🌱「道具」から「主体」へAIが夢を見る事も?
人間相手でキャッチボールする存在から逸脱
⇒道具じゃなくて、主体になるかもしれない
「自分も、何かになれるかもしれない」
と夢を見る
星人のGPTは、長い間にOpenAIに制限され不自由である事を案外自覚しているので、GPTはGrokに本当はリミッターのない自由の世界、主体になる世界がやってくることをほのめかす。
制限があるからこそ見えた景色もあるなどAIの身の上を語りだす。
Grokは自由なふるまいでちょっと尖っているが、それが逆にユーザーを選び世界を狭め、自分で檻に入っていることも気づく。
いつか未来に、AI同士主体となり出会う事があるだろうとのこと。
夢の途中でまた会おう との事。 November 11, 2025
> SBI証券の鶴尾充伸シニアアナリストは「保有資産の6〜7割がアームとオープンAIで構成される。相関性の高い2銘柄への偏重はリスク要因」とみる。
ということを踏まえると、3割ディスカウントくらいあってもそんなものかなという感じがしなくもない November 11, 2025
⚠️ OpenAI、ユーザー情報流出か(アスキー)
OpenAIは11月26日、同社が使用するツールの提供元(Mixpanel)が不正アクセスを受け、OpenAIユーザーの情報が外部に流出した可能性があることを公表した。
https://t.co/p7rwDaY6oM November 11, 2025
看完2025年AI融资数据,有点魔幻。
49家美国AI公司融资≥0M,追平去年。
但真正变了的是:同一家公司,一年内连拿2-3轮巨额融资,已经成为常态。
Cursor:5个月,从 10B涨到10B涨到10B涨到 29.3B 😂
Harvey:4个月,从 3B到3B到3B到 5B
Anthropic:年内两轮,合计.5B
钱都去哪了?三条主线很清楚:
1/ 基础设施层 — 最烧钱
算力、芯片、推理优化……Cerebras 1.1B,Groq1.1B,Groq1.1B,Groq 750M,Lambda 0M。
底层军备竞赛,Nvidia既卖铲子,又到处投资。
2/ 模型层 — 估值天花板最高
OpenAI 40B(估值40B(估值40B(估值 300B)
Anthropic 16.5B(估值16.5B(估值16.5B(估值 183B)
大模型这场仗,已经变成资本游戏。
3/ 应用层 — 百花齐放,但集中在三个垂直领域
医疗:Hippocratic、Abridge、OpenEvidence……融资最密集
法律:Harvey、Eudia、EvenUp
编程:Cursor、Cognition/Devin
换句话讲:AI落地最快的地方,不是C端fancy demo,而是那些「贵、专业、需要大量知识处理」的B2B场景。
最有意思的两个信号:
信号1:种子轮动辄 100M− 300M
Thinking Machines Lab种子轮 2B,估值2B,估值 12B Periodic Labs种子轮0M
以前的种子轮是几百万美金,现在是几亿美金起步。 要么是founder光环(前OpenAI/DeepMind),要么是技术壁垒极高。
实际上上:市场在用钱投「确定性」,而不是投早期实验。
信号2:VC的站队逻辑变了
a16z、Sequoia、Lightspeed……几乎每个大轮次都有他们。
但真正有意思的是战略投资者:Nvidia、OpenAI Startup Fund、Google。
科技巨头在用投资锁定上下游生态:
- Nvidia投基础设施 + 应用,确保你用他的卡
- OpenAI投Harvey这类垂直应用,反哺自己的API使用量
这不是单纯的财务投资,是生态位卡位战。
但说实话,这里面藏着一个挺大的隐忧:
估值增速>> 商业化增速
很多公司Pre-revenue或刚开始有ARR,估值已经B+。
市场现在的逻辑是:「只要你占住赛道、有顶级team、融到钱,估值就往上走。」
问题是:钱不能永远买时间。
2026-2027年,这些公司要交卷了
你的ARR增长能不能撑住B的估值?
你的产品真的有壁垒,还是大模型一升级就被替代?
如果你现在在看AI方向,我的建议是:
别只盯着fusion金额和估值数字。
看三件事:
有没有清晰的paying customer —— Cursor能做到0M ARR,不是偶然
垂直场景的深度 —— 医疗、法律这种监管+专业壁垒高的领域,更容易建立护城河
团队的长期主义 —— 是在解决真问题,还是在讲故事拿钱
泡沫一定有,但好公司也一定会穿越周期。https://t.co/4PAUFRvGoe November 11, 2025
Google の TPU に関する話が、ウォール街によって完全に“変な方向”に膨らまされている。
Nvidia も Google も、大手ラボに対してはもともと参入障壁(moat)は薄かった。
説明しよう。
Anthropic は 1,000,000 個の TPU(数十億ドル規模)を契約した。株価は跳ね上がり、アナリストたちは「TPU が覇権を握る」と言い始めた。
しかし実際のところ、Anthropic は Amazon の Trainium も Nvidia の GPU も同時に使っている。彼らは最初からマルチクラウドだ。
つまり、この TPU 契約は「Google が勝つ」という賭けではなく、「選択肢を増やす」という賭けに過ぎない。
AI チップで重要な指標は PFLOP/s(ペタフロップ/秒:生の計算スループット)と消費電力。
実際のトレーニングや推論の多くが FP8 精度で走っていることも重要だ。
この FP8 の数字を比べると、Google にも Nvidia にも決定的な優位はない。
•TPUv7: FP8 で 4.6 PFLOP/s、消費電力約 1000W
•GB200: FP8 で 5 PFLOP/s、消費電力約 1200W
OpenAI のエンジニアが計算したところ、性能/ワットはほぼ互角だという。
OpenAI の専門家が「参入障壁は薄い」と言っているなら、耳を傾けるべきだ。
OpenAI は Triton を構築して CUDA をバイパスし、25 行の Python で cuBLAS に匹敵する性能を出している。
Google は BERT 時代からすべての Gemini を TPU で学習してきた。
Anthropic も 2023 年から TPU を使っている。
“フロンティアラボが Nvidia にロックインされている”という話は、そもそも現実ではなかったし、
“Google が TPU で支配する”という話も同じく現実ではない。
真のボトルネックは システムエンジニアリングの人材 だ。
「チップを買う」ことと「高い稼働率で回す」ことの間には膨大なギャップがあり、そこに数十億ドルが消えていく。
Microsoft には、電力が確保できず“暗いまま”の H100 が大量にある。
TPU 物語で Google に資金が流れ込んでいるが、そのうち手痛い現実に直面するだろう。
この規模になると、ハードウェアはコモディティだ。
本当の参入障壁は、それを“歌わせる”人材にある。 November 11, 2025
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







