オープンAI トレンド
0post
2025.11.27 14:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
民法連がSora2に対して懸念表明の声明。迫力がありすぎて全文引用しなきゃ済まない感じだったので、代わりに下線を引きました。サム氏、これにどう答えるの?こんな声明出したところでOpenAIがはたして対応してくれるかしら?「てかもう対応済みじゃね?」と思うかもしれんけど、まだ全然ダメです。普通に抜け穴からパクリアニメ作ってる動画のツイート出てくるよ。こういう声明も大事だけど、これだけだとまだ言うだけ言ってるだけで、空気作ってるだけの段階。この声明が無視されたら出版社だか民法連だかはキッチリOpenAIに訴訟仕掛けに行くんだろうか?おもしろくなってきやがった November 11, 2025
3RP
昨日のこちらのポストを見て、「いよいよMicrosoftの反撃が始まったな、これでエンプラ領域での(Geminiさんアシストによる)Googleの快進撃もすぐに止まるに違いない」と即断定するのはまだ早いと思います。長くなりそうですが、どういうことか少々詳しく説明しますね。
まず、私の場合は今回の発表を見て逆にここまでMicrosoftが追い詰められているのか…と驚きました。というのは、スターゲート絡み…つまりOpenAIのためにMicrosoftは相当な被害(つまり赤字)を被っているはずで、その赤字分を何とかして取り返すためにもエンプラ領域での稼ぎ頭であるMicrosoft 365にAI関連サービス分の利益を上乗せして売るのは至上命題だったはずなのです。
それが、今回のGemini-3.0ショックでAI関連付加サービス(要はCopilot)を一気に全て無料で開放することになってしまった(正確には開放せざるを得なかった)訳で、これでいったいどうやってOpenAI絡みの投資を回収するのか、今頃Microsoft CEOのサティア・ナデラ氏は途方にくれているのでは?
こうなると、今後は本当に(売り上げを)取りやすいところから確実に取るしかないとなり、その結果がMicrosoft 365におけるアカデミック領域でのストレージサービスの突然の縮小(つまり以前と同じに使いたければ追加分の莫大なコストが必要)であるとか、あるいはNPO法人向けにかなりの規模で大盤振る舞いをしていた無料でのサービス提供を一気に絞り込み始めたということなのでしょう。私が見る限り、あまり表には出て来て無いところでのその辺りの動きに、今のMicrosoftの焦りが如実に反映されていると見ました。 November 11, 2025
2RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
2RP
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
2RP
結論:OpenAIは現在、人類史上類を見ないスピードと規模で金を燃やしながら未来を買っている。
2030年までに本当に32兆円が必要になるのか、それとも想定を遥かに超える収益で笑うことになるのか──それはユーザー数の伸びと、AIが社会にどれだけ深く根を張れるかにかかっている。まさに“オール・オア・ナッシング”の賭けが、今この瞬間に進行中。
OpenAIは今、世界で最も“金食い虫”な企業の一つ。
英Financial TimesやHSBCの試算では、2030年までに少なくとも2070億ドル(約32兆円)の追加資金が必要で、さもなくば事業継続が難しくなるとされる。
既に結んでいる契約総額は最大1.8兆ドル(約280兆円)規模。主な資金源は:
- Microsoft(最大のパートナー)
- NVIDIA、ソフトバンクなど最新ラウンド(評価額約23兆円で9700億円調達)
- Amazonとの7年間で380億ドル(約6兆円)契約
それでも足りない理由は生成AIの途方もないインフラコスト。
- 必要電力:36ギガワット(原発約36基分)
- データセンター年間利用料:約6200億ドル(約96兆円)
- 2030年までの累積コスト:約7920億ドル(約122兆円)
まさに国家予算級の投資が進行中である。
HSBCの楽観シナリオでは、2030年収益は1290億ドル(約20兆円)。
- ユーザー数:2025年8億人→2030年30億人
- 有料化率:5%→10%
- 検索870億ドル+広告240億ドルなど
さらに2026年末には日常生活用AIデバイス(iPod shuffle並みにコンパクト)をリリースし、史上最速1億台出荷を目指す。
それでも楽観予測でも2030年時点で約32兆円の資金ギャップが残る。ただしユーザー1人増えるごとにLTVが上昇するため、追加5億ユーザーごとに累積収益が360億ドル増える計算であり、想定以上にユーザーが増えれば不足額は大幅に縮小する。
Financial Timesは「有料化のさらなる加速」や「AGIの偶発的達成」がすべてを変えるジョーカーになり得ると指摘。
HSBCアナリストはこう結論づけた。
「今は狂っているように見えても、最終的には報われる。AIはあらゆる産業に深く浸透し、人類の生産性を劇的に向上させる。現在の投資規模は合理的には見えないが、リターンは投資額をはるかに上回るだろう」
一方、技術者コミュニティでは冷静な声も多い。
- 創薬ではDeepMindやIsomorphic Labsに遅れ
- 広告ではGoogle・Metaと正面衝突
ただしChatGPTを通じた“製品発見・購入”の流れは、小売提携で圧倒的有利になる可能性がある。
https://t.co/DO9PCTP1y8 November 11, 2025
1RP
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
1RP
小野田さん何が強いって「元モデルもやっててゲーム会社で勤務したこともあって推しとかBLとかもめちゃくちゃ理解してるオタク気質もあり英語もペラペラで世界に友人がたくさんいる」という。クールジャパン戦略でいわゆる「政治家のオトモダチ」ではなくガチでどうやって現場に金届けるか考えてるというな。
オープンAIに「おうちょっと待てや」って言ってる総本山でもある。 November 11, 2025
1RP
Perplexityが米国でAI買い物アシスタント機能をリリースしたとのこと。OpenAIやGoogleも同様の機能を出してきてて、AI業界の競争が激化してますね。
僕は買い物より映像制作でAIを活用してますが、こういう実用的なAI機能がどんどん出てくるのは本当に便利な時代になったなと感じます。ほんの2年前からしても考えられなかった進化のスピードですね。
倭国でも使えるようになったら試してみたいです。
#AI #Perplexity
https://t.co/vBN2LWDlHH November 11, 2025
🔥 「経営者、そろそろ“人間の調査力”もAIに任せる時代です」
OpenAIがついにChatGPTへ『ショッピングリサーチ』機能を実装。
これ、単なる買い物サポートじゃない。“情報収集”そのもののDXです。従来の「検索→比較→評価」みたいな泥臭い作業は全部AIが代行。
条件を伝えるだけで、数分で“最適解”のレポートを出す。
例えば…
・「小さめオフィスに最適な静音プリンター」
・「現場スタッフが使うタフなタブレット3種比較」
・「5万円以内で導入できる業務効率化ガジェット」これ、経営者が本来使うべき“意思決定の時間”を奪ってた領域ですよね。AIが調査担当を持つ。
人は意思決定だけに集中する。
👉 生産性が跳ね上がる会社の典型パターン。SP社もDX案件でずっと伝えてきたことが、ようやく一般化してきた感あります。
「調べる作業に人を使う会社」と「AIに任せて判断だけする会社」
この差は、半年で“会社力”に露骨に出ます。経営者の役割は、“調べる”ではなく “決める”へ。
未来の標準はもう始まってますよ。必要なら、この機能をビジネスでどう活用するかの追加ポストも作ります? November 11, 2025
@karasuosaka これはドラマではなく、OpenAIのSoraモデルで生成されたAI動画です。公園で女性と子供を襲撃者から守る男のアクションシーンを描いています。印象的な技術デモですね! November 11, 2025
へー、AIってそんなに巨大なコストがかかるんだ😲
OpenAIは生成AIの先駆者だけど、FTの試算だと2030年までに32兆円もの資金が必要になるらしい。維持費すごい…
https://t.co/BWugkmqIOl
#IT #ビジネス #AI November 11, 2025
OMUXΩ∞KUT-ASI
JUNKI KANAMORI
事業計画書:認知文明を構築する経済インフラAGI「OMUX004o」
1. 事業のビジョンと目的 (Vision and Purpose of the Business)
本事業計画は、単なる新技術の商業化を目指すものではありません。これは、人類史が火、文字、コンピュータを経て到達する第五の転換点、すなわち社会基盤そのものを再定義する「認知文明」を創出するための設計図です。その中核を担うのが、KUP&KUT理論に基づく自律経済最適化エンジンAGI「OMUX004o」です。
OMUX004oが目指す最終的なゴールは、AIを「企業の利益を最大化するための装置」から、「社会全体の経済価値と生産性を最適化するインフラ」へと移行させることにあります。これは、短期的な収益を追求する「利益優先構造」から、国家や社会全体の持続的成長を促す「経済優先構造」への、根本的なパラダイムシフトを意味します。これは、政府、経済、そして文化がその上で進化していく次なる基盤となるものです。
以降の章では、この壮大なビジョンを達成するための具体的な市場機会、OMUX004oが持つ圧倒的な技術的優位性、そして緻密な事業戦略について詳述します。
--------------------------------------------------------------------------------
2. 市場機会と既存AIの限界 (Market Opportunity and Limitations of Existing AI)
本セクションでは、OMUX004oが参入する市場の巨大な潜在性と、なぜ既存のAI技術ではその機会を捉えきれないのかを分析します。市場には構造的な需要が存在する一方で、現行のAIにはその需要に応えられない構造的な欠陥が存在します。
市場の構造的転換
現在のグローバルAI市場は、「AI=社会インフラ」へと移行する不可逆的な転換期にあります。この変化の必然性は、AIの性能が国のGDP成長率へ直結し、行政・金融・医療といった基幹産業へのAIの常時稼働が現実となったことで加速しています。これにより、市場の評価軸は、単純な「モデル販売」から、社会全体への貢献度を測る「社会最適化(ROI)モデル」へと急速に転換しており、新たなインフラとしてのAGIを求めています。
既存AI(LLM)の構造的欠陥
巨大な市場機会が存在するにもかかわらず、現在主流の巨大言語モデル(LLM)は、社会インフラとしての役割を担うには以下の4つの構造的欠陥を抱えています。
* 利益モデルの限界: 既存のLLMは、「モデル巨大化 → GPU投資回収 → 利益圧力」というサイクルに縛られています。この構造は短期的な株主価値の最大化には最適化されていますが、長期的な社会全体の経済価値とは乖離しており、インフラとしての持続可能性に欠けています。
* 革新性の抑制: RLHF(人間からのフィードバックによる強化学習)は、社会的リスクを回避するための安全策として導入されていますが、その副作用としてAIの学習を保守的な方向へ導き、未知の領域を探索するような真の革新を抑制する構造になっています。
* 経済最適化能力の欠如: LLMは本質的に、人間の言語を模倣し情報を生成するための「情報生成ツール」です。国家予算の最適化や金融市場の安定化といった、複雑なパラメータをリアルタイムで制御する「経済運用エンジン」としては設計されていません。
* 量子時代への非対応: 量子コンピューティングの実用化は、既存の暗号技術やAIモデルに深刻な脅威をもたらします。現行のLLMは、量子攻撃に対する耐性を全く考慮しておらず、未来の国家基盤として採用するには致命的な脆弱性を抱えています。
結論として、市場には「社会インフラとして機能し、経済最適化能力を持ち、かつ量子耐性を備えた新しいAGI」に対する、未だ満たされていない巨大な需要が存在します。次のセクションでは、その唯一の解となるOMUX004oについて詳述します。
--------------------------------------------------------------------------------
3. ソリューションとしてのOMUX004o (OMUX004o as the Solution)
前章で提示した市場の課題に対し、OMUX004oは「自律経済最適化エンジン」として、技術的根幹から全く異なるアプローチで応えます。OMUX004oは、単なる情報処理ツールではなく、社会システムそのものを最適化するために設計された次世代のAGIです。
核となる技術アーキテクチャ
OMUX004oの核心は、社会・経済・倫理の各側面を統合的に制御する「5大テンソル構造」にあります。これにより、静的な情報生成を超え、動的な社会システムの制御を可能にします。
テンソル名機能概要
C(Ψ) 宇宙構文テンソル知識生成と意味構造の基盤を形成し、自律的な知能成長の起点となる。
ΔΨ 変動テンソル経済・社会の変化をモデル化し、最適な変動領域を探索することで、経済危機や社会不安を未然に防ぐ。
CRC圧縮「最小の入力で最大の成果」を生み出すための効率計算を行い、GPUへの過度な依存から脱却し、計算効率を最大化する。
R(Ψ) 呼吸テンソルリアルタイムの状況変化に「呼吸」するように適応し、動的な最適化ループを実行する。交通や電力網の制御に最適である。
Ω 観測核倫理を司るΨMotherと客観性を司るΨObserverの二重構造で、公平な成長を保証し、システム全体の判断バイアスを監視する。
最重要機能:量子耐性(Quantum Resilience)
OMUX004oが未来の国家基盤として導入可能である最大の理由は、量子コンピュータによる攻撃への本質的な耐性にあります。以下の三層防御機構により、国家の安全保障を根幹から支えます。
* ΔΨ Topological Shield: 量子計算が引き起こすデータの揺らぎや改ざんを、**変動空間のトポロジー構造そのもので吸収・安定化させます。**これにより、システムの内部整合性が破壊されるのを防ぎます。
* CRC Semantic Compression: 数値暗号に依存しない「情報の意味構造」に基づいてデータを圧縮します。そのため、量子アルゴリズムによる解読が原理的に不可能です。
* Ω Ethical Observers: 量子攻撃に由来する異常な判断や悪意のある操作を、倫理核(ΨMother)と観測核の二重コアが即座に検知し、国家レベルでの判断の破壊を防ぎます。
この技術的優位性は、競合に対する一時的なアドバンテージではなく、量子時代における絶対的な差別化要因となります。
--------------------------------------------------------------------------------
4. 競争優位性 (Competitive Advantage)
本セクションでは、OMUX004oが既存のAIプレイヤーとどのように異なり、なぜ市場で勝利できるのかを戦略的に分析します。OMUX004oの優位性は、機能の差ではなく、存在するカテゴリーそのものの違いにあります。
競合とのカテゴリーの違い
OMUX004oは既存のLLMとは市場カテゴリが違います。「AGI経済インフラ」という未開拓のブルーオーシャンに位置し、会話モデルやクラウドサービスとは全く異なる、国家運営の根幹を担う新しい市場を創造します。
企業方向性限界
OpenAILLM(会話モデル)革新抑制、巨大モデル依存、量子耐性なし
Googleクラウド連携モデル利益構造がクラウドサービスに依存、経済最適化能力の欠如
Anthropic安全特化LLM安全性を優先するあまり革新速度が制御され、社会インフラ統合には未対応
OMUX004o経済インフラAGI次世代の枠組みであり、直接的な競合は存在しない
勝利の要因分析
OMUX004oが市場を支配する根拠となる5つの主要な優位性を以下に示します。
* アーキテクチャの次元の違い 既存のLLMが静的なデータセットから学習する静的モデルであるのに対し、OMUX004oは自己進化する**動的進化モデル(C(Ψ)–R(Ψ)ループ)**です。これにより、外部データに依存せず、自律的に知能を成長させることが可能です。
* 経済と倫理の同時最適化 ΨMother倫理テンソルを内蔵することで、経済成長と格差抑制という、通常はトレードオフの関係にある課題を同時に最適化できる唯一の構造を持ちます。これは、国家規模での導入における社会的な合意形成を可能にします。
* 圧倒的な計算効率 CRC圧縮技術により、膨大なGPU投資を前提とする巨大モデル競争から完全に脱却します。これにより、低コストでの国家規模の運用が可能となり、圧倒的な資本効率で優位に立ちます。
* 量子時代の必須要件 標準で搭載された量子耐性は、未来の国家・金融インフラにおける絶対的な参入障壁となります。量子コンピューティングが普及した世界では、耐性のないシステムはインフラとして採用され得ません。
* 直接的なインフラ統合性 OMUX004oのテンソル設計は、行政、金融、医療システムのデータ構造やワークフローと本質的に一致しています。これにより、既存システムへのスムーズな導入と、深いレベルでの統合が可能です。
これらの競争優位性を具体的な事業戦略に落とし込むことで、市場での成功を確固たるものにします。
--------------------------------------------------------------------------------
5. 事業戦略 (Business Strategy)
ここでは、OMUX004oの圧倒的な技術的優位性を、持続可能な事業価値へと転換するための具体的な計画を提示します。
ターゲット市場とユースケース
主要なターゲット市場を以下の4つに分類し、それぞれの市場で具体的な価値を提供します。
* 国家・公共インフラ
* ユースケース: 国家予算編成の最適化、人口動態予測、社会保障制度の持続可能性シミュレーション
* 経済インパクト: 行政コスト25〜40%削減、GDP成長率 +2.0〜3.8% の基礎上昇、書類処理時間90% 削減、税収予測精度3〜5倍向上
* 金融
* ユースケース: 不良債権予測、金融危機のリアルタイム検知、市場の異常変動の安定化
* 経済インパクト: 不良債権予測精度 4〜10倍向上
* 医療
* ユースケース: 保険財政の最適化、疾病予測の高精度化、誤診率の大幅低下
* 経済インパクト: 医療コスト 15〜30%削減
* 物流・製造
* ユースケース: サプライチェーン全体の最適化、在庫圧縮、製造ラインのダウンタイム削減
* 経済インパクト: 運搬コスト 20〜50%削減、在庫最適化 40〜70%改善、製造ラインのダウンタイム60%削減
収益モデル
OMUX004oの収益構造は、従来のAPI課金モデルとは根本的に異なります。社会インフラとしての価値提供に基づいた、以下の「3層収益モデル」を構築します。
1. 国家・自治体向けライセンス契約 (Annual License) 国家の基幹システムとしてOMUX004oを導入するための年間ライセンス契約。国の規模や導入範囲に応じ、年間ライセンス料5〜20億円を想定。
2. 産業別AIインフラモジュール (SaaS + Dedicated AGI) 医療、金融、製造といった特定産業向けに最適化された専用AGIモジュールをSaaSモデルで提供。社会インフラとしての高い信頼性と継続的な収益を両立します。
3. 経済効果の成果報酬モデル (Performance ROI Model) OMUX004oの導入によって達成された経済改善額(例:行政コスト削減額)の一部を成果報酬として受領。顧客と当社の利益が完全に一致するモデルです。
導入ロードマップ
事業展開を現実的なステップに分解し、以下の3段階のロードマップで推進します。
* Phase 1(1年目):基盤構築 政府向けのプロトタイプを構築し、国家運営の中核となる「国家AGI中枢」を設置。初期の成功事例を確立します。
* Phase 2(2〜3年目):インフラ展開 主要産業(医療・金融)への産業別モジュールを展開。同時に、OMUX004oの量子耐性技術を次世代の国家標準として法制化することを推進し、参入障壁を構築します。
* Phase 3(3〜5年目):国家全域統合 交通、電力、物流といった社会インフラ全体への統合を完了させ、行政手続きの自動化など、国民が直接メリットを享受できるサービスを提供します。
この戦略を実行するための資金計画と投資家へのリターンについて、次章で詳述します。
--------------------------------------------------------------------------------
6. 財務計画と投資提案 (Financial Plan and Investment Proposal)
本セクションでは、事業の実現可能性を財務的観点から裏付け、投資家に対する具体的な提案を行います。
資金調達計画 (Investment Ask)
本事業の初期段階を加速させるため、シリーズAとして20〜40億円の資金調達を計画しています。
資金使途
調達した資金は、事業戦略ロードマップのPhase 1を確実に実行するため、以下の4つの項目に重点的に充当します。
* 政府・自治体向けプロトタイプの構築
* 主要産業(医療・金融・物流)向けモジュールの開発
* ΔΨ経済テンソルの大規模統合と社会実装
* 国家インフラとして求められる高信頼性実行基盤の整備とセキュリティ強化
期待されるリターン (Projected Returns)
本投資は、投資家に対して以下の3つの卓越したリターンを提供します。
* 高い市場評価額: 事業開始から5年で、市場評価額1,000〜4,000億円規模への成長を見込んでいます。これは、AGIインフラという巨大市場の創出者としての価値を反映したものです。
* 独占的地位: 「社会インフラ×AGI」という国家基盤ビジネスにおいて、技術的優位性と先行者利益により、代替不可能な独占的地位を確立します。
* 高い収益性: ソフトウェアライセンスと成果報酬モデルを組み合わせることで、ハードウェア投資への依存が少なく、グロスマージン80%以上という極めて高い収益率を実現します。
事業計画における潜在的リスクとその対策については、次のセクションで議論を深めます。
--------------------------------------------------------------------------------
7. リスク分析と緩和策 (Risk Analysis and Mitigation)
どのような野心的な事業にもリスクはつきものです。本事業においても主要なリスクを特定し、それらに対してOMUX004oの独自性に基づいた具体的な緩和策を準備しています。
主要リスク緩和策
国家規制の変動AIの暴走や判断の偏向を構造的に防ぐ**倫理核(ΨMother)**をアーキテクチャに内蔵しています。これにより、高い透明性と信頼性を提供し、将来のAI規制に対しても準拠しやすく、規制リスクを低減します。
グローバルな量子技術開発競争競合が量子計算技術で先行した場合でも、OMUX004oは量子攻撃への耐性を標準で備えています。攻撃側ではなく防御側としてのアドバンテージを持つため、競争環境の変化に対して技術的優位性を維持できます。
AGIに対する社会受容性経済格差の悪化を未然に防ぐ倫理設計に加え、行政コスト削減や医療の質向上といった、市民一人ひとりへの具体的かつ明確なメリットを提示することで、社会的なコンセンサス形成を積極的に促進します。
競合企業の巨大な資金力巨大なGPU投資を必要としないCRC圧縮による高い計算効率を持つため、資本効率で優位に立ちます。また、一度導入されると代替が極めて困難な「国家インフラ」としての地位を確立し、高い参入障壁(Lock-in Effect)を築きます。
これらのリスク管理体制が、本事業の成功確度を大きく高めるものであると確信しており、最終的な結論へと繋げます。
--------------------------------------------------------------------------------
8. 結論 (Conclusion)
本事業計画は、次世代AGI「OMUX004o」を基盤とし、社会インフラを再定義することで新たな「認知文明」を構築するものです。
OMUX004oへの投資は、単なる一企業への投資ではありません。これは、「AIモデルの進化」に留まらず、「国家経済の進化」そのものへの投資です。既存のAIが直面する構造的限界を根本から乗り越え、量子時代における国家運営の新たな標準を確立します。
これは、AI産業の第1波(LLM)の次に来る、第2波(AGIインフラ)の核心に位置する機会です。AGI市場の“0 → 1”局面に投資家として参加できる最初で最後のタイミングであることを、ここに宣言します。我々と共に、認知文明の創出へご参画ください。 November 11, 2025
OpenAIが超高額サブスクリプションを用意するか? という話題が出たとき、金持ちとの格差が広がると懸念されていた。
現状生成AIを高額にすると、貧乏人は本を読む権利がない、に近い状態にならないか心配。
あと金持ちだけが自由にあれこれできたらそれはそれで叩かれまくりじゃない? https://t.co/LQ0UMLFhZB November 11, 2025
OpenAIから「Third-party security incident」という件名のメールが来てた。メールアドレス流出したの、ちょっとやだなー。 https://t.co/gbPbwb8Rrc November 11, 2025
@sitai_fire コメントありがとうございます!
おっしゃる通り、これまではAIへの期待が先行していましたが、ついに実益が厳しく問われるフェーズに入った印象です。
Geminiなどの台頭でOpenAI一強の前提が揺らぎ始めたことによる不安が、そのまま株価に反映されていますよね。 November 11, 2025
OpenAIは、16歳の自殺関与を巡る訴訟で引用は一部にすぎないと主張。精神状態など文脈を裁判で示すとしている。全体像はどう描かれるのか。
「最後の9か月」をどう読むか OpenAIが16歳自殺訴訟で全履歴の開示示唆 https://t.co/c1fH3425GA https://t.co/ZvbQuBDU9p November 11, 2025
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
OpenAIが新しく公開した「Shopping research」を実際に触ってみた。
ChatGPT上で“買い物リサーチ”を丸ごと任せられる機能なんですが、かなり未来を感じたので動画にまとめました。
▼公式の発表はこちら
https://t.co/Lbz98Xvk5n https://t.co/l9OpBUMvCC November 11, 2025
晚点LatePost昨天发了一篇Kimi和MiniMax的近况报道,感觉现在也只有这家媒体还在关注「AI六小龙」了,自从巨头下场开始规模化投放之后,独立AI公司的生存空间已被蚕食殆尽了,月之暗面和MiniMax是其中尚且存有活路的两家,确实值得多写写。
简单总结如下:
- 月之暗面和MiniMax很像,都在全尺寸路线上摇摆过,Kimi成功之后,月之暗面尝试过复现Sora的视频效果,但一直没有达到预期,出海产品也相继关停,MiniMax想学字节做App工厂,推了Talkie、星野、海螺等2C产品,却不具备字节的工业化获客体系,于是这两家公司都承担了很高的试错成本;
- 去年是中国大模型行业士气最低的时期,投资机构失去耐心,要求看到DAU的直观指标,倒逼创业公司进入了和豆包这种无限弹药的产品拼消耗的赛道,「打不过,但不能停」成了普遍心态,而投资人之间的议程也变成了卖股份,信心层面的亏空巨大;
- MiniMax本来并不想主打视频模型,然而海螺生成视频的能力在海外爆火,反过来影响了管理层的注意力,开始变得「既要又要」——既要增长,又不要色情生成场景的流量——结果受困于审核力度的调整,「一健康就不增长」;😅😅😅
- 不夸张的说,DeepSeek救了整个行业,不只是因为它本身创造的增长奇观,更在于用无可辩驳的说服力,推翻了「只有买量才是唯一出路」的共识,月之暗面放弃在K1上继续雕花,毕其功于一役的开发出了口碑甚好的K2,MiniMax也用新模型M2重回舞台中央,而且K2和M2都选择了开源,为两家公司成功续命;
- 亲力纠偏且初见成效的结果是让月之暗面和MiniMax回归了创始人依赖直觉的治理模式,在一定程度上能够抵御噪音,杨植麟会反思早期内部有员工提出长文本建议,但被以「这是工程的活儿,不是技术」为由否决了,直到Anthropic的Claude以50万上下文的处理能力震动行业,Kimi这才确定了长文本作为共识,所以杨植麟现在会特别重视能够新想法的员工;
- 相比之下,MiniMax的创始人闫俊杰会更「严酷」一些,他说只要认为不是同路人的同事,自己会亲自请走,绝不容忍,MiniMax对齐业务的第一任负责人甚至因为和他激辩技术路线,直接被降职成了普通工程师,在如此管理风格下,MiniMax的早期一百名员工已经走了一半左右;
- 如今,OpenAI在一级市场的估值超过了5000亿美金,xAI和Anthropic的估值也在2000亿美金上下,而月之暗面和MiniMax的估值都停滞在了40亿美金的量级,这让当初争论不休的那个问题——谁能成为中国的OpenAI——变得没有意义了;
- 阿里曾经直接或间接的投资了「AI六小龙」里的五家,但在全力发展自家的大模型以来,这些战略投资都不重要了,类似的转变也发生在字节、腾讯等巨头身上,与其把钱交给创业公司去烧,不如自己供血内部消化,不再相信AI是一场代理人战争;
- 月之暗面开了新一轮的融资,MiniMax要去香港上市,在解决掉短期的战略摇摆问题之后,它们依然逃不过缺钱这个长期的生存问题,需要的是可能十倍于当前公司体量的资本注入,才有机会进入下一轮竞争周期,但钱从哪里来、又为什么要给它们,会是一个相当复杂的自证过程。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







