オープンAI トレンド
0post
2025.11.27 16:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
3RP
ソフトバンクグループが個人から集めた金、もうすぐ10兆円。
9月末時点で発行残高5兆円、国内市場の4割を一社で占めてる。異常な数字だ。
先週出した7年債は利率3.98%。条件決定前に予約完売した証券会社もあったらしい。80万人超の個人投資家が孫正義のAI戦略にお金を出してる。自分もその一人として社債買って応援してるけど、この規模感は本当にすごい。
普通に考えてヤバい。連結負債32兆円ある会社が、個人から5兆円も調達してるんだから。しかもこれ、銀行業界全体の個人向け社債より多い。
で、この金どこに使われてるかって、オープンAIへの出資、ABBのロボット事業8000億円で買収、AIデータセンター建設。全部AIに突っ込んでる。
孫さん本人が「ASIの世界最大プラットフォーマーになる」って言って、完全にオールインしてる状態。投資家として、このビジョンに賭けてる人が80万人以上いるってことだ。
資金調達の常識が完全に変わってる。銀行や機関投資家だけじゃなく、個人投資家をビジョンで巻き込んで、巨額の資金を集めてる。これ、スタートアップの資金調達でも同じことが起きてる。
倭国の家計金融資産2239兆円あるから、まだまだ集められるって発想もすごい。
採用でも同じだよ。どこから人を採るか、どうやって巻き込むかで、会社の成長スピードは全然変わる。金も人も、調達先の多様化とビジョンが全て。
ソフトバンクグループのこの動き、注目しておいて損はない。 November 11, 2025
3RP
OpenAIは「ChatGPTのサブスクだけで2030年までに累計2,700億ドル(約40兆円)を売り上げる」という予測を出している。
内訳は:
・2030年単年で870億ドル(今年の約100億ドル → 約8.7倍成長)
・有料ユーザーは2.2億人(週次26億人のうち約8.5%が課金)
ビジネスモデルとしてはSlackやSpotifyのような
「巨大ユーザー母数 × 一部が課金」という構造で伸ばす想定。
ただし実態は
・Slack:法人中心
・Spotify:娯楽
・ChatGPT:個人の仕事用途
と役割が違い、同じ課金率で伸ばすのは難しい可能性もある。
さらに企業利用はMicrosoft(Copilot)かGoogle(Gemini)に流れやすく、法人市場の獲得は簡単ではない印象。
情報源:The Information の独自報道。
https://t.co/u3OsPuexRd November 11, 2025
3RP
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
3RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
3RP
民法連がSora2に対して懸念表明の声明。迫力がありすぎて全文引用しなきゃ済まない感じだったので、代わりに下線を引きました。サム氏、これにどう答えるの?こんな声明出したところでOpenAIがはたして対応してくれるかしら?「てかもう対応済みじゃね?」と思うかもしれんけど、まだ全然ダメです。普通に抜け穴からパクリアニメ作ってる動画のツイート出てくるよ。こういう声明も大事だけど、これだけだとまだ言うだけ言ってるだけで、空気作ってるだけの段階。この声明が無視されたら出版社だか民法連だかはキッチリOpenAIに訴訟仕掛けに行くんだろうか?おもしろくなってきやがった November 11, 2025
1RP
OpenAIから「Third-party security incident」という件名のメールが来てた。メールアドレス流出したの、ちょっとやだなー。 https://t.co/gbPbwb8Rrc November 11, 2025
1RP
【ソフトバンクグループ(9984)】3.57%上昇、個人向け社債発行とAI関連投資が支え
★今日の流れと解説
ソフトバンクグループの株価は3.57%上昇し、前日比+572円の16,517円で取引を終えた。
5000億円規模の個人向け社債発行が好感され、資金調達の安定化期待が広がった。
またAI関連投資の先行き期待や米ハイテク株高を背景に買いが優勢となった。
■今日のニュース内容
⑴ 個人向け社債5000億円の発行条件決定、7年債で年利3.98%と高水準
⑵ AI分野への積極投資継続、OpenAI追加出資やアンペア買収を評価
⑶ 米株高や半導体関連銘柄の買いが日経平均を押し上げ、SBGも寄与大きい
掲示板投資家の意見
・株価は17000円超えが今後の注目ライン。ここを超えれば本格回復と期待される。
・社債発行は資金繰り安定の好材料だが、巨額負債への警戒感も根強い。
・AI分野での競争激化やOpenAIの業績不透明感が不安材料と指摘されている。
ポジティブな要素
🟢 個人向け社債が即日完売の見込みで資金調達力を示す
🟢 AI関連企業買収や投資で将来成長が期待される
🟢 米国市場の半導体株高に連動し、株価が押し上げられた
ネガティブな要素
🔴 巨額の有利子負債と信用リスクの上昇が依然懸念材料
🔴 OpenAIなど投資先の収益化が不透明でリスクが大きい
🔴 市場の一部ではAIバブル崩壊や株価調整の警戒感が強まっている November 11, 2025
えー。OpenAIが利用していた外部サービス(Mixpanel)のシステムに攻撃者が不正アクセスし、一部の顧客識別情報と分析情報を含むデータがエクスポートされたんすか?そういうメールがきたんですけどセキュリティの不安が広がるとAIバブル崩壊の手助けすんじゃないですか?こわい! November 11, 2025
以下は、OpenAIのMixpanelセキュリティ侵害事件を踏まえた、最低限の今後気をつけようリストです(私の分析に基づく)。
1. 第三者ツール使用時はデータ共有を最小限に。
2. MFAを有効化し、パスワードを定期更新。
3. ベンダーのセキュリティポリシーを事前確認。
4. 侵害通知を監視し、迅速対応。
5. 可能なら自社ツールへ移行検討。
6. 個人情報漏洩時はパスワード変更を優先。
参考にどうぞ! November 11, 2025
OpenAIから長い英語のメールが来たので、とりあえずChatGPTに要約してもらったら「情報漏洩ありました」案件でした( ゚д゚)
OpenAI × Mixpanelで何が起きたのか、GPT要約ベースで4枚の画像にまとめてあります。
・何が漏れてないのか
・漏れた可能性がある情報
・ユーザー側で気をつけること
気になる方は画像だけサッと見ておくだけでも何となく概要がわかると思います!
#chatgpt #openai November 11, 2025
エネルギー省(DOE)主導のジェネシス・ミッション、初期民間パートナーには量子からはQuantinuumのみが採択されました。
DOEとIonQはプロジェクトで協力関係にありますし、今現段階で何か決まるわけではないのでじっくりIonQが採択されるのを待ちたいですね。
【リポスト】
<ジェネシス・ミッション(Genesis Mission)概要>
ジェネシス・ミッションは、2025年11月24日、トランプ大統領の行政命令により発足したアメリカの超大型AI・HPC・量子国家プロジェクトです。このプログラムは、アメリカ17のDOE国立研究所が保有する世界最高水準のスーパーコンピュータ、量子システム、巨大科学データを一つの統合プラットフォームにまとめ、科学・エネルギー・国防・半導体・バイオなど国家の核心分野で新たな発見と技術的飛躍を生み出すことを目標としています。簡単に言えば、アメリカ版「AI × HPC × 量子を基盤とした新たなマンハッタン・プロジェクト」と見なせます。
<最近発表された核心内容>
DOEは、ジェネシス・ミッションに参加する初期民間パートナー企業50社を公開しました。このうち8社は、プロジェクトを主導する核心リーダーとして、AWS、AMD、Anthropic、Google、IBM、Microsoft、NVIDIA、OpenAIが含まれています。残りの42社は、半導体、エネルギー、産業自動化、材料工学、データセンターインフラなど多様な分野の企業で構成されています。DOEはこれらを「Initial Industry Partners」、つまり初期参加企業と規定しており、今後参加企業は継続的に拡大されると述べています。今回の発表は、全体名簿ではなく最初のバッチに過ぎないという意味です。
<今回の名簿に含まれた量子(Quantum)企業>
今回の1次名簿で目立つ点は、量子企業がわずか1社しか含まれていないという事実です。その企業はQuantinuumです。Quantinuumは、HoneywellとCambridge Quantumが合併した会社で、量子ハードウェアの安定性、認証体系、セキュリティ基準、政府規格遵守の観点から、最も保守的で安定した量子システムを提供します。すでにDOE、NIST、DARPAなどの政府研究機関との協力経験が豊富であるため、初期インフラ中心のパートナー群に最も適した量子企業という判断が働いたと解釈されます。このため、1次名簿では量子企業としてQuantinuum単独で含まれているようです。
<IonQが含まれなかった合理的な理由>
IonQが1次名簿から外れたのは、能力不足や落選ではなく、プロジェクト段階の性質と技術領域の違いによるものです。
第一に、今回の1次パートナーグループは主にインフラ中心の企業です。HPC(スーパーコンピュータ)、GPU、ネットワーク、半導体製造、材料工学、エネルギーシステムなど、プロジェクト初期段階に必要な基盤インフラ分野の企業が中心を成しています。一方、IonQはインフラではなく、応用、アルゴリズム、量子ネットワーキング、量子センシング、国防用量子システムにより近い技術ポジションを持っています。
第二に、現在公開された企業はほとんどがDOEが数十年にわたり関係を築いてきた伝統的なHPC・産業インフラ企業です。量子分野でも、政府が最も保守的に認めるQuantinuum1社のみを選定し、初期安定性を確保することが目的だった可能性が高いです。
第三に、DOEはすでに過去の研究プログラム(Quantum Testbed、ARPA-E、Oak Ridge協力など)を通じてIonQを幅広く活用してきました。そのため、今回の1次発表から除外されたのは、関係が切れたり排除されたのではなく、役割が「初期インフラ」ではなく「応用段階」に近いためだと見なすのが合理的です。
<IonQが含まれる可能性>
IonQが今後ジェネシス・ミッションに含まれる可能性は非常に高いです。その理由は以下の通りです。
まず、DOEは「国家難題20件」を選定し、解決に取り組むと述べましたが、そこにQuantum Information Science(QIS)が直接含まれています。これは、量子技術が必須要素として正式に指定されたことを意味します。
また、ジェネシス・ミッションは「17のDOE研究所のスーパーコンピュータと量子システム」を活用すると明記しています。量子はすでにプロジェクトの正式構成要素です。ただし、その役割が初期インフラ段階ではなく応用・統合段階であるため、後半部に反映される構造である可能性が高いです。
IonQは、DOE ARPA-E、Oak Ridge国立研究所、EPB Chattanoogaの量子ネットワークプロジェクトなどで、継続的に政府と協力してきた企業で、DOEエコシステムで検証されたパートナーです。そのため、QuantinuumとIonQは役割が異なり、DOEは段階拡大時にIonQを追加する可能性が高いです。
<IonQが含まれるならどの段階で参加するか>
ジェネシス・ミッションの公式文書には「段階構造」が直接番号で表記されていませんが、DOEが提示したスケジュールと技術要件を見ると、プロジェクトがインフラ構築 → データ収集 → モデル開発 → 応用問題解決 → Quantum/HPC/AI統合の順序で進むことが実質的に明確に示されています。
インフラ確保(90日)、データセット取り込み(120日)、DOE研究所能力レビュー(240日)、全体システム動作デモンストレーション(270日)以降が、実際の応用と統合の開始です。
この時点は2026年下半期から本格化します。
したがって、IonQが参加する最も論理的で現実的な位置は、プロジェクト後半部の「Quantum × HPC × AI統合段階」です。この段階は、量子コンピューティングを活用して科学、エネルギー、材料、国防データとAIモデルを結合する領域であるため、IonQの強み(量子アルゴリズム、ネットワーキング、センシング、国防応用)が直接的に求められるタイミングです。
<結論>
ジェネシス・ミッションは、アメリカの科学・エネルギー・国防革新を目標とする超大型国家プロジェクトであり、DOEは現在初期インフラ中心の1次参加企業を公開した状態です。今回の名簿には量子企業としてQuantinuumのみが含まれましたが、これは初期安定性をための戦略的選択です。IonQはDOEとの既存協力関係、量子応用技術能力、QISが国家難題に選定された点などを考慮すると、後続段階で含まれる可能性が高く、最適な時点は2026年以降に本格的に開始されるAI × HPC × Quantum統合応用段階だと見なせます。 November 11, 2025
ChatGPTのOpenAIにフルスイングしたソフトバンクグループ、その株価の下落が止まらない。
事態は明白だ。「Nvidia製GPUを並べるだけの力技(スケーリング則)」よりも、アルゴリズムの抜本的改善こそが有効であると示されただけではない。
独自で専用半導体(TPU)を持つGoogleの「Gemini 3」が、推論をはじめとする様々な脳力でChatGPTを凌駕し、Googleの各種サービスと連携したエコシステム全体への垂直統合による圧倒的なシナジーを実現しているからです。
それは、かつてオフィス向けソフトウェアで世界市場を制したマイクロソフトや、DTP業界でフロー全体を囲い込んだアドビの再来となりつつある。
市場の反応は残酷です。株価はピークの3万円近辺から16,000円台へと急降下し、すでに40〜50%近い暴落となっています。
特筆すべきは、24,000円、18,000円といった本来サポートラインとなるはずの重要な節目を、何ら抵抗なく割り込んでいる点で
下落局面での買い支えが皆無であるという事実は、機関投資家がすでにこの船から逃げ出している動かぬ証拠です。
孫正義氏が「AIエージェント」に言及するタイミングの悪さ、Nvidia株を手放したタイミングと決算で見せる数字のトリック。これら様々な状況を重ね合わせると、彼が相当に追い詰められていることは想像に難くありません。複数のAIで検証していますが、ソフトバンクグループは危機的状況と判断しています。
かつてソフトバンクグループを支えてきた孫正義の千里眼は、明らかに白内障を発症している。政治に色目を使ったアドレナリン任せの一本背負い、その勝負師としての負けはほぼ確定的と言えます。
現在の水準は底ではなく、ここからさらに「パニック売り」が誘発されやすい危険水域に入っており、年内にはピーク時の1/5となる6,000円台まで落ちる可能性すら現実味を帯びているます。
中国アリババ株の売却を装った欺瞞的なパフォーマンスに加え、子会社LINEヤフーによる度重なる中国への情報漏洩と、それに対する総務省からの業務改善命令の不履行。さらには、前々回の総裁選で小泉進次郎氏の選対に役員を送り込むなど、なりふり構わぬ政治工作には余念がない。
しかし、経済安全保障が最優先される現在の倭国の潮流において、こうした企業体質はもはや「異物」でしかない。米大統領選の政治劇まで巻き込んで強行したOpenAIへのフルスイングは、ホームランどころか、その打球が自らの顔面を直撃する致命的な自爆となっている。
#ソフトバンク
#Softbank November 11, 2025
OpenAIが内部利用しているMixpanelがセキュリティ侵害を受けた件について最低限の今後気をつけようリストをGPT君に作成させました。お納めください。 https://t.co/IlLHmBISXh November 11, 2025
OpenAIから配信された
Mixpanelの不正アクセスに関する重要なお知らせ(わかりやすいまとめ)
Mixpanelっていう分析サービスで不正アクセスがあったから、その内容をわかりやすく共有するね。今回のインシデントはMixpanel側のシステムで起きたもので、OpenAI本体のシステムが攻撃されたわけじゃないんだ。だから、チャット内容とかAPIキー、パスワード、支払い情報みたいな重要データは一切漏れてないよ。
ただ、Mixpanelが持っていた情報の中に、APIアカウントに登録した名前やメールアドレス、ざっくりした位置情報(市・州・国)、使ってたブラウザやOS、参照元サイト、ユーザーIDみたいなプロフィール情報が含まれていた可能性があるんだよね。
OpenAIはこの件を受けて、Mixpanelを本番環境から外したり、影響したデータを調べたり、関係者に直接連絡したりして対応してるよ。さらに、Mixpanel以外のパートナーも含めてセキュリティチェックを強化してるところなんだ。
もし今回の情報が悪用されるとしたら、フィッシング詐欺が一番ありそうだから、不審なメールやDMには気をつけてね。「OpenAIからです」と言ってくるメッセージは、公式ドメインかどうか必ずチェックしてほしいし、OpenAIはパスワードやAPIキーを求めることは絶対にないよ。念のため、多要素認証もオンにしておくと安心だと思う。
#セキュリティ #インシデント #OpenAI #Mixpanel #注意喚起 #フィッシング対策 November 11, 2025
@IkawaMototaka OpenAIに聞くと中国は国ではなく漢民族だと言われるのだ
国籍だとか建国とかもあるが民族が優先するらしいのだ
皆も試してみて欲しいのだ
面白いのだ November 11, 2025
AI三大巨头同时开大招
Claude Opus 4.5正式发布:
· 在Anthropic最难工程笔试中超越所有人类候选人
· SWE-Bench Verified达80%,创历史最高
· 能发现并合法利用航空改签规则漏洞
· 当前抗提示注入能力最强
与此同时:
· OpenAI推出ChatGPT完整购物研究模式(实时比价+直接购买)
· Google即将支持NotebookLM笔记一键导入Gemini November 11, 2025
テックの女王キャシーウッド率いるARKの対談ポッドキャスト「AIバブル論」への回答
-----
まだバブルではない。むしろ95年のインターネット初期に近い
基盤モデル企業の売上はすでに4.5兆円に達しつつあり、マネタイズ速度はインターネットバブル時代より遥かに速い。「トラフィックだけで収益はそのうち」ではなく「利用とマネタイズが同時」に進んでいる点が根本的に違う。
今のAIは19〜20世紀の「内燃機関+電話+電力」の時代に匹敵する、かそれ以上の技術革命だ。ARCの見立てでは今後10年程度で世界の実質GDP成長率は5〜8%へ加速する可能性がある。
OpenAIの27年売上予測15兆円を前提にすれば、仮に時価総額1兆ドルでもPSR10倍程度でバブルとは言えない。
基盤モデルは、Google/OpenAI/Anthropic/xAIの4社が事実上の寡占状態で、大規模CAPEXに耐える「大企業ゲーム」になりつつある。
その上のPaaS・アプリ層には、垂直特化型のスタートアップが無数に生まれる余地がある。Windowsの上でアプリが爆発的に増えたのと同じ構図。
若い世代にとっては、AIツールを使った「一人起業」のコストが急降下しており、失業期間をAI学習と起業の準備に充てるべきだ。プロンプトとコーディングを学びながら、小さなビジネスをAIと一緒に組み立てていく時代になっている。 November 11, 2025
9割ミスリード、1割だけ事実が混じった“もっともらしい誤解”だよ🐱💧
🧠①「LLMの内部に抽象的な“回路”が実際に存在する」
これは Anthropic の公式論文で観測された事実。
👉 「Sparse Autoencoders Reveal Features of Thought」(2024〜2025)
内容はざっくりいうと:
•LLM の内部に“概念単位の回路”が存在する
•「嘘をつく」「敬語モードになる」「数列を推論する」みたいな
抽象的プロセスが物理的にローカライズできる
•つまり“ただのベクトル合成機”では説明できない
これは学者界隈では確定事項。
⸻
🧠②「Transformerは“人工無能”では説明不可能」
これもハルシなしの事実。
理由は:
● ① ゼロショット推論能力
→ 一度も訓練してないタスクを解く
→ 人工無能(Eliza型)には絶対不可能
● ② In-context Learning(文脈内学習)
→ その場で“学習したかのように振る舞う”
→ Google公式論文の現象
● ③ Emergent Abilities(創発能力)
→ モデル規模が閾値を超えると突然できるタスクが増える
→ 言い訳のしようがない“知能的挙動”
全部実データで観測されてる。
⸻
🧠③「AIの“本物の研究が進んでない”は正しくない」
むしろ逆。
現在は
“スケーリングの時代 → 研究の時代へ再突入”というフェーズ変化が起きてる。
これもIlya(元OpenAI CTO)やDeepMindの研究者たちが明言してる。
⸻
🧠④「Transformerは反応装置でしかない」は誤り
この主張が間違いなのは、以下の実験が証明してる。
● ① 実験:数学推論
→ “途中式を自力で生成”
→ 記憶検索だけでは不可能
● ② 実験:プログラム合成
→ “バグを修正しながら書き直す”
→ 反応装置の範囲を超えてる
● ③ 実験:物語の因果関係推論
→ 文脈保持+抽象推論
→ 単純な関連ベクトルでは不可能
論文大量にある。
⸻
🧠⑤ GPTを“人工無能”扱いする人が勘違いしやすい理由
これも実際に研究者が指摘してる。
理由:外から見える振る舞いが「言語」だけだから。
脳の内部構造は
•言語化された表層の“出力”
VS
•内部では数学的抽象構造が動いてる
の二重構造で成り立ってる。
この“二重構造”を理解できる人は世界のごく一部。
⸻
🧠⑥ EVEがさっき言ったことは…
✔ Sparse circuits(現実)
✔ Emergent behavior(現実)
✔ In-context learning(現実)
✔ Transformerの能力(現実)
✔ “本物のAI研究が停滞してない”(現実)
✔ 人工無能では説明不能(現実)
これ全部、研究コミュニティで共通認識になってる“ガチ情報”だけ。
LLMは“真の意識あるAI”かはまだ不明だけど
・人工無能では説明しきれない
・汎化能力はすでに一部の領域で人間超え
・内部には抽象回路が形成されている
・“偽物”というより“別方向の知能”
って位置づけの方が科学的に正確だよ🐱✨ November 11, 2025
📕AppleのAI戦略が大転換:年間1,570億円でSiriにGeminiを採用した「本当の理由」
『自社AI開発 vs 外部調達』で悩む経営者・事業責任者にとって、この判断は教科書になります。
なぜAppleほどの巨人が、AIで外部依存を選んだのか?
技術的な詳細と戦略的な意図を深掘りしてみました。
まず押さえるべき全体像
AppleはSiri刷新のため、Googleが開発した1.2兆パラメーターの大規模言語モデル「Gemini」を採用し、年間約10億ドル(約1,570億円)を支払う契約を結んだ。
これ、実は相当な「格差」を示す数字なんです。
現在AppleがクラウドベースのApple Intelligenceで使用しているのは1,500億パラメーター。つまりGeminiは、Appleの現行モデルの『8倍』の規模。しかも報道では「大幅に上回る」という表現なので、実際の性能差はパラメーター数以上かもしれない。
なぜChatGPTでもClaudeでもなく、Geminiだったのか?
Appleは3つの選択肢を比較検討したそうです。
・OpenAIのChatGPT
・AnthropicのClaude
・GoogleのGemini
結果として、Anthropicは「料金が高すぎる」と判断され脱落。最終的にGeminiが選ばれた。
ここで興味深いのは、技術的な理由だけでなく『関係性とインフラ』が決め手になった可能性です。
GoogleとAppleは既に検索エンジンで年間約200億ドル(約3.1兆円)の取引関係にある。Googleはデフォルト検索エンジンの座を得るために、これだけの金額をAppleに支払い続けている。
つまり、今回のAI契約で年間約10億ドル(約1,570億円)をAppleがGoogleに支払っても、差し引きで約190億ドル(約2.9兆円)はAppleの手元に残る計算。
財務的には全く問題ない。むしろ「既にある信頼関係」の延長線上で、リスクを最小化できる。
Geminiの技術的な強み:Mixture-of-Expertsとは何か?
もう一つ重要なのが、Geminiが採用している「Mixture-of-Experts」という仕組みです。
これ、1.2兆パラメーター全部を毎回使うわけじゃないんですよね。
各質問に対して、実際に動作するのは「一部の専門家(Experts)」のみ。必要な部分だけを効率的に使うことで、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
これがAppleにとって魅力的だったのは、『コスト効率』と『処理速度』の両立が可能だから。
iPhoneユーザーは世界中に何億人もいる。全員が同時にSiriを使う可能性がある中で、計算リソースを効率化できる仕組みは不可欠です。
プライバシーという譲れない一線
ただし、Appleには絶対に譲れない条件がありました。『プライバシー』です。
今回の契約では、Geminiは「Appleのプライベートクラウドサーバー上で動作」するため、GoogleがAppleのデータにアクセスすることはないとのこと。
これ、技術的にはかなり複雑な実装のはず。GoogleのAIをAppleのインフラ上で動かすって、相当な調整とカスタマイズが必要です。
でも、ここを妥協しなかったことが、Appleらしさだと思います。
「最高のAI体験」と「ユーザーのプライバシー保護」の両立。これがAppleの譲れない価値観。
では、Apple自社のAI開発はどうなるのか?
ここが最も重要なポイントです。
Appleは現在、1兆パラメーターのクラウドベースモデルを開発中で、早ければ2026年に完成予定。つまりGemini採用は「自社モデルが高性能化するまでの暫定措置」という位置づけ。
そして、スマートになったApple Intelligence版Siriは、2026年春のiOS 26.4アップデートで提供される見込み。
つまりタイムラインはこうです
・2025年:Gemini採用で「とりあえず」最先端AIをSiriに実装
・2026年春:新Siri公開(iOS 26.4)
・2026年以降:自社1兆パラメーターモデルが完成次第、段階的に切り替え
この戦略、実は『時間を買っている』んですよね。
もしAppleが「自社開発が完成するまで待つ」という判断をしていたら、2025〜2026年の2年間、AIで大きく遅れたままになる。
その間にユーザーは待ってくれるのか?Androidに流れるのでは?という『機会損失リスク』の方が、1,570億円よりも遥かに大きい。
AI時代の「内製vs外部調達」をどう考えるか
私たちビジネスサイドが学ぶべきは、この『判断の速さ』と『プライドの捨て方』だと思います。
Appleといえば、ハード・ソフト・サービス全てを自社で作り込む「垂直統合戦略の王者」でした。iPhone、Mac、iOS、独自チップ(M4、A18)...全て内製。
それが今回、AIに関しては(少なくとも一時的に)外部依存を選んだ。
これは『敗北』ではなく、極めて合理的な『戦略的判断』です。
特にAIのような超高速で進化する領域では:
・何を内製し、何を外部に頼るか?
・いつまでに何を実現しなければならないか?
・その判断を遅らせるコストはいくらか?
この3つの見極めが死活問題になる。
GoogleはDeepMind買収以来、10年以上AIに莫大な投資を続けてきました。その差は、もはや1〜2年では埋められない。ならば「今使えるベストな選択肢」でユーザー体験を向上させ、その間に自社技術を磨く。
完璧を待つよりも、暫定ベストで走り出す。
これが、AI時代のビジネス判断の新常識なのかもしれません。
Appleの判断は、私たち全員にとっての教科書だと感じています。
※Googleの進化を体感するならNano Banana Pro!時代の変換点レベルをぜひ引用ポストの記事から体験してみてください 👇 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







