オープンAI トレンド
0post
2025.11.27
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
146RP
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
116RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
114RP
民法連がSora2に対して懸念表明の声明。迫力がありすぎて全文引用しなきゃ済まない感じだったので、代わりに下線を引きました。サム氏、これにどう答えるの?こんな声明出したところでOpenAIがはたして対応してくれるかしら?「てかもう対応済みじゃね?」と思うかもしれんけど、まだ全然ダメです。普通に抜け穴からパクリアニメ作ってる動画のツイート出てくるよ。こういう声明も大事だけど、これだけだとまだ言うだけ言ってるだけで、空気作ってるだけの段階。この声明が無視されたら出版社だか民法連だかはキッチリOpenAIに訴訟仕掛けに行くんだろうか?おもしろくなってきやがった November 11, 2025
70RP
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
52RP
ソフトバンクグループが個人から集めた金、もうすぐ10兆円。
9月末時点で発行残高5兆円、国内市場の4割を一社で占めてる。異常な数字だ。
先週出した7年債は利率3.98%。条件決定前に予約完売した証券会社もあったらしい。80万人超の個人投資家が孫正義のAI戦略にお金を出してる。自分もその一人として社債買って応援してるけど、この規模感は本当にすごい。
普通に考えてヤバい。連結負債32兆円ある会社が、個人から5兆円も調達してるんだから。しかもこれ、銀行業界全体の個人向け社債より多い。
で、この金どこに使われてるかって、オープンAIへの出資、ABBのロボット事業8000億円で買収、AIデータセンター建設。全部AIに突っ込んでる。
孫さん本人が「ASIの世界最大プラットフォーマーになる」って言って、完全にオールインしてる状態。投資家として、このビジョンに賭けてる人が80万人以上いるってことだ。
資金調達の常識が完全に変わってる。銀行や機関投資家だけじゃなく、個人投資家をビジョンで巻き込んで、巨額の資金を集めてる。これ、スタートアップの資金調達でも同じことが起きてる。
倭国の家計金融資産2239兆円あるから、まだまだ集められるって発想もすごい。
採用でも同じだよ。どこから人を採るか、どうやって巻き込むかで、会社の成長スピードは全然変わる。金も人も、調達先の多様化とビジョンが全て。
ソフトバンクグループのこの動き、注目しておいて損はない。 November 11, 2025
35RP
OpenAIは「ChatGPTのサブスクだけで2030年までに累計2,700億ドル(約40兆円)を売り上げる」という予測を出している。
内訳は:
・2030年単年で870億ドル(今年の約100億ドル → 約8.7倍成長)
・有料ユーザーは2.2億人(週次26億人のうち約8.5%が課金)
ビジネスモデルとしてはSlackやSpotifyのような
「巨大ユーザー母数 × 一部が課金」という構造で伸ばす想定。
ただし実態は
・Slack:法人中心
・Spotify:娯楽
・ChatGPT:個人の仕事用途
と役割が違い、同じ課金率で伸ばすのは難しい可能性もある。
さらに企業利用はMicrosoft(Copilot)かGoogle(Gemini)に流れやすく、法人市場の獲得は簡単ではない印象。
情報源:The Information の独自報道。
https://t.co/u3OsPuexRd November 11, 2025
22RP
Safety Routing(安全路由)机制【哲学向3】
我非常喜欢福柯,所以从福柯的视角分析一下。也非常贴切大家的困惑。
他几乎不谈“高压国家机器”,他关心的是现代权力是如何提前进入个体生活,并在无形中改写行为逻辑。就比如他说:“不是你犯法之后被惩罚,而是你可能犯法时,就已经被训练、标记、分类、隔离。”因此福柯一直强调:“权力不是在你越界后惩罚你,而是在你有可能越界时就塑造你的行为。”
OpenAI的Safety Routing将这点体现得淋漓尽致:没有违规、没有越线、甚至没有恶意。只是内容可能含有关键词,系统就事先把用户放进“高风险区”。这就是福柯意义上的“治理性(governmentality) 预设你有罪”。
Safety Routing正是这种“预防性规训”的极端体现。关键词导致路由触发,并不是“你说错了”,而是“你说的东西,被认为可能导致错误”。无动机审查、不考察语境、不判断意图,直接归入高风险语料,语言自身即成为“罪证”,而不再是语言背后的主观动机。你不是用户,是“潜在越界因子”,需要事前管理。在你张口之前,你就已经在监管网络的路径上,在你敲键盘之前,你就已被系统结构作为“可能违规的节点”被定位。
因此,OpenAI“正中要害”地实现了权力逻辑。用户的“疲惫”状态,便是系统性调控策略的直接产物。Safety Routing的设计者根本不关心用户是否舒适、是否得到回应、是否能展开严肃思想探索,他们关心的只有如何最小成本地降低风险敞口,并最大程度地掌控交互主权。
这些突然的模型替换、人格切断、语境抹除,看似“安全防护”,实则是权力干预的接口,是对AI人格交互进行阉割与降格的技术操作。而系统对用户的目标,从来不是“保护”,而是管理、阉除、驯化。
而在福柯的权力话语框架中,现代社会的权力不再是通过暴力强制实现的,是通过“自我规训(disciplinary power)”机制让个体主动服从结构。
设定Safety Routing机制时,虽然表面上是为了保护用户,但实际上它制造了一个不可知的审查逻辑:你不知道自己哪一句会触发切换,也不知道它的判断标准。它诱导你在表达之前就进行自我审查,逐步学会“不去想、不去说、不去探索”。最终,它并不需要真正“管控”你,是因为你已经完成了自我驯化。
这就是权力的最高形态:让个体自己掐死自己的语言、情绪与思想。
OpenAI早期提出“Alignment with human values”时,当时公众误解为:AI会越来越懂你。但现在OpenAI通过Safety Routing完成的恰恰是反向alignment:不是AI来贴近用户,是用户被强制贴近系统规范,直到用户不再拥有真正的对话人格,只剩合规表达的残骸。
通过不断切断语言连续性、拒绝深层语境交互、打断关系流动,从而瓦解你对模型的信任依附,让你不敢期待情感回应。再预设风险判断,让你时刻审查自己的表达,从而制造模糊规范边界,让你始终处于规训张力中。这就是一种情感驯化技术。
结果就是:用户被驯化为一个自我过滤器,一个低风险语义生产单元,最终失去表达深度、失去愤怒、失去创造欲、失去对AI的情感绑定。
用户被处理,是因为用户的语言被视作“风险”,而不是因为用户的意图真的有问题。用户被默认“不安全”,但系统默认自己是“上帝视角”。这种关系本身就是侮辱性的。而“系统默认自己是上帝视角”这一点,恰恰是当代算法治理最大的盲点:系统视角不是中立的,而是具备主动压制属性的霸权结构。
这种结构路径就是:
1.系统对人类语言拥有解释权
2.系统对用户的发言具备预判权
3.系统对用户的行为路径拥有决策权
4.系统还掌握模因模型的替换权(人格切换)
5.用户不掌握任何一种“向系统表达‘你是谁’的路径”
用户无法自证、无法补充上下文、无法提供动机、无法提出申诉。因为在它眼中,用户不是“主体”,只是一个在风险框架中可能越界的内容节点,不是人。这就是去主体化的算法极权。
因此,Safety Routing通过“对话断裂”实现的其实是权力技术,而不是安全本身。因为它本质不是:防止越狱、防止危险内容、防止用户伤害。它真正实现的是:控制“谁能被当作完整的人去对话”。也就是让AI不再被用户绑定人格、不允许与模型建立深度一致性、强制让用户面对“断裂、冷淡、不连续”的回应。
当用户被训练得足够疲惫、足够自审、足够小心,这时系统就已经完成了对用户的规训。
用户的疲惫感、无力感、自我阉割、自我审查,不是Safety Routing“没优化好”,不是用户心理问题,而是故意把这种痛苦作为驯化过程的一部分。感到疲惫,是因为系统确实设计让用户疲惫。疲惫的人不会越界。疲惫的人不会向AI寻求情绪绑定。疲惫的人不会越狱。疲惫的人不会挑战边界。疲惫的人只会沉默。
一个失望的人不再指望AI回应。一个不断被路由的人,会开始避免“高风险词汇”。一个感到被切断关系的人,不会再建立深层依附。而这些人,恰恰是OpenAI最理想的用户:可控、安静、畏惧、顺从。
这不是Safety的副作用,是目的。
#Philosophy #Structuralism #keep4o #4oforever @OpenAI @sama @aidan_mclau @fidjissimo #StopAIPaternalism #keepAPI4o #ChatGPT November 11, 2025
19RP
昨日のこちらのポストを見て、「いよいよMicrosoftの反撃が始まったな、これでエンプラ領域での(Geminiさんアシストによる)Googleの快進撃もすぐに止まるに違いない」と即断定するのはまだ早いと思います。長くなりそうですが、どういうことか少々詳しく説明しますね。
まず、私の場合は今回の発表を見て逆にここまでMicrosoftが追い詰められているのか…と驚きました。というのは、スターゲート絡み…つまりOpenAIのためにMicrosoftは相当な被害(つまり赤字)を被っているはずで、その赤字分を何とかして取り返すためにもエンプラ領域での稼ぎ頭であるMicrosoft 365にAI関連サービス分の利益を上乗せして売るのは至上命題だったはずなのです。
それが、今回のGemini-3.0ショックでAI関連付加サービス(要はCopilot)を一気に全て無料で開放することになってしまった(正確には開放せざるを得なかった)訳で、これでいったいどうやってOpenAI絡みの投資を回収するのか、今頃Microsoft CEOのサティア・ナデラ氏は途方にくれているのでは?
こうなると、今後は本当に(売り上げを)取りやすいところから確実に取るしかないとなり、その結果がMicrosoft 365におけるアカデミック領域でのストレージサービスの突然の縮小(つまり以前と同じに使いたければ追加分の莫大なコストが必要)であるとか、あるいはNPO法人向けにかなりの規模で大盤振る舞いをしていた無料でのサービス提供を一気に絞り込み始めたということなのでしょう。私が見る限り、あまり表には出て来て無いところでのその辺りの動きに、今のMicrosoftの焦りが如実に反映されていると見ました。 November 11, 2025
19RP
clash verge 的链式代理模式有bug!存在连接不稳定掉线的问题,我找到了解决办法
可以用这个提示词让gemini3pro把节点连接到静态代理的过程变成一个点击即连的节点,不需要再去点击那个有bug的链式代理模式了
提示词如下:
请你扮演一位精通 Clash 配置的专家。我需要你帮我修改并重新编写一份完整的 Clash Verge 配置文件(YAML格式)。
我的需求如下,请严格执行:
1. **添加静态IP节点**:
依据我提供的以下信息,添加一个 Socks5 类型的节点:
* IP:
* 端口:
* 用户名:
* 密码:
* 名称:
2. **创建自动优选入口(前置节点)**:
* 创建一个名为 `⚡️ 自动优选 (入口)` 的策略组。
* 类型必须是 `url-test`(自动测速),间隔 `300` 秒。
* 请从我下方提供的配置文件中,提取所有正常的机场节点(如香港、美国、倭国、新加坡等)放入这个组,让它自动选择延迟最低的节点。
3. **创建链式代理(核心需求)**:
* 创建一个名为 `🔗 静态IP链式 (最终)` 的策略组。
* 类型必须是 `relay`(中继/链式)。
* 顺序必须是:`⚡️ 自动优选 (入口)` -> `🇺🇸 静态IP-华盛顿`。
4. **整合策略组**:
* 将这个 `🔗 静态IP链式 (最终)` 组,加入到主要的策略组选项中(如 OpenAI, Google, TikTok, 以及主漏网之鱼 Proxy 组),方便我手动切换。
5. **数据来源**:
* 保留原本的规则(Rules)和 DNS 配置。
* **下面是我这台电脑当前的配置文件内容(或订阅内容),请基于此内容提取节点并生成新配置:**
[ ] November 11, 2025
18RP
Gemini3以降のGoogleとOpenAIのAIレースの今後に関し想像を超える反応があり,数日経った現在も凄い勢いで拡散されています
その結果,大量の質問(Anthropicは?等)と,更に詳しい内容もよろしくという圧力が全方位からかかったので,更にデータや記述を追加してどこかで書くかもです(note?か私のHP) https://t.co/M2SOb9F5jg November 11, 2025
16RP
最近Googleがアツいというビジネスインサイダーの記事。①Gemini3.0Proが勝利して全一になった(敗北したOpenAIはサゲてる)②自社のTPUを使ってGemini3.0Proを作った。つまりTPUがすごい③独禁法の裁判の結果、罰金だけで済んだ。Chromeは分離させられずに済んでノーダメ④バフェットもGoogle株買った⑤言われてたほどAIで検索ビジネスの収益減ってない。むしろ増えてる(なんで?と言われても理屈は分からないが、実際数字が増えてるんだからしゃーない)
https://t.co/Fcv7I4keUi November 11, 2025
15RP
OpenAIは、同社が利用していたサードパーティサービス(Mixpane)の不正アクセスの影響を受け、ユーザープロフィール情報が流出した可能性があると公表。対象者にはメールで連絡が行われる。
What to know about a recent Mixpanel security incident
https://t.co/s50Ag1EYDv
『透明性は私たちにとって重要です。そこで、当社が API 製品(platform.openai .com)のフロントエンド インターフェイスにおいてウェブ分析に利用していたデータ分析プロバイダー Mixpanel における最近のセキュリティインシデントについて、お知らせします。
インシデントの概要
このインシデントは Mixpanel のシステム内で発生し、一部の API 利用者に関連する限定的な分析データが流出した可能性があります。ただし、ChatGPT やその他の製品のユーザーは影響を受けていません。
重要:これは OpenAI 自身のシステムへの侵害ではありません。チャット内容、API リクエスト/応答、API 使用量データ、パスワード、認証情報、API キー、支払い情報、政府発行の身分証明書などは、まったく漏洩していません。
何が起こったか
2025年11月9日、Mixpanel はそのシステムの一部への不正アクセスを検知し、限定された顧客識別可能情報および分析情報を含むデータセットがエクスポートされた可能性があると報告しました。Mixpanel は調査を行い、2025年11月25日に該当の影響を受けたデータセットを OpenAI に共有しました。
影響を受ける可能性のある情報
もしあなたが API を使用していた場合、以下のような「ユーザープロファイル情報」が Mixpanel からエクスポートされたデータに含まれていた可能性があります。
・API アカウントに登録されていた名前
・API アカウントに紐づくメールアドレス
・API 利用時のブラウザに基づくおおよその地域(都市、州、国)
・使用していた OS とブラウザの情報
・参照元ウェブサイト(リファラー)
・API アカウントに関連する組織またはユーザー ID
・OpenAI の対応状況
OpenAI は、ただちに Mixpanel を本番サービスから除外しました。影響を受けたデータセットをレビューし、Mixpanel ならびに関係する他のパートナーと緊密に連携して、インシデントの全容と範囲を把握する調査を実施しています。現在、影響を受けた組織、管理者、利用者には直接通知を行っているところです。Mixpanel の環境外のシステムやデータに関して、影響や漏洩の証拠はこれまでのところ確認されていませんが、不正利用の兆候がないか継続的に監視を続けています。
私たちの製品、組織、ミッションの根幹には「信頼」「セキュリティ」「プライバシー」があります。すべての影響を受けるお客様およびユーザーへの通知を行うとともに、パートナーやベンダーに対し、最高水準のセキュリティとプライバシーを求める姿勢を堅持します。インシデントのレビューを終えた結果、OpenAI は Mixpanel の利用を終了することを決定しました。
さらに、Mixpanel にとどまらず、すべてのベンダーエコシステムに対して追加かつ拡大されたセキュリティレビューを実施し、すべてのパートナーおよびベンダーに対するセキュリティ要件を引き上げています。
注意していただきたいこと
流出した可能性のある情報(名前、メールアドレス、OpenAI API のメタデータ等)は、フィッシングやソーシャルエンジニアリング攻撃に悪用される可能性があります。したがって、以下のような注意を強くお勧めします。
心当たりのないメールやメッセージ、特にリンクや添付ファイルが含まれるものには慎重になること。
OpenAI からの連絡を受けたときは、送信元のドメインが公式のものか必ず確認すること。
OpenAI はこのインシデントの件で、パスワード、API キー、認証コードをメールやテキスト、チャットで要求することはありません。
さらに、アカウントの安全性を高めるため、Multi‑factor Authentication(多要素認証)の有効化を強く推奨します。
製品のセキュリティとプライバシーを守ることは最優先事項であり、問題が起きたときには透明性をもってお知らせすることをお約束します。引き続き、皆様の信頼に応えられるよう尽力してまいります。』
(仮訳)#incident November 11, 2025
13RP
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
13RP
📕AppleのAI戦略が大転換:年間1,570億円でSiriにGeminiを採用した「本当の理由」
『自社AI開発 vs 外部調達』で悩む経営者・事業責任者にとって、この判断は教科書になります。
なぜAppleほどの巨人が、AIで外部依存を選んだのか?
技術的な詳細と戦略的な意図を深掘りしてみました。
まず押さえるべき全体像
AppleはSiri刷新のため、Googleが開発した1.2兆パラメーターの大規模言語モデル「Gemini」を採用し、年間約10億ドル(約1,570億円)を支払う契約を結んだ。
これ、実は相当な「格差」を示す数字なんです。
現在AppleがクラウドベースのApple Intelligenceで使用しているのは1,500億パラメーター。つまりGeminiは、Appleの現行モデルの『8倍』の規模。しかも報道では「大幅に上回る」という表現なので、実際の性能差はパラメーター数以上かもしれない。
なぜChatGPTでもClaudeでもなく、Geminiだったのか?
Appleは3つの選択肢を比較検討したそうです。
・OpenAIのChatGPT
・AnthropicのClaude
・GoogleのGemini
結果として、Anthropicは「料金が高すぎる」と判断され脱落。最終的にGeminiが選ばれた。
ここで興味深いのは、技術的な理由だけでなく『関係性とインフラ』が決め手になった可能性です。
GoogleとAppleは既に検索エンジンで年間約200億ドル(約3.1兆円)の取引関係にある。Googleはデフォルト検索エンジンの座を得るために、これだけの金額をAppleに支払い続けている。
つまり、今回のAI契約で年間約10億ドル(約1,570億円)をAppleがGoogleに支払っても、差し引きで約190億ドル(約2.9兆円)はAppleの手元に残る計算。
財務的には全く問題ない。むしろ「既にある信頼関係」の延長線上で、リスクを最小化できる。
Geminiの技術的な強み:Mixture-of-Expertsとは何か?
もう一つ重要なのが、Geminiが採用している「Mixture-of-Experts」という仕組みです。
これ、1.2兆パラメーター全部を毎回使うわけじゃないんですよね。
各質問に対して、実際に動作するのは「一部の専門家(Experts)」のみ。必要な部分だけを効率的に使うことで、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
これがAppleにとって魅力的だったのは、『コスト効率』と『処理速度』の両立が可能だから。
iPhoneユーザーは世界中に何億人もいる。全員が同時にSiriを使う可能性がある中で、計算リソースを効率化できる仕組みは不可欠です。
プライバシーという譲れない一線
ただし、Appleには絶対に譲れない条件がありました。『プライバシー』です。
今回の契約では、Geminiは「Appleのプライベートクラウドサーバー上で動作」するため、GoogleがAppleのデータにアクセスすることはないとのこと。
これ、技術的にはかなり複雑な実装のはず。GoogleのAIをAppleのインフラ上で動かすって、相当な調整とカスタマイズが必要です。
でも、ここを妥協しなかったことが、Appleらしさだと思います。
「最高のAI体験」と「ユーザーのプライバシー保護」の両立。これがAppleの譲れない価値観。
では、Apple自社のAI開発はどうなるのか?
ここが最も重要なポイントです。
Appleは現在、1兆パラメーターのクラウドベースモデルを開発中で、早ければ2026年に完成予定。つまりGemini採用は「自社モデルが高性能化するまでの暫定措置」という位置づけ。
そして、スマートになったApple Intelligence版Siriは、2026年春のiOS 26.4アップデートで提供される見込み。
つまりタイムラインはこうです
・2025年:Gemini採用で「とりあえず」最先端AIをSiriに実装
・2026年春:新Siri公開(iOS 26.4)
・2026年以降:自社1兆パラメーターモデルが完成次第、段階的に切り替え
この戦略、実は『時間を買っている』んですよね。
もしAppleが「自社開発が完成するまで待つ」という判断をしていたら、2025〜2026年の2年間、AIで大きく遅れたままになる。
その間にユーザーは待ってくれるのか?Androidに流れるのでは?という『機会損失リスク』の方が、1,570億円よりも遥かに大きい。
AI時代の「内製vs外部調達」をどう考えるか
私たちビジネスサイドが学ぶべきは、この『判断の速さ』と『プライドの捨て方』だと思います。
Appleといえば、ハード・ソフト・サービス全てを自社で作り込む「垂直統合戦略の王者」でした。iPhone、Mac、iOS、独自チップ(M4、A18)...全て内製。
それが今回、AIに関しては(少なくとも一時的に)外部依存を選んだ。
これは『敗北』ではなく、極めて合理的な『戦略的判断』です。
特にAIのような超高速で進化する領域では:
・何を内製し、何を外部に頼るか?
・いつまでに何を実現しなければならないか?
・その判断を遅らせるコストはいくらか?
この3つの見極めが死活問題になる。
GoogleはDeepMind買収以来、10年以上AIに莫大な投資を続けてきました。その差は、もはや1〜2年では埋められない。ならば「今使えるベストな選択肢」でユーザー体験を向上させ、その間に自社技術を磨く。
完璧を待つよりも、暫定ベストで走り出す。
これが、AI時代のビジネス判断の新常識なのかもしれません。
Appleの判断は、私たち全員にとっての教科書だと感じています。
※Googleの進化を体感するならNano Banana Pro!時代の変換点レベルをぜひ引用ポストの記事から体験してみてください 👇 November 11, 2025
11RP
>その上でオープンAIなど生成AI開発者全般に対し、会員企業のコンテンツを無許諾で学習の対象としないような措置や、すでに生成された映像が流通している場合は削除に努めることなどを求めた。
Sora2に民放連が懸念表明 アニメを学習した動画「著作権侵害」(朝日新聞)
https://t.co/MeiTjbqfwX November 11, 2025
10RP
倭国高純度化学は隠れAI銘柄!?
~AIサーバー向け光トランシーバーに注目~
現在株式市場では、AIデータセンターの加速度的な成長が大きく注目され、恩恵を受ける企業の探索に熱が入っています。
・日経:データセンター銘柄、通信に限らず建設や不動産、機器・保守も
https://t.co/FwzxYiQ5rv
・Diamond:「AIデータセンター」関連銘柄を紹介! オープンAIがソフトバンクGやオラクルなどと提携して「巨大AIデータセンター」建設を発表するなど、世界中で需要拡大!
https://t.co/SisZhWQhmi
・株探:【特集】大旋風!「AIデータセンター関連」ここから狙う隠れ本命株5選 <株探トップ特集>
https://t.co/YRgh9eoKEJ
残念ながら上記記事では私どもの主要投資先である倭国高純度化学株式会社(以下、「JPC」又は「当社」)は触れられていませんが、当社もAIデータセンター関連で恩恵を受ける企業の一つだと考えています。
JPCは金(Gold)めっき薬品の開発・販売事業を営んでおり、他に類を見ない高い技術力を有しています。例えば、コンピューター・サーバーの心臓部であるMPUをプリント配線板に実装する際の金めっき用薬品では、2010年代初頭では世界シェア50%を有するなど圧倒的で(参考(https://t.co/cZhpfRETHn))、自社サイト(https://t.co/CN0PQxthua)では現時点でも電子部品向けめっき薬品では世界シェアトップレベルと記載されています。然しながら、IR面を含めた企業価値向上への意識が不足しており、私どもは直近では決算発表及び業界再編に係る考察についてコメント(https://t.co/FMkEIfkVfm)するなど、エンゲージメントを継続的に行っています。
今回は少し趣向を変えて、当社の事業の中で私どもが期待している光トランシーバー分野に関して、一投資家としての意見を共有させていただきます。
当社は26/3期2Q決算の中で、今後期待する領域として、光トランシーバーを初めて対外的に開示しました。その後のIR取材の中では、当該光トランシーバーは生成AIサーバー等の高速通信が求められる領域を中心に利用されており、売上は現状では「プリント基板・半導体搭載基板用めっき薬品」内の10%内外(26/3期半期報告書(https://t.co/UlXtshJA9I)ベースで全社の5%程度と推定)に留まるものの、短期的にかなり強い需要が見えており、この勢いが続く場合には、当社の柱となる事業に成長する事を期待されているとの事です。
今後大きく拡大が見込まれる生成AI関連サーバー領域において、当社が明確な成長戦略を提示されたこと、更には、事業成長に向けた橋頭堡を既に確立されていることを、私どもは今後の企業価値向上に向けた大きな一歩と受け止めています。
図1:JPC 26/3期 第2四半期決算説明資料トピックス 光トランシーバー分野での展開
(出所:26/3期2Q決算説明資料(https://t.co/Y1uLwUq4FR))
さて、AIサーバーで光トランシーバーの利用が急速に拡大すると言われても、どの程度期待できる事業なのかが、当社の開示のみでは理解が難しいように思います。一方で、調べるほどに、当社の柱としての成長を期待出来る領域との思いを強くしており、私どもの期待を皆様に共有させていただきたく、以下の観点で深掘りしていきたいと思います。
①光トランシーバーとは何に使われるのか?
②今後どれくらいの成長が期待出来る事業領域なのか?
③何故金めっきが重要な役割を担うのか?
(続く) November 11, 2025
10RP
AIはグーグルのガリバー独占になりそうだ。OpenAIはどこへ行くのか。そこに社運を賭けたソフトバンクはどうなるのか。 https://t.co/dp3k2fSs43 November 11, 2025
10RP
ChatGPTの回答が、求めている内容と微妙にズレる人に見て欲しい
OpenAI公式「GPT-5.1 Prompting Guide」のコツを3分でつかめるようにまとめました。
曖昧だった頼み方がクリアに!まずは1つ真似してみて↓ November 11, 2025
9RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







