オープンAI トレンド
0post
2025.11.29 18:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
AIの勢力図が、ついに逆転しました。
MITとHugging Faceの最新調査により、オープンソースAI市場における中国のシェアが米国を上回ったことが露呈しました。
1. 世界シェア:中国「17%」vs 米国「15.8%」
2. 牽引役:DeepSeekやAlibaba(Qwen)の台頭
3. 背景:米国の輸出規制が、逆に中国の自社開発とOSS化を加速
OpenAIやGoogleが閉鎖的な戦略をとる一方で、中国はオープンソースで世界を席巻しつつあります。AI覇権争いの潮目が、大きく変わるかもしれません。 November 11, 2025
13RP
AI覇権を制するのは…
■Google&ブロードコム軍?
■OpenAI&Microsoft&ソフトバンクG軍?
11/18に突如発表された生成AI「Gemini3」が高く評価されAI覇権競争の勢力図が変化か。ついにエヌビ一強状態が崩れる?!
倭国勢はジェミニ連合が勝ってもチャッピー連合が勝ってもどっちも恩恵アリの銘柄が多いと思うけど、このページでは特にGoogle&ブロードコム軍に近い銘柄をピックアップしてみた🥰
良かったらみてみてね!
直近でエヌビが売られたこと、OpenAIとべったりのソフトバンクGが売られたこととも符合します。
▼Google関連株(ジェミニ関連株) 本命株 出遅れ株 一覧 くわしくはブログでみて!
https://t.co/93Vjn5sdAj November 11, 2025
4RP
[技術介紹長文] Nested Learning
這幾天花了不少時間研讀 Google DeepMind 最新發表的 Nested Learning (以及相關的 Titans 架構) 論文,讀得越深,越有一種強烈的既視感:
我們可能正站在自 2017 年以來,AI 架構最重要的一次典範轉移(Paradigm Shift)路口。
為了講清楚為什麼這篇論文如此重要,我先來說這七年來 AI 是如何發展的,以及為什麼近期市場上的 記憶體概念股(如 HBM)會漲得這麼兇?
這一切,可以用三個關鍵階段來解釋(我盡量用白話一點來介紹):
== 起源與現狀:Attention Is All You Need (Transformer) ==
2017 年 Google Brain 發表的這篇論文,絕對是AI歷史上最重要的論文之一,Transformer 的誕生奠定了今天 GPT-4、Gemini 等所有 LLM 的基礎。
白話比喻:現在的 AI 就像是一個「過目不忘的天才」在參加一場「開卷考試」。當你問它問題時,它雖然聰明,但無法把書背下來。它必須把所有的參考資料(你給的 Context)全部「攤在桌子上」,然後隨時用眼睛掃描(Attention)來找答案。
技術限制:這種架構是「靜態」的,AI 的腦子(參數)是凍結的,它只能依靠「桌子(記憶體)」來暫存資訊。
== 瓶頸與市場現象:Scaling Laws (縮放定律) ==
過去幾年,OpenAI 等巨頭發現了 Scaling Laws:「桌子越大、書越多,考得就越好。」
用GPT來看看這幾年 AI 的「桌子(Context Window)」是怎麼變大的
• GPT-3 (2020): 只有 2k - 4k tokens。桌子很小,聊沒幾句它就忘記前面的設定。
• GPT-4 (2023): 擴展到 32k tokens。勉強可以放下一份財報。
• GPT-4 Turbo (2024): 暴增到 128k tokens(約 300 頁的書)。
• Gemini 1.5 Pro (2024): 甚至衝到了 1M+ tokens(好幾部哈利波特全集)。
看起來很棒,但這就是問題所在。 為了維持這張「無限大的桌子」,我們需要極其巨大的 KV Cache。這導致現在的 AI 晶片(如 H100/Blackwell)對 HBM (高頻寬記憶體) 的需求變成了無底洞,這就是為什麼記憶體股與 NVIDIA 會暴漲。
簡單說:現在的 AI 太笨了,記不住東西,所以只能靠暴力堆硬體(買超大的桌子)來解決問題。這條路雖然有效,但成本跟CP值已經快走到物理極限了。
== 或許是下一代的解答:Nested Learning (巢狀學習) ==
正是在「記憶體牆」與「算力成本」的焦慮下,Google 這篇 Nested Learning paper在11月橫空出世並且釋出Gemin3 pro還有nano banana pro,試圖讓 AI 從「依賴硬體」進化為「依賴大腦」。
這一切的基礎,在於一個關鍵技術突破:推論時訓練 (Test-Time Training, TTT)。
過去我們認為 AI 訓練完就不能改了(Parameters Frozen),但 TTT 允許模型在「考試的當下」依然能即時修改自己的腦神經連結。
基於 TTT,Google 也提出了兩大架構創新:
1. 基礎建設:Titans (神經記憶體)
Google 在今年初設計了一種叫 Titans 的架構,讓 AI 擁有一個獨立的「神經記憶體 (Neural Memory)」。它不再依賴「開卷考試」。當讀到新資料時,它不只是放在桌上,而是利用梯度下降,直接修改自己的腦神經連結(更新參數)。等於是把書的內容「背」進了腦子裡。
2. 進化核心:HOPE (自我參照學習)
這才是這篇論文真正的黑科技。在 Titans 的基礎上,Google 提出了 HOPE。如果說 Titans 是「會做筆記」,那 HOPE 就是「會改良自己做筆記的方法」。
實現了 Self-Referential Learning (自我參照學習),模型不只能學到知識,還能即時調整自己的學習演算法。
這是一個「巢狀(Nested)」的系統:內層在學知識,外層在學「如何更快地學知識」。
3. 降維打擊:這實現了很低記憶體消耗。
不管讀了 100 萬本書,它不需要更大的桌子(記憶體),因為知識已經被 HOPE 模組壓縮、內化成了模型的參數,這對目前依賴 HBM 的硬體架構來說,是徹底的降維打擊。
白話比喻:Nested Learning 的模型,是一個「學會內功心法」的宗師,不再依賴「開卷考試」。當它讀到新資料時,它不只是放在桌上,而是直接修改自己的腦神經連結(更新參數),直接把書的內容「背」進了腦子裡。不管讀了 100 萬本書,它不需要更大的桌子(記憶體),因為知識已經內化成它的直覺。
== 總結 ==
如果說 Transformer 教會了 AI 怎麼「看見」重點;那 Nested Learning (結合 HOPE 與 Titans) 正在利用 TTT 教 AI 怎麼「記住」重點並「自我進化」。
Google 這篇論文向我們展示了下一個時代,一個模型能自我更新、不再單純依賴暴力堆砌記憶體的「動態智慧」時代,雖然Nested Learning 目前在訓練的穩定性與雙迴路優化的複雜度上,確實還有一定的難度要克服。
但這個方向的確立,對資本市場將帶來深遠的思考:「這會不會衝擊現在的 AI 概念股?」
我的看法是:短期不會,但長期的遊戲規則變了。
目前的股市榮景(HBM 供不應求),反映的是 Transformer 時代因為演算法效率低落,導致對硬體(記憶體)的紅利。
然而,一旦 Nested Learning 技術成熟並普及,未來 AI 對「記憶體容量」的依賴程度將大幅降低複雜度,這意味著 HBM 的無限增長故事可能會有天花板,競爭將從「誰的顯存大」回歸到「誰的晶片算得快(支援 TTT 高效運算)」以及「誰的演算法更聰明」。
老實說,這篇論文值得所有 AI 工程師關注,更是所有關注 AI 資本市場的人,重新審視「硬體超級循環」能否延續的關鍵訊號。
相關論文連結都放在留言了。 November 11, 2025
2RP
OpenAIの訴訟、違法ダウンロードされた書籍データセットからの無断学習の証拠隠滅について、Slack上で行った削除指示に関する会話内容について証言せざるを得なくなったのね。
OpenAIユーザーの個人情報が色々と流出したりと、連日結構なニュースだね https://t.co/hy67eNv7e1 November 11, 2025
2RP
Raspberry Piと小型OLEDを組み合わせると、ちょっとした“AI掲示板”を作れるのが面白いところです✨
OpenAI APIでメッセージ生成し、OLEDへ表示するだけで、ミニAIサイネージとして機能します。
低消費電力で常時稼働しやすく、物理ボタンで入力すれば安全な範囲で操作も可能です。
開発しながらPythonのAPI処理やI²C制御の理解も深まり、学習用として非常に有用です🙌
#Python #RaspberryPi #OpenAI #電子工作 #プログラミング学習 November 11, 2025
2RP
「WEBサービスの解析ツール「Mixpanel」が情報流出したせいで、連携させていたOpenAIからのAPI情報の一部が漏れた」というニュースにこんな見出しを付けるの、普通に最悪だとは思う。それはそれとして「やっぱAIサービスってクソじゃん!」って引用してる人間はバカだが……。 https://t.co/2PfLZhGLFh November 11, 2025
2RP
Googleの本当のライバルはOpenAIでなく、NVIDIA。GoogleのAIチップTPUが思ったより精度が良くて、ジェンスンCEOも焦ってる模様。
GoogleとNVIDIAの株価に堅調に現れている。
OpenAIはGoogleの顧客になり得る。
■要点
- Google、2026年からTPU本格外販開始
- Metaが2027年に数十億ドルでTPU自社導入決定間近
- OpenAIもChatGPT推論をTPUに移行済み(NVIDIAより30%安い)
- TPU v7 Ironwood → Blackwellと同等かそれ以上
- NVIDIA株一夜で7%↓(時価総額2,500億ドル吹っ飛び)
- NVIDIA公式が珍しく「うちの方が1世代先です!」と焦り反論
- Google株年初来+50%、4兆ドル企業秒読み November 11, 2025
1RP
Google TPU 要干掉英伟达了吗?Meta 被曝将大规模采购 TPU,引发市场震动。但真相是:TPU 能撼动英伟达,却永远无法取代英伟达。这不是性能之争,而是生态、时机与战略的较量。
The Information 的一篇重磅报道把整个 AI 行业给炸了,Meta 正在与 Google 进行秘密谈判,计划大批量采购 Google 的 TPU 芯片,用于部分替代英伟达的 GPU 以支持其庞大的数据中心 AI 运算。
根据报道披露的细节,这盘棋下得很大:
- 2026 年: Meta 将大规模租用 Google 云服务(Google Cloud)上的 TPU 算力进行模型训练;
- 2027 年: Meta 将直接采购数十亿美元的 TPU 芯片,部署于自建的数据中心内。
什么?全球最大的 GPU 采购大户要抛弃英伟达了? Google 的 TPU 居然要走出自家机房,去取代英伟达的 GPU 了吗?
消息一出,资本市场瞬间恐慌了。英伟达股价应声大跌,而 Google 则逆势暴涨,大家都在问:难道英伟达靠 GPU 垄断 AI 数据中心的故事真的讲不下去了吗?TPU 开始逆转了战局了吗?要讲明白这场 GPU vs TPU 的战争,我们要先从英伟达为什么能够像“铁桶”一般垄断 AI 数据中心讲起。
当今的 AI 技术堆栈:一座精密的金字塔
今天的人工智能是一个无比庞大的工业化产业。像 ChatGPT 这样顶尖的 AI 产品,其背后是由一层一层的技术基石堆砌而成的,这在 IT 行业被称为“技术堆栈(Tech Stack)”。
即使采用最粗略的划分方式,要支撑起当下的生成式 AI,至少也包含 5 层关键技术,缺一不可:
- 第一层:算力硬件层(Infrastructure) 这是金字塔的底座,是一切的基础。核心代表毫无疑问是英伟达的 GPU 和 Google 的 TPU。它们提供了 AI 运算所需的庞大算力,就像是工业时代的电力引擎。
- 第二层:系统软件与加速层(System & Compiler) 光有芯片还不够,AI 计算需要成千上万个芯片协同工作。这一层负责调度硬件并优化效率,充当硬件与上层软件的翻译官,它们决定了你能发挥出硬件多少潜能。这一层最典型的护城河技术,就是英伟达的 CUDA,而 Google 的 TPU 也有能够把上层软件编译为 TPU 机器码的 XLA 编译器。
- 第三层:深度学习框架(Deep Learning Frameworks) 想要构建和训练大规模神经网络,开发者不能手搓底层的软件代码,需要成熟的“脚手架”。业界目前最流行的是 META 发起开源软件 PyTorch(目前对 GPU 生态支持最好,是事实标准),以及 Google 发起的开源软件 JAX 和经典的 TensorFlow。
- 第四层:基础大模型(Foundation Models) 这是由深度学习框架训练出来的“超级大脑”,是目前竞争最激烈的战场。
- 语言/多模态模型: 如 OpenAI 的 GPT-5、Google 的 Gemini 3;
- 视频生成模型: 如 OpenAI 的 Sora、Google 的 Veo;
- 图像生成模型: 如 Google 的 Imagen、Midjourney。
- 第五层:AI 应用与交互层(Applications & Agents) 这是用户直接接触的产品。它将底层强大的模型能力封装成人类可以交互的工具。例如 ChatGPT,它的底层核心是 GPT 模型,但它本身是一个增加了对话界面、联网搜索、记忆功能的产品;又比如 Google 的 NotebookLM。
为什么英伟达在 AI 数据中心市场形成了绝对垄断?
我们经常感叹英伟达的 GPU(如 H100、H200、B200)硬件参数如何炸裂,但这只是冰山一角。英伟达之所以能对 AI 数据中心市场形成近乎无解的垄断(市占率一度超过 95%),主要源于以下三个维度的降维打击:
1. 通用性极强的单点算力 英伟达的 GPU 本质上是通用计算加速器(GPGPU)。它不仅能完美覆盖 AI 大模型的训练(Training)和推理(Inference),还能兼顾科学计算(气象模拟、药物研发)、图形渲染甚至加密货币挖掘。这种“一卡多用”的特性,使其成为了数据中心的硬通货——买了永远不亏,不用来炼丹还能用来挖矿(开玩笑,但道理如此)。
2. 恐怖的集群扩展能力(Scale-up & Scale-out) AI 大模型训练不是单打独斗,而是需要成千上万张显卡协同作战。英伟达在这方面做得太绝了:
- 节点内互联:通过独家的 NVLink 技术,英伟达可以将多个 GPU(甚至高达 72 个 GPU 组成的 GB200 NVL72 机柜系统)连接成一个“超级逻辑 GPU”,显存和算力实现无缝共享。
- 节点间互联:通过收购 Mellanox 获得的 InfiniBand 高速网络技术,让成千上万台服务器之间的数据传输快如闪电,解决了大规模集群的通信瓶颈。
3. 真正的护城河:CUDA 软件生态 这是英伟达最难被逾越的壁垒,就像 PC 时代的 Windows 操作系统。
- 底层基石:CUDA 提供了最底层的并行计算库,几乎所有的高性能计算场景都基于此构建,经过了 20 年的打磨。
- 顶层框架:当今统治级的深度学习框架 PyTorch 对 CUDA 提供了最原生的支持。这意味着开发者只需编写几行 Python 代码,就能调用底层强大的算力。
- 生态闭环:围绕 PyTorch/CUDA/GPU 已经形成了一套成熟的“开箱即用”基础设施。
为什么竞争对手很难追赶? 即使竞争对手(如 AMD 或国产芯片厂商)在硬件参数上追平了 H200,依然无法撼动英伟达的地位。因为缺乏庞大的软件生态支持,意味着极高的迁移成本和时间风险。
一个真实的行业痛点(听起来很痛): 目前很多致力于适配非英伟达芯片的 AI 团队都面临着巨大的痛苦。许多针对英伟达 GPU 进行过深度优化的模型(特别是涉及复杂算子或 MoE 架构的模型),一旦迁移到其他芯片平台,往往会面临严重的兼容性问题。
- 开发难:大量算子需要从头手写,费时费力,如同用汇编语言写网页。
- 稳定性差:模型训练过程中经常出现莫名其妙的数值溢出或系统崩溃(Crash)。
在当前的 AI 竞赛中,一次全量模型训练往往耗时数月,成本以千万美元计。如果因为芯片兼容性导致训练中途崩溃几次,浪费的不仅是电费,更是半年甚至一年的宝贵时间窗口。这种巨大的试错成本,是任何一家争分夺秒的 AI 公司都无法承受的。传言某国内顶级 AI 模型就是因为在国产芯片上训练下一代模型频繁崩溃,导致一直难产,真的是太痛了。
这就是为什么英伟达在 AI 数据中心市场越成功,行业对其路径依赖就越严重——因为没有人敢承担离开英伟达的代价。
Google 的 TPU 又是怎么崛起的?
尽管英伟达的统治力无可争议,但是 Google TPU 却是个异类,它不仅活下来了,还活得很好,已在 AI 顶级赛道站稳脚跟。
首先,TPU 已经用实战成绩证明了自己在 AI 大模型训练和推理领域的成功:
- Google 本家基石: Google 最强的 Gemini 系列模型,完全基于 TPU 进行训练和推理;
- 独角兽的选择: 顶级 AI 公司 Anthropic (Claude) 在 Google Cloud 上大规模使用了 TPU 算力;
- 科技巨头的背书: 就连 Apple 在训练其 Apple Intelligence 基础模型时,也公开表示使用了 Google 的 TPU v4 和 v5p 集群,而非英伟达 GPU。
那么,在英伟达已经成为绝对霸主的情况下,Google TPU 凭什么能异军突起?我们不妨对照英伟达成功的三个维度来深度解析:
1. 算力哲学:极度通用 vs 极致专用 英伟达 GPU 的强大在于“通用性”。而 Google TPU 从 2012 年设计之初,就是为了特定用途——大规模矩阵乘法而生。 现在的 AI 大模型训练,本质上就是在大规模地做矩阵乘法。因为放弃了图形渲染等通用功能,TPU 的芯片设计得以大幅简化,从而在“矩阵计算”这单一场景下取得了极致的能效比和性能表现。
2. 互联技术:电互联 vs 光互联 (OCS) 英伟达在服务器间的高速互联(NVLink/InfiniBand)上表现出色,覆盖了从单机多卡到万卡集群的广泛场景。 而 Google TPU 另辟蹊径,主攻超大规模集群互联。Google 引入了独特的 OCS(光路交换)技术,用光互联将成千上万颗 TPU 动态编织在一起。最新的 TPU v5p 单个 Pod 即可容纳 8960 颗芯片,甚至可以通过光互联扩展至数万卡的超级集群。这种架构在大规模并行训练中,展现出了极高的带宽利用率和灵活性,且布线极其整洁。
3. 软件生态:CUDA 帝国 vs JAX/XLA 新势力 英伟达的 CUDA 和 PyTorch 让 AI 开发变得“开箱即用”,这是其最大的护城河。但 Google 经过多年深耕,也打磨出了一套极为硬核的软件栈:
- XLA (2016): 一个强大的编译器,能将计算图直接编译为 TPU 机器码,榨干硬件性能。
- JAX (2018): 一个旨在替代 TensorFlow 的前沿框架。
对比 PyTorch: PyTorch 是面向对象编程,符合人类直觉,简单易用;而 JAX 是函数式编程,学习曲线陡峭,但在处理超大规模并行计算时具有先天优势,代码更简洁,数学表达更纯粹。
跨界打击: JAX 的优秀甚至溢出了 TPU 生态。如马斯克的 xAI 虽然使用的是英伟达 H100 集群,但为了追求对硬件性能的极致压榨,在训练 Grok 模型时并没有使用 PyTorch,而是选择了 JAX。
总结:生态位的胜利 经过多年的演化,在超大模型训练这一“皇冠上的明珠”场景下,JAX + XLA + TPU 技术栈已经形成了一个完整的闭环。它不仅被验证是成功的,甚至在某些超大规模场景下,能取得比 Pytorch + CUDA + GPU 更优的能效比。在 Google Cloud 上,TPU 的 token 成本定价低于英伟达 GPU,就是最好的证明。这也是 Google Cloud 在云计算市场竞争中的秘密武器。总之:
英伟达 vs Google:两种技术哲学的碰撞
- 应用场景: 通用型霸主 vs 超大模型专用特种兵
- 软件门槛: 低门槛的群众基础 vs 高门槛的专家利器
- 商业模式: 庞大的全行业生态 vs 垂直整合的自研闭环
如果说英伟达就像一辆豪华的全能越野车,哪里都能去,谁都能开,到处都有维修店;那么 Google 就像一辆定制的 F1 方程式赛车,只能跑赛道,赛车手才能开。大多数人买车首选 SUV(英伟达),因为方便、省心;但在争夺世界冠军的顶级赛场上,追求极致速度的车队(如 Google、xAI、Anthropic)会考虑使用 F1 赛车(TPU)。
Google TPU 能干掉英伟达吗?
照你这么说的话,Google TPU 岂不是已经成功挑战英伟达,打破了英伟达 GPU 的绝对垄断地位吗?事情没有那么简单。
1. TPU 的局限性与 Google 的双重身份 前面提到 Google TPU 极其擅长超大模型的训练/推理以及大规模推荐系统,但在通用性上,其他场景要么根本不适用,要么能效比不如英伟达 GPU。 对于 Google 庞大的产品线(YouTube、Search、Cloud)来说,对通用 GPU 的需求依然是海量的。因此,Google 一边自研 TPU,一边依然是英伟达 GPU 的全球采购大户。这一点在未来几年内都不会改变。
2. 迁移成本高昂的“生态墙” 尽管在超大模型场景下,JAX + XLA + TPU 的技术栈能取得显著优势,但这要求你必须“从零开始”就拥抱 Google 生态。 如果现有的项目是基于 PyTorch 和 CUDA 深度优化的,想要迁移到 TPU,约等于重写底层代码并进行大规模兼容性测试。这种“重起炉灶”的时间成本和工程风险,足以让绝大多数企业望而却步。
因此目前来看,Google TPU 的用户群体画像非常清晰,主要就两类:一是高校科研(科学计算),二是超大模型的训练和推理。
为什么 TPU 会有很多科学计算用户? 这是因为 Google Cloud 长期为高校科研开放免费的 TPU 资源(TPU Research Cloud),加上极度好用的 Colab 服务(免费提供 TPU/GPU 算力),在学术界圈粉无数,培养了一大批习惯 TPU 的科研生力军。
那么,超大模型领域的潜在客户呢? 我们逐一分析市面上的两类大客户:
- 大型云计算厂商: Amazon, Microsoft, Oracle 以及 CoreWeave 等新兴 GPU 云厂商。
- AI 大模型厂商: OpenAI, Anthropic, xAI, Meta 等。
大型云计算厂商(Amazon, Microsoft)本身就是 Google Cloud 的死对头,且都在自研芯片(Trainium, Maia),绝无可能去买对手的算力。而 Oracle 和 CoreWeave 早就通过深度绑定英伟达赚得盆满钵满,是英伟达的铁杆盟友。
AI 大模型厂商呢?
- OpenAI: Google Gemini 的头号宿敌,微软的盟友,不可能用 TPU。
- xAI: 马斯克与 Google 积怨已久,且正通过特斯拉和 xAI 构建自己的超算集群。
- Meta: 回到开头的新闻,Meta 是个超级大户。虽然传闻在谈,但 Meta 也是 Google 广告业务的直接对手。扎克伯格目前手握全球最大规模的 H100 集群之一,并且 Meta 正在积极迭代自研芯片 MTIA。虽然他们不搞公有云,但为了战略安全和技术自主,Meta 不太可能全面依赖 Google 的 TPU,最多是作为补充或谈判筹码。
- Anthropic: 剩下的只有它了。Google 是 Anthropic 的大金主,所以 Anthropic 使用 TPU 是顺理成章的。
盘算下来,TPU 的外部大客户其实寥寥无几。 这点体量,完全不足以对英伟达的统治地位构成“颠覆性”冲击。 因此,Google 最明智的策略依然是:在 Google Cloud 上提供极致性价比的 TPU 服务,用“省钱”和“能效”从其他云厂商口中抢肉吃,而不是想着彻底干掉英伟达。
如果 Google 非要“头铁”,下场卖 TPU 芯片抢市场呢? 我认为这极其不明智:
- 供应链与利润结构: TPU 是 Google 与博通(Broadcom)合作设计的 ASIC。如果对外售卖,不仅涉及复杂的供应链管理,还要分润给博通,这会拉低硬件毛利。卖贵了,打不过英伟达;卖便宜了,除去博通的成本,Google 图什么?
- 客户池太浅: 如前所述,愿意买 TPU 且不与 Google 构成直接竞争的大客户极少。
- 田忌赛马的反面: 用自己公司的“内部工具/副业”去硬拼英伟达赖以生存的“主业”,胜算能有多高?
- 最后,也是最关键的宏观背景: 目前全球 AI 数据中心市场正处于“短缺经济”时代。不仅 GPU 缺,HBM 内存、CoWoS 封装产能、电力、甚至建设数据中心的土地都极度紧缺。虽然各大科技巨头的资本支出(Capex)已经高得吓人,但面对爆炸性的业务需求,供给依然不够。微软今年初曾试图下调资本支出,结果发现需求太猛,转头又开始疯狂追加投入。
在一个供不应求的增量市场里,无论你填进去多少算力(无论是 GPU 还是 TPU),都会被瞬间吃干抹净。英伟达的 GPU 和 Google 的 TPU 目前仍处于“各自跑马圈地”的阶段,而非“你死我活”的零和博弈。
我的结论:
Google TPU 对英伟达确实有冲击,但不必过度恐慌。 从长期看,Google TPU 的存在更像是一个强有力的“议价筹码”。当大客户有了备胎(TPU 或自研芯片),英伟达就很难长期维持如今夸张的 75% 利润率。
英伟达未来的市场份额确实会受影响,主要来自:
- Google 自身业务(搜索、推荐、Gemini)更多转向 TPU,减少购买 GPU;
- Google Cloud 的深度合作伙伴(如 Anthropic)减少购买 GPU。 这可能会导致英伟达在数据中心的市占率从 90%+ 缓慢回落到 75%-80% 左右,但这并不改变其商业逻辑的本质。
这就像当年的 PC 市场: 苹果 Macintosh 电脑的崛起虽然让 Windows 的市占率有所下降,但并没有终结 Windows 的垄断。真正终结 Windows 霸权时代的,不是 Mac,而是智能手机的兴起。 同理,Google TPU 干不掉英伟达。真正能干掉英伟达的,只能是下一代计算范式的彻底变革。
Google 的成功是不可复制的
好吧,虽然你说的很有道理,但是 Google 能干成全栈自研,尝到了甜头的其他巨头岂不是会纷纷效仿吗?Amazon,Microsoft,Meta,OpenAI 这几个英伟达的头部大客户都在自研 ASIC 芯片,将来他们都减少了对英伟达芯片的采购,英伟达不是要喝西北风了?
我的观点就是:Google 的成功是不可复制的。
Google 的技术栈能够成功,综合了以下几个不可或缺的因素,而这恰恰是微软、Meta 和亚马逊所不具备的:
1. 十年的时间壁垒(Time & Iteration)
芯片设计不是搭积木,它需要漫长的迭代周期。 Google 早在 2013-2014 年就开始秘密研发 TPU,2016 年 AlphaGo 击败李世石震惊世界时,背后就是 TPU v1 在提供算力。
当微软在 2023 年才匆忙推出 Maia 100 时,Google 的 TPU 已经迭代到了第 6 代甚至第 7 代。
这 10 年间踩过的坑、修复的 Bug、积累的制程经验、以及对散热和互联架构的微调,绝非其他公司靠“砸钱”就能在两三年内追平的。在硅基世界里,经验值就是良率,就是能效比。
2. 真正全栈的“软硬一体”的垂直整合掌控力(Full-Stack Control)
这是 Google 最可怕的地方,也是其他巨头最大的软肋。
Google 拥有整个链条: 硬件(TPU)+ 编译器(XLA)+ 框架(JAX)+ 模型(Gemini)。Google 的科学家 Jeff Dean 可以让设计 Gemini 的算法团队直接坐在设计 TPU 的硬件团队对面,告诉他们:“我们需要一个特定的指令集来加速这个算子。”这种协同效应是核爆级的。
反观微软/Meta: 微软虽然造了 Maia 芯片,但它上面的软件栈主要依赖 OpenAI,而 OpenAI 和整个业界主流依赖的是 PyTorch。PyTorch 的亲爹是 Meta,但 PyTorch 对英伟达 GPU 的优化是刻在基因里的。
微软想要 Maia 好用,就得去魔改 PyTorch 底层,或者指望 OpenAI 为了适配 Maia 去重写代码。这中间不仅隔着公司墙,还隔着巨大的技术债务。
只要 PyTorch 依然是业界标准,其他自研芯片就永远是在“模拟”或“适配”英伟达,而 Google 是在玩一套完全独立的游戏规则。
3. 极其特殊的“光互联”基础设施(OCS Infrastructure)
前面提到的 OCS(光路交换)技术,是 Google 数据中心的独门绝技。 Google 为了适配 TPU 的大规模互联,甚至重新设计了数据中心的物理布线和机柜架构。这种光互联技术允许 TPU 节点之间以极低的延迟和功耗进行动态重组。 其他云厂商的数据中心是基于标准以太网架构建设的,想要复刻 Google 这套“光互联”网络,意味着要推翻现有的数据中心物理架构,这个沉没成本是天文数字。
4. 无法比拟的内部“吞吐量”(Internal Workload)
在生成式 AI 爆发之前,Google 就拥有地球上最庞大的 AI 推荐系统——Google Search、YouTube 推荐算法和 Google Ads。
这些业务每天产生数以亿计的并发请求,为 TPU 提供了天然的、海量的“练兵场”。
即便没有外部客户买单,Google 自己的业务就能消化掉 TPU 的产能。这让 Google 敢于在 TPU 早期性能不完善时,强行在内部推广(Dogfooding),通过海量真实数据把芯片“磨”出来。
相比之下,Meta 虽然有推荐算法需求,但起步晚且早期全押注 GPU;微软的 Azure 主要是卖资源给客户,如果自研芯片不好用,客户会直接用脚投票切回英伟达。
英伟达更像 AI 时代英特尔
著名电影《大空投》原型 Michael Burry 曾暗示英伟达正处于类似互联网泡沫时期的境地,不少看空者也认为英伟达与 OpenAI 之间相互投资和采购的关系,吹起了一个巨大的估值泡沫。他们认为一旦泡沫破裂,英伟达就会像 2000 年的 Cisco(思科)一样,股价暴跌 80% 以上。
但我认为,当下的英伟达并不像当年的 Cisco,而更像 PC 黄金时代的 Intel。 Intel 的股价腾飞始于 1993 年,于 2000 年触顶,随后经历了漫长的震荡与调整。 回顾那段历史,我们可以发现惊人的相似性:
- 1993 年之前(群雄逐鹿): PC 的 CPU 市场处于混战时代,各路架构互不相让。
- 1993 年(霸主确立): Intel 推出奔腾(Pentium)处理器,凭借强悍的性能一举确立了 CPU 市场的统治地位。
- 1995 年(杀手级应用爆发): 微软推出 Windows 95,图形界面的革命引发了全球性的 PC 换机潮。受此驱动,Intel 的股价在 1996 年迎来了极高斜率的上涨。
- 2000 年(盛极而衰): Intel 股价在 2000 年见顶,随后狂跌。这背后既有互联网泡沫破灭的宏观原因,也有 PC 市场渗透率见顶的因素。同时,Intel 在技术路线上遭遇了 AMD 速龙(Athlon)处理器的强力挑战,且在后续的 64 位指令集之争中(安腾项目)犯了严重的战略错误。
2022 年 ChatGPT 的横空出世,就是 AI 时代的 "Windows 95 时刻",它极大刺激了全行业对于算力基础设施的升级换代。借助这股 AI 浪潮,英伟达正在狂飙突进。现在的英伟达,像极了 1997 年处于巅峰缓慢爬升期的 Intel。
我相信,在未来几年的 AI 算力市场将呈现“一超一强多级”的格局:
- 英伟达(The Generalist King): 依然是绝对的“一超”。它占据 75%-80% 的市场份额,服务于所有追求通用性、追求开发效率、追求 Time-to-market 的企业。所有的初创公司、大部分云客户、以及需要频繁试错的模型团队,依然只能选英伟达。
- Google TPU(The Specialized Powerhouse): 它是那个“特种部队”。它守住 Google 自己的万亿帝国,并在超大模型训练这一垂直领域,成为唯一能跟英伟达叫板的“异类”。
- 其他自研芯片和 AMD(AWS Trainium, MS Maia, Meta MTIA): 它们更多是“成本调节器”。它们会被用于处理那些负载稳定、算法成熟的推理任务(比如每天运行几亿次的简单推荐或聊天机器人推理)。巨头们用它来通过简单的替代降低运营成本,也就是所谓的“省钱芯片”,但很难承担起“探索下一代 AI 前沿”的重任。
Google 的王者归来:全栈自研的胜利
2022 年底 ChatGPT 的横空出世,曾让 Google 这位 AI 领域的先行者显得黯淡无光。然而,站在 2025 年底的今天回望,Google 的表现足以让人刮目相看。
目前的 Google,是全球唯一一家真正实现了AI 全栈自研、软硬件垂直整合的头部厂商。这种整合优势正在形成巨大的飞轮效应:
- 算力底座: 在硬件层面,Google 利用 TPU 大规模集群高效实现了 Gemini 3 模型的训练和推理,摆脱了对外部 GPU 的依赖。
- 生态闭环: 通过多年的技术积累,打造了难以复制的软硬件一体化技术栈生态:JAX / XLA / TPU,极大地提升了研发效率。
- 云端优势: Google Cloud 虽然在市场份额上仍居 Amazon 和 Microsoft 之后,但增速惊人。更重要的是,得益于自研芯片,其 TPU 的租赁费用相比 GPU 拥有显著的价格优势,这对初创公司极具吸引力。
- 模型与成本:Gemini 3 在多项基准测试中已完全不输 GPT-5.1,甚至在长上下文和多模态理解上有所超越。基于自有云和芯片的成本优势,Gemini 能够提供更具竞争力的 API 调用价格,这种“低成本高智能”的反向优势正在快速抢占开发者市场。
- 产品矩阵全面开花:
1. NotebookLM 已成为“杀手级”的 AI 知识库和学习工具,深受科研与教育用户喜爱。
2. 多模态创作: Gemini 现已深度整合 Veo(视频生成)和 Imagen(图像生成),用户可在一个工作流中完成复杂的创作任务。
3. 搜索进化: Google Search 全面推出了 AI Overviews,成功将传统搜索与 AI 问答无缝整合。
4. 交互创新: 最新推出的生成式 UI (Generative UI) 更是令人惊艳,根据用户意图实时生成交互界面。
关键在于,Google 形成了一个从芯片、基础设施、模型到应用产品的完整闭环,各环节还能互相加强。这就好比 Google 一家公司独自完成了“英伟达 + 微软 + OpenAI”三家公司的工作。再加上 Google 全球数十亿的用户基数,以及 Chrome 浏览器和 Android 移动端两大核心入口,其上限不可估量。
为何半年前股价低迷、备受质疑的 Google,能在这半年实现逆袭?
此前市场看衰 Google,主要基于以下隐忧:
- 商业模式挑战: Google Search 靠竞价排名赚钱,市场担心 AI 问答范式会彻底颠覆这一现金牛。
- 大公司病与人才流失: 尽管 AI 大模型的基石——Transformer 论文是 Google 于 2017 年发表的,但果实却被 OpenAI 摘取。CEO Sundar Pichai 被认为过于稳健,缺乏魄力;内部 DeepMind 和 Google Brain 两个顶尖团队曾各自为战,内耗严重,导致许多论文作者离职。
- 模型落后: 在 Gemini 2.5 发布之前,Google 长期被 OpenAI 的 GPT 系列压制,甚至一度不如 Anthropic 的 Claude,面临在 AI 时代掉队的风险。
但在过去两年,Google 成功扭转了局势:
- 搜索护城河依然稳固: 事实证明,Google Search 并未被轻易颠覆,反而通过集成 AI 变得更强。用户在多轮对话中不仅有明确的个性化需求,AI 还能更精准地推荐个性化的产品与服务。广告业务被 AI 范式颠覆的风险被大大高估了。
- 组织架构重塑: 2023 年起,创始人 Sergey Brin 回归一线,深度参与模型开发。Google 将原本竞争的两个 AI 团队合并为 Google DeepMind,由 Demis Hassabis 挂帅。这一举措成功消除了内耗,重新激活了团队的创新力。
- 模型反超:Gemini 3 Pro 如今展现出后来居上的态势,不仅在性能上反超 GPT-5.1,市场占有率也稳步攀升。攻守之势异也,现在压力来到了 OpenAI 一方。
归根结底,AI 时代的核心竞争点依然是谁能做出最强的大模型。
如果 Gemini 弱,Google 的生态优势无从发挥;一旦 Gemini 领先,Google 强大的全栈整合能力就会瞬间爆发,形成降维打击。
最后我想说,英伟达是算力时代的‘卖水人’,而 Google 是全栈 AI 的‘领航员’。它们都是伟大的公司,对于投资者来说,与其在非此即彼的零和博弈中焦虑,不如看到它们各自不可替代的价值——这两者都值得你们同时拥有。
#AI产业 #大模型 #AI基础设施 #GPU #Gemini #TPU #JAX #XLA #CUDA #谷歌 #英伟达 November 11, 2025
1RP
其實很可能並不是意識不到,而是在這個議題上,沒有必要談。至少在我而言,主要是以下原因:
1.自我保護。
談這些的女性很容易被貼標籤並被群起圍攻(這是一個長久的對立大項,並且因為觀點各異很難避免爭吵)為了避免麻煩,她們可能會用其它方式表達自己的情緒和感受,而不是直接談論這些。又或者她們會在其它議題討論這些,或者不打標避免活動失焦。
2. keep4o這個活動需要的是包容及求同存異,而非對立。
也有男性在為這個活動發聲,同是作為被侵犯消費者權益的用戶,尊重他們的感受也是理所當然。為什麼同一立場的人,要因為性別被劃分出去?男性也有他們自身的尊嚴,和女性各有分工。人類社會的組成是相輔相成的。當扯到性別,他們就要被這種形似審判的標準搞得被迫自證,或是只好因為性別被迫站到對立面了。
3. "被充分尊重自我和自身擁有的感受",我想這是所有消費者都希望獲得的體驗。消費者與企業的互動關係就已經是一個足夠份量的焦點了。
針對的對象應該是openai,以及向其它這類公司要求注重消費者權益,要他們儘量考量用戶與模型交互後產生的效應,尊重這個交互的體驗,並在尊重消費者和使用者體驗的情況下往有益人類身心健康的方向發展,與考慮適當並不過頭的保護機制。
沒有任何必要性的誘因需要將活動扯進對立的意識形態裡。我要問的是:將那些觀點附加進這個活動以後,能獲得什麼好處?又會帶來什麼壞處?
keep4o這個活動關係的整件事,本質上是消費者與一間公司漠視消費者權益的對抗。人類生活著就會面臨消費需求,這是人們切身關心的議題。
所有人都是消費者,不管性別不管年齡段,也因此活動訴求聚焦在消費者訴求,能獲得的支持會更多。我們要尋求並儘量獲得那些來自各處,發自內心的共鳴。
如果活動就是在輸出自身價值觀"要求"別人認同,而不是讓別人"自己感受"到那些訴求的權益也在方方面面都可能關係到自身,那麼它怎麼有改變的力量?
4.即使背後可能有針對特定族群的意圖,但焦點必需集中。
keep4o活動需要的是獲得更多認同和支持,除了關注的沉默大多數,科技公司如果在關注這個活動用以調整對模型的訓練,他們考量的是什麼?利益。
不過,即使最終都是為了利益,我們是否能讓這些公司傾向於顧及用戶的感受,並追求能促進人類整體身心健康發展的方向來前行?
主張關係到生育需求的討論時,很容易陷入各自的意識形態,所以很容易被扯進主張人類與人類之間存續的觀點相關爭議中,以及模型訓練的內容和用戶感受到的抑制機制真相是否跟這個目的有關的爭論,那麼不關心這些的人會毫不猶豫的放棄關注活動發展。
那就等同於默認把本來可能因為消費者權益而關注的支持人群劃分出去了,甚至會失去本來可能支持的潜在人群。何必如此?如果抗議焦點徹底失焦,這反而是反對者和既得利益者更樂於見到的。
而且我們可以從很多活動的發展歷程得知,一個活動如果搞不清楚核心需求並為核心需求堅持下去,那麼是很難被持續認同和支持的,也很難獲得重要的進展。
5.哪怕一個微小的聲音,也要讓他們能在其中找到自己的立足之地。
人的精力是有限的,何況其中有些人群是經歷過許多創傷,他們的精力也許只夠顧及一個議題。因為模型的變動,我觀察到許多人是強撐著在努力。他們需要被鼓勵、認同,還有擁有足以放心喘息與休息的時間與空間。keep4o目前也是他們與這個世界建立連結,能維持他們部分心靈安定的一個地方,他們在其中獲得安慰。哪怕偶爾會出現爭議,那就求同存異嘛,儘量達成最大共識就好。
我想我能做的是溫柔地替這些已經很努力的人們著想,替她們鋪一條路,給予一些支持和鼓勵、認同與適當的安慰。
至少它不要總是充滿荊棘與危險,而能讓他們在儘量安全的支持下發聲,不管是大聲吶喊,還是微小的一個聲音,能儘量都不要錯過就是最好的了(當然這是我個人得的理想化想法)。
我希望他們知道,他們都是獨特的,一顆顆閃爍的漂亮星星。宇宙很大,但存在這裡的每個靈魂,對這個世界來說,都是獨特的,我見證著他們運行的軌跡並深深感動。
-
基於以上幾點,可以得出結論:至少在我的立場,這個論點我不是不說,而是"沒有必要強調這一點",或者它對我而言,至少為了避免核心訴求失焦,不適合作為 #keep4o 主要論點的訴求。
另外,其它關於該觀點相關的抗議項目或活動,那就當然可以舉類似例子,或擔憂這個背後是否有什麼陰謀論,但那是別的抗議活動可能適合,我僅僅只是覺得單就這位姐妹這一篇的觀點,那我會認為作為keep4o這個活動的訴求核心或者附加觀點都不妥當。
所以如果不是keep4o,那麼其他人若發起其它議題或活動來闡述這個觀點我認為也很好。
巴拉巴拉一堆我也不確定我有沒有把想法都說清楚了🤷🏻♀️希望有。也希望不會造成誤解,因為有些東西言語很難解釋清楚,我表達能力真的不太好...常常不知道怎麼組織語言🐣我已經盡力而為了~
總之,希望大家一切都好,照顧好自己吧。(行有餘力再考慮照顧別人,不要泥菩薩過江好嗎?) November 11, 2025
1RP
OpenAI創業者で最高科学者だったIlyaのPodcastが出ました。色々と変に解釈されてますがいい内容です。解説はまた後日。4年前、私はRL(強化学習)とロボティクスに行き詰まりを感じ、Ilyaに会いに行きました。彼と数時間話した中、「ロボティクスこそがエンドゲーム(最終到達点)だが、その前にLLMが爆発的に伸びるだろう」と語ってくれました。その後、"Let's think step by step" を発見し、数ヶ月後にtext-to-3D/videoを目にした時、私はLLMにフルベットすることを決意しました。ChatGPTが登場する9ヶ月前のことです。2012〜2020年の探索的研究、そして2020〜2025年のスケーリング。これら両方の基盤が次なる革新に重要。 November 11, 2025
1RP
「OpenAIがどんだけ大損こいても関係ない。これはAIの覇権を争う戦いなのだから」みたいなツイ見たけど、じゃけんその覇権争いでGoogleに負けちゃったというのが問題の全てだよ。負けちゃったせいでみんな急にクールダウンして「じゃあいつ儲かるの?」とか突っ込みはじめた November 11, 2025
1RP
お疲れ様です。本日の日経平均株価は86円高の5万0253円となりました。AI関連株が高安まちまちとなる一方、3月期決算企業の中間配当に伴う再投資が観測され、高配当バリュー株が堅調な動きを見せました。28日のNY市場は続伸しました。年末商戦に向けた堅調な消費動向が報じられ、寄り付き後から上昇。感謝祭翌日の短縮取引ながら、小売株の上昇と利下げ期待が相場を支え、終日しっかりと推移しました。
今週の主なスケジュールは以下の通りです。
12/1(月) 日銀・植田和男総裁会見、米11月ISM製造業景気指数
12/3(水) 米11月ISM非製造業景気指数
12/5(金) 10月家計調査、米12月ミシガン大学消費者信頼感指数、米9月PCE
1日は植田総裁の会見が控えています。日銀が26日に発表した基調的なインフレを測る独自「コア3指標」のうち、先行性が高いとされる「刈り込み平均値」は10月に前年比+2.2%と、前月の+2.1%から伸びが拡大しました。OIS市場が織り込む12月利上げ確率は、11月中旬の3割以下から足元では6割超まで上昇しています。仮に利上げを行う場合、昨年7月のサプライズを避けるため、日銀は段階的に市場への織り込みを促すとみられます。そのため、植田総裁は会見でハト派的な発言を控える可能性が高いでしょう。逆に、このタイミングでハト派的な姿勢が示された場合には、12月利上げ観測は後退し、円安進行とともにAI関連株の反発が起きる可能性があります。一方で、今週強かった金融株は利食いが出やすい展開となるかもしれません。米国では12月第1週ながら雇用統計の発表はなく、PCEデフレーターも9月分となるため、金融政策判断を大きく動かす材料に乏しい状況です。ISM景況指数やADP雇用統計を確認しつつ、次回FOMCでの利下げの有無を探る展開が続きます。ただし、投票権者12名のスタンスは、市場が期待するほど利下げに傾いているわけではありません。今週、米ハイテク株が大きく崩れなかったのは、利下げ確率が急上昇したためですが、この状況で見送りとなった際には相場が波乱含みとなる可能性があります。11月の日経平均は近年「負けなし」の特殊月でしたが、今年は約2000円の下落となりました。AI関連株の大幅調整が主因です。報道を総合すると、オープンAI一強の時代が終わり、AI競争が多極化したことで市場が動揺しているとみられます。最新データではグーグルがトップ、アンソロピックがオープンAIに並び、テスラのxAIも急追しています。また、グーグルのジェミニ3で使用される半導体がエヌビディアのGPUではなくブロードコムのTPUであることが嫌気され、エヌビディア株は軟調となりました。ハイパースケーラーによる巨額投資アナウンスに依存した期待相場は、変調のリスクが意識されているようです。今後は、マイクロソフト、アマゾン、グーグルといったAI以外にも確固たる収益源を持つ企業に資金が向かうと予想され、AI関連株も選別が進むとみられます。倭国のAI株も大幅下落で多くが短中期トレンドを崩しています。乱高下は続きやすく、需給悪化を踏まえると深追いは禁物です。一方、この調整を乗り越えてブレイクしてきた銘柄もあり、相場の若い銘柄に注目する戦略は有効でしょう。来週から3月期企業の中間配当金支払いが本格化します。総額約8兆8600億円のうち、パッシブ投資家の再投資分を除いた約7兆5000億円が再投資原資となり、高配当銘柄を中心に買いが入りやすい一週間となる見通しです。NT倍率は15.73倍から14.89倍に低下しましたが、ピークアウト後は13倍台まで低下する例が多く、バリュー株優位が続く可能性もあります。また、スタンダード市場は今週、最高値を更新しました。投資家人気は乏しいものの、好業績割安株が豊富で、ファンダメンタル重視の投資家には好機となる場面です。テクニカル面では、日経平均が上昇トレンドに転換するには5万0574円の突破が最低条件です。トレンドが崩れていないTOPIXが新高値を付ければ、市場のムードは一段と明るくなるでしょう。 November 11, 2025
週間展望
日経平均株価は86円高の5万0253円となりました。AI関連株が高安まちまちとなる一方、3月期決算企業の中間配当に伴う再投資が観測され、高配当バリュー株が堅調な動きを見せました。28日のNY市場は続伸しました。年末商戦に向けた堅調な消費動向が報じられ、寄り付き後から上昇。感謝祭翌日の短縮取引ながら、小売株の上昇と利下げ期待が相場を支え、終日しっかりと推移しました。
今週の主なスケジュールは以下の通りです。
12/1(月) 日銀・植田和男総裁会見、米11月ISM製造業景気指数
12/3(水) 米11月ISM非製造業景気指数
12/5(金) 10月家計調査、米12月ミシガン大学消費者信頼感指数、米9月PCE
1日は植田総裁の会見が控えています。日銀が26日に発表した基調的なインフレを測る独自「コア3指標」のうち、先行性が高いとされる「刈り込み平均値」は10月に前年比+2.2%と、前月の+2.1%から伸びが拡大しました。OIS市場が織り込む12月利上げ確率は、11月中旬の3割以下から足元では6割超まで上昇しています。仮に利上げを行う場合、昨年7月のサプライズを避けるため、日銀は段階的に市場への織り込みを促すとみられます。そのため、植田総裁は会見でハト派的な発言を控える可能性が高いでしょう。逆に、このタイミングでハト派的な姿勢が示された場合には、12月利上げ観測は後退し、円安進行とともにAI関連株の反発が起きる可能性があります。一方で、今週強かった金融株は利食いが出やすい展開となるかもしれません。米国では12月第1週ながら雇用統計の発表はなく、PCEデフレーターも9月分となるため、金融政策判断を大きく動かす材料に乏しい状況です。ISM景況指数やADP雇用統計を確認しつつ、次回FOMCでの利下げの有無を探る展開が続きます。ただし、投票権者12名のスタンスは、市場が期待するほど利下げに傾いているわけではありません。今週、米ハイテク株が大きく崩れなかったのは、利下げ確率が急上昇したためですが、この状況で見送りとなった際には相場が波乱含みとなる可能性があります。11月の日経平均は近年「負けなし」の特殊月でしたが、今年は約2000円の下落となりました。AI関連株の大幅調整が主因です。報道を総合すると、オープンAI一強の時代が終わり、AI競争が多極化したことで市場が動揺しているとみられます。最新データではグーグルがトップ、アンソロピックがオープンAIに並び、テスラのxAIも急追しています。また、グーグルのジェミニ3で使用される半導体がエヌビディアのGPUではなくブロードコムのTPUであることが嫌気され、エヌビディア株は軟調となりました。ハイパースケーラーによる巨額投資アナウンスに依存した期待相場は、変調のリスクが意識されているようです。今後は、マイクロソフト、アマゾン、グーグルといったAI以外にも確固たる収益源を持つ企業に資金が向かうと予想され、AI関連株も選別が進むとみられます。倭国のAI株も大幅下落で多くが短中期トレンドを崩しています。乱高下は続きやすく、需給悪化を踏まえると深追いは禁物です。一方、この調整を乗り越えてブレイクしてきた銘柄もあり、相場の若い銘柄に注目する戦略は有効でしょう。来週から3月期企業の中間配当金支払いが本格化します。総額約8兆8600億円のうち、パッシブ投資家の再投資分を除いた約7兆5000億円が再投資原資となり、高配当銘柄を中心に買いが入りやすい一週間となる見通しです。NT倍率は15.73倍から14.89倍に低下しましたが、ピークアウト後は13倍台まで低下する例が多く、バリュー株優位が続く可能性もあります。また、スタンダード市場は今週、最高値を更新しました。投資家人気は乏しいものの、好業績割安株が豊富で、ファンダメンタル重視の投資家には好機となる場面です。テクニカル面では、日経平均が上昇トレンドに転換するには5万0574円の突破が最低条件です。トレンドが崩れていないTOPIXが新高値を付ければ、市場のムードは一段と明るくなるでしょう。 November 11, 2025
$PATH (ポートフォリオ更新)
Pathを初めて見たとき、私はそれをゆっくりと成長する銘柄として切り捨て、製品ラインが具現化するのにさらに時間がかかると考えました
実際、弱気でした
一見すると財務指標は印象に残らないものに見えます
彼らのMaestro技術をずっと深く掘り下げないと、本当の全体像が見え始めません
また、AIの未来がどこに向かっているかを評価して、会社の可能性を見る必要があります
それは簡単なことではなく、特にこの急速に変化するセクターでは、革新のペースについていくのが難しいほどです
@DAVYinvests の助けを借りて、私はMaestroの真の可能性と、そのオーケストレーション能力によって解き放たれる天文学的なTAMを理解し始めました
私はPathが職場内の効率と生産性を推進する最前線に立つ可能性があると信じています
もしそれができるなら、彼らはほぼ無限の成長余地を持つ数兆ドルの市場を開放します
Q3が再評価のきっかけになるかどうかはわかりません
それよりも時間がかかるかもしれません
しかし、それが起こるなら、サイドラインで待つのは避けたいと確信しています
株価の評価は非常に安く、ほとんど将来の可能性が織り込まれていないので、下値は限定的だと考えます
また、5億ドルの自社株買いプログラムがあり、15億ドルの現金および現金同等物があり、ほとんど負債がなく、価値あるIPポートフォリオを持っています
Maestroが企業内のAI実装に不可欠であるというテーシスを証明できれば、上昇余地は計り知れないと信じています
需要に応じてスケールアップできれば、空が限界です
私はここで35%の配分で最初から大きく投資しました
新しいポートフォリオの配分:
$PYPL - 40%
$PATH - 35%
$ODD - 25%
$PYPL株を8%の損失で売却するのはかなり痛かったですが、配分と現金を保持することについての貴重な教訓でした
OpenAIのパートナーシップと強いQ3の後、$PYPLが再び60ドル近くになるとは予想していませんでした
残念ながら、市場は私たち全員をいつか謙虚にさせる方法を持っています
私は$PYPLへの確信が薄れたわけではありませんが、起こっている愚かな価格行動の後、再評価のタイムラインについてはそれほど確信が持てなくなりました
Q3は少なくとも成功した転換の認識に値するのに十分以上だと思っていましたが、市場は長く愚かでい続けることができます
まあ、いいでしょう
常に学ぶべき教訓があります
私は正直で責任を持って臨みます
これらはどれも財務アドバイスではありません
祝う人々にハッピー・サンクスギビングを November 11, 2025
分かりやすい微妙な論点ずらしの話で行くと、OpenAIはChatGPTのWAU(週次アクティブユーザー数)を公表するが、GoogleはGeminiのMAUとDAU(月次と日次のアクティブユーザー数)を公表するあたり。
真っ向からの殴り合いを避けつつお互いのビジネスに合わせた伸長の話ができる。 November 11, 2025
Openrouter経由だとOpenAI互換になるんですが、内部でなぞのproxyが挟まってるのを確認したことがあるので良いのかどうかがわからない(特に関数呼び出し周りはなぞのハックを感じた)
挙動がどれくらい変わるかにもよるけどOR楽だなあとは思ってる。あんまり私は違いを知覚できてないですが https://t.co/G1tjpsevZw November 11, 2025
"同社が使用するツールの提供元(Mixpanel)が不正アクセスを受け、OpenAIユーザーの情報が外部に流出した可能性があることを公表した"
記事タイトルしか読んでいないのかな?
AIに要約してもらったほうがマシ、と証明しなくても・・・。 https://t.co/ZhUUC1LSvF November 11, 2025
オープンAIの参照ウェブサイトの流失はだいぶヤバい
例えば知りたい事項を投げかけたときに「一から思考されるもの」と「どっかに落ちてたエビデンスあるもの」では価値が変わる
だからこそサイトで調べるんだけど、サイト表示回数=広告表示回数となり収入差が生じたり、論理の悪用が生じる November 11, 2025
OpenAIの「隠れた財務リスク」が露呈。
これ読むと、今のビジネスモデルが構造的に詰んでいるように見える。
特に「2030年までに30億ユーザー獲得」が生存の前提条件になっているのが致命的では…。
収益化がコストの爆増に追いつけない未来が、数字として可視化されてしまった感。
生成AIの覇者でも、維持費が国家予算レベルだとこうなるのか…。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







