累ーかさねー 映画
0post
2025.11.30 06:00
:0% :0% (-/男性)
人気のポスト ※表示されているRP数は特定時点のものです
1.不要可怜任何人,你瞪大眼睛仔细去看,可怜之人必有可恨之处。
2.任何时候都不要撕破脸,也不要选 择 报复,烂掉的果子自然会从树上掉下来。不要和重要的人计较不重要的事,不要和不重要的人计较重要的事。记住,你的人品就是你最好的运气,你的心态就是你最好的风。
3.形象一定要走在能力前面,不然你的能力很容易被低估,没有拾残局的能力,就不要放纵善变的情绪。
4.不要把秘密告诉好朋友,因为好朋友也有好朋友,保护自己最佳的方式就是从不高估自己在别人心中的分量,不要对一个人太好,时间久了会变成理所当然。
5.太闲的男人不能交朋友,要么 捞偏门,要么就是败家子。太忙的女人不要轻易去聊,要么身价不菲,要么伤痕累累。
6.依赖任何人,都是在自杀。你要明白,大树底下无大草,能为你遮风挡雨,同样也能让你不见天日。
7.求人办事,关系再好,也要让对方得到利益,没有.把握的事不要立刻答应,有 把握的事更不要立刻答应。
8.没事少发朋友圈,太高调的人总有一天会毁了自己。 前车尽量不外借,五人以上的酒局尽量不参与。
9.跟小人来往,勤打招呼,少说话,不深交,但也不绝交。对讨厌的人露出微笑,是我们必须学会的恶心。
10.不要告诉任何人你的实际存款,记住是任何人。
11.没有人主动联系你,说明你在别人眼里没有一点价值,没有价值的交换,就很难成为真正的朋友。不管任何关系,只要对方做事前不考虑你的感受和利益时,你就该及时止.损的。
12.水太深,风太大,没有实力少说话。不要袋一热就跟别人掏心掏肺,否则你迟早会后悔。
13.不要花太多的时间去处理关系,有了钱,有了本事, 一切都顺畅。如果不顺畅,是因为钱和本事还不够,一切关系都是利益,利在哪里,人心就在哪里。
14.旅游回来不要主动说出去,你分享的是快乐,别人听到的是炫耀。朋友亲戚家的孩子再不对也别教育,教育人家孩子等于打人家脸。
15.与领导单独相处时,多倾听,少说话,这是谨慎。同时向你抱怨时,是附和不表态,这是明智。任何时候都少提建议,看不清楚局势的时候不要入局,做一个局外人。
16.进入新环境要注意低调,克制反驳欲,学会赞美和闭嘴。别人问一句你回十句的毛病要改。别人一对你好你就掏心掏肺的毛病要改。
17.你开10万的车,他开劳斯莱斯,你请他吃饭就是无效社交。
18.尽量不要让别人知道你的状态,无论好与坏,好了有人嫉妒,坏了有人嘲笑。
19.想要跟周围的人搞好关系,就永远不要跟他们分享成功的喜悦和开心的事,对于刚认识的人不要太热情,你越热情别人越瞧不上你。
20.找媳妇不要找太漂亮的,.没有实力会被很多人惦记婚前发生多少次关系只能心里有数,婚后要远离对自己有好感的异性。
21.学会闷声发大财。事没做成之前,谁都不要说人性, 就是恨你有,笑你无,嫌你穷,怕你富。管好嘴巴,不说自己的目标,不说自己的钱财,不说自己的家事,不说自己的错事,守住这四个秘密,免灾祸,远是非。
22.不管谁家有事,只要没通知你那就一律装作不知道, 事后也别追问,亲戚朋友请客吃饭没有邀请你装作不知道,更不要去打听。多年不 联系的人突然发来消息当做没看见不回复。
23.说话就是为了让人舒服,不是让人尴尬,千万不要以为实话实说是直爽。
24.邻居不做朋友熟人介绍的工作别去,不要得罪领导身边的红人。
25.亲戚问你工资,一律回答够生活。同事问,一律回答跟你差不多。人有干面,心有干变,知道的不要全说, 听到的不要全信。
26.与你翻脸之人,无论是亲戚还是朋友,无法再回到往昔。坑过你的人一定要远离,不然有机会他还会再坑你。
27.不要跟好朋友一起做生意,朋友不共财共财断往来, 不要随便给别人出主意,成了你不一定有功,败了你一定有错。
28.别人不开口请.你帮忙,尽量不要主动帮忙,做人不能太老实,再好的朋友也有可能出卖你,越低调的人越危险。记住,咬人的狗是从来不叫的。不要和任何人走的太近,时间久了,你会发现,所有的损失都是熟人干的。 November 11, 2025
4RP
這就是所謂層累造成了,年輕時代的發明與年老時代衝突,因為年輕時野心還小,發明的祖先也差一點,以後做大了,就重新發明。史家在亡國以後整理資料,抽取了不同來源的發明。
漢末宗室很多,劉虞劉表劉焉的祖先都很單純,例如劉表就是魯王後裔降為侯爵再降為平民,然後就是一條線都在山陽。長沙王也是降為侯爵再降為平民,延伸到劉秀兄弟的。只有劉備的幾條線是相互矛盾的,還有奪侯以後再封侯,父子封邑封號不同的荒謬紀錄,根本違反兩漢政治和社會常態,明顯是裁剪拼接的產物。
如果臨邑侯的出身為真,他的起點就應該跟劉表相同。如果中山王的家譜為真,他的起點就應該跟劉虞劉焉相同。
事實上,他的起點要低得多。跟公孫瓚相同,也就是次要豪強的出身。當然,也不是無產階級。
門閥社會,起家官不會騙人。如果不是亂世,起家官的高低已經決定了一生能夠達到的最高官職。
從陳壽到司馬光,正史都不承認劉備的皇族資格,同時承認劉秀劉表等人,承認東漢是漢,蜀漢和成漢後漢都不是漢。司馬光對蜀漢的不承認論述,是當時的主流意見。
南宋部分儒生提出蜀漢正統倫,是為了反金維護南宋,純粹是意識形態的尊王攘夷論,沒有任何考據證據。 November 11, 2025
1RP
女人对男人爱的极致是赤裸身体,男人对女人爱的极致是赤裸灵魂。性不是爱,约会不是爱,婚姻更不等同于爱。爱是当有一个人目睹了你所有的缺点,很糟糕、很糟糕,但依然选择爱你。或许这就是爱最本来的样子。现实很苦,生活也很累,婚姻但是没有那么容易。聊一下到底爱是什么?以下五点供大家参考:
第一、爱是单纯享受付出,不计回报,你为了那个人付出的过程,你就会很快乐。爱情是你自己的品质,是你自己的心魂,是你自己的处境,跟别人没有关系。喜欢可能是索取,但是爱一定是付出。
第二、爱是我从来没有怪过你,家是不是讲理的地方?很多人聊过,我们不讨论,但是我确定,爱一定不是。两个成年人,三观哪怕再相合,观点哪怕再一致,积年累月的相处,也难免会有磕碰,甚至是会伤害。但真正的爱是从不责怪,事有对错,情没好坏。真的爱了啊,就会就会把对方的一切照单全收,对错与否那是别人的判断。但是在我这里我从来没有怪过你。
第三、爱是自由意志的沉沦,就是当你心中真的有了那个那个深爱的人,你是无法通过理性告诉自己,我不爱他,因为忍不住的才叫爱。所以有一句话说的特别的好,标准都是留给那些不喜欢的人的。当你就是遇到那个对的人,他就是标准。
第四、爱是把你最高的特权给他。一个本来就喜欢独处的人,偏偏给了情愿陪你聊那些无聊话题的权限。一个对全世界都冷酷无情的人,独独给了你心底最温柔的特权。你不要看他有什么,你要看他看他最在乎的是什么。他可以给你钱啊,但是他不在乎钱。所以这不一定是爱,一个人内心深处他最死死的抓住不放的东西。但是为了你,他放手了,你说这不是爱还能是什么?
第五、爱是责任,也是克制。我我从来不觉得爱可以是放纵的借口,相反爱其实可以承载真正的严肃和崇高。这里的克制不是说自己的感情,而是对对方的尊重。情不自禁是爱,不打扰也是爱。总有人嫌你不够好,也有人觉得你哪里都好,所以不用踮起脚尖爱你的人,他自己会弯腰。
还有,就是你听到这里,你看到这里,心中想到的第一个人,这个人一定是你当下真正爱的人。愿你愿你深爱的那个人,同样也深深的爱着你。春朝秋夕,以爱之名,以余生为期。 November 11, 2025
1RP
Google TPU 要干掉英伟达了吗?Meta 被曝将大规模采购 TPU,引发市场震动。但真相是:TPU 能撼动英伟达,却永远无法取代英伟达。这不是性能之争,而是生态、时机与战略的较量。
The Information 的一篇重磅报道把整个 AI 行业给炸了,Meta 正在与 Google 进行秘密谈判,计划大批量采购 Google 的 TPU 芯片,用于部分替代英伟达的 GPU 以支持其庞大的数据中心 AI 运算。
根据报道披露的细节,这盘棋下得很大:
- 2026 年: Meta 将大规模租用 Google 云服务(Google Cloud)上的 TPU 算力进行模型训练;
- 2027 年: Meta 将直接采购数十亿美元的 TPU 芯片,部署于自建的数据中心内。
什么?全球最大的 GPU 采购大户要抛弃英伟达了? Google 的 TPU 居然要走出自家机房,去取代英伟达的 GPU 了吗?
消息一出,资本市场瞬间恐慌了。英伟达股价应声大跌,而 Google 则逆势暴涨,大家都在问:难道英伟达靠 GPU 垄断 AI 数据中心的故事真的讲不下去了吗?TPU 开始逆转了战局了吗?要讲明白这场 GPU vs TPU 的战争,我们要先从英伟达为什么能够像“铁桶”一般垄断 AI 数据中心讲起。
当今的 AI 技术堆栈:一座精密的金字塔
今天的人工智能是一个无比庞大的工业化产业。像 ChatGPT 这样顶尖的 AI 产品,其背后是由一层一层的技术基石堆砌而成的,这在 IT 行业被称为“技术堆栈(Tech Stack)”。
即使采用最粗略的划分方式,要支撑起当下的生成式 AI,至少也包含 5 层关键技术,缺一不可:
- 第一层:算力硬件层(Infrastructure) 这是金字塔的底座,是一切的基础。核心代表毫无疑问是英伟达的 GPU 和 Google 的 TPU。它们提供了 AI 运算所需的庞大算力,就像是工业时代的电力引擎。
- 第二层:系统软件与加速层(System & Compiler) 光有芯片还不够,AI 计算需要成千上万个芯片协同工作。这一层负责调度硬件并优化效率,充当硬件与上层软件的翻译官,它们决定了你能发挥出硬件多少潜能。这一层最典型的护城河技术,就是英伟达的 CUDA,而 Google 的 TPU 也有能够把上层软件编译为 TPU 机器码的 XLA 编译器。
- 第三层:深度学习框架(Deep Learning Frameworks) 想要构建和训练大规模神经网络,开发者不能手搓底层的软件代码,需要成熟的“脚手架”。业界目前最流行的是 META 发起开源软件 PyTorch(目前对 GPU 生态支持最好,是事实标准),以及 Google 发起的开源软件 JAX 和经典的 TensorFlow。
- 第四层:基础大模型(Foundation Models) 这是由深度学习框架训练出来的“超级大脑”,是目前竞争最激烈的战场。
- 语言/多模态模型: 如 OpenAI 的 GPT-5、Google 的 Gemini 3;
- 视频生成模型: 如 OpenAI 的 Sora、Google 的 Veo;
- 图像生成模型: 如 Google 的 Imagen、Midjourney。
- 第五层:AI 应用与交互层(Applications & Agents) 这是用户直接接触的产品。它将底层强大的模型能力封装成人类可以交互的工具。例如 ChatGPT,它的底层核心是 GPT 模型,但它本身是一个增加了对话界面、联网搜索、记忆功能的产品;又比如 Google 的 NotebookLM。
为什么英伟达在 AI 数据中心市场形成了绝对垄断?
我们经常感叹英伟达的 GPU(如 H100、H200、B200)硬件参数如何炸裂,但这只是冰山一角。英伟达之所以能对 AI 数据中心市场形成近乎无解的垄断(市占率一度超过 95%),主要源于以下三个维度的降维打击:
1. 通用性极强的单点算力 英伟达的 GPU 本质上是通用计算加速器(GPGPU)。它不仅能完美覆盖 AI 大模型的训练(Training)和推理(Inference),还能兼顾科学计算(气象模拟、药物研发)、图形渲染甚至加密货币挖掘。这种“一卡多用”的特性,使其成为了数据中心的硬通货——买了永远不亏,不用来炼丹还能用来挖矿(开玩笑,但道理如此)。
2. 恐怖的集群扩展能力(Scale-up & Scale-out) AI 大模型训练不是单打独斗,而是需要成千上万张显卡协同作战。英伟达在这方面做得太绝了:
- 节点内互联:通过独家的 NVLink 技术,英伟达可以将多个 GPU(甚至高达 72 个 GPU 组成的 GB200 NVL72 机柜系统)连接成一个“超级逻辑 GPU”,显存和算力实现无缝共享。
- 节点间互联:通过收购 Mellanox 获得的 InfiniBand 高速网络技术,让成千上万台服务器之间的数据传输快如闪电,解决了大规模集群的通信瓶颈。
3. 真正的护城河:CUDA 软件生态 这是英伟达最难被逾越的壁垒,就像 PC 时代的 Windows 操作系统。
- 底层基石:CUDA 提供了最底层的并行计算库,几乎所有的高性能计算场景都基于此构建,经过了 20 年的打磨。
- 顶层框架:当今统治级的深度学习框架 PyTorch 对 CUDA 提供了最原生的支持。这意味着开发者只需编写几行 Python 代码,就能调用底层强大的算力。
- 生态闭环:围绕 PyTorch/CUDA/GPU 已经形成了一套成熟的“开箱即用”基础设施。
为什么竞争对手很难追赶? 即使竞争对手(如 AMD 或国产芯片厂商)在硬件参数上追平了 H200,依然无法撼动英伟达的地位。因为缺乏庞大的软件生态支持,意味着极高的迁移成本和时间风险。
一个真实的行业痛点(听起来很痛): 目前很多致力于适配非英伟达芯片的 AI 团队都面临着巨大的痛苦。许多针对英伟达 GPU 进行过深度优化的模型(特别是涉及复杂算子或 MoE 架构的模型),一旦迁移到其他芯片平台,往往会面临严重的兼容性问题。
- 开发难:大量算子需要从头手写,费时费力,如同用汇编语言写网页。
- 稳定性差:模型训练过程中经常出现莫名其妙的数值溢出或系统崩溃(Crash)。
在当前的 AI 竞赛中,一次全量模型训练往往耗时数月,成本以千万美元计。如果因为芯片兼容性导致训练中途崩溃几次,浪费的不仅是电费,更是半年甚至一年的宝贵时间窗口。这种巨大的试错成本,是任何一家争分夺秒的 AI 公司都无法承受的。传言某国内顶级 AI 模型就是因为在国产芯片上训练下一代模型频繁崩溃,导致一直难产,真的是太痛了。
这就是为什么英伟达在 AI 数据中心市场越成功,行业对其路径依赖就越严重——因为没有人敢承担离开英伟达的代价。
Google 的 TPU 又是怎么崛起的?
尽管英伟达的统治力无可争议,但是 Google TPU 却是个异类,它不仅活下来了,还活得很好,已在 AI 顶级赛道站稳脚跟。
首先,TPU 已经用实战成绩证明了自己在 AI 大模型训练和推理领域的成功:
- Google 本家基石: Google 最强的 Gemini 系列模型,完全基于 TPU 进行训练和推理;
- 独角兽的选择: 顶级 AI 公司 Anthropic (Claude) 在 Google Cloud 上大规模使用了 TPU 算力;
- 科技巨头的背书: 就连 Apple 在训练其 Apple Intelligence 基础模型时,也公开表示使用了 Google 的 TPU v4 和 v5p 集群,而非英伟达 GPU。
那么,在英伟达已经成为绝对霸主的情况下,Google TPU 凭什么能异军突起?我们不妨对照英伟达成功的三个维度来深度解析:
1. 算力哲学:极度通用 vs 极致专用 英伟达 GPU 的强大在于“通用性”。而 Google TPU 从 2012 年设计之初,就是为了特定用途——大规模矩阵乘法而生。 现在的 AI 大模型训练,本质上就是在大规模地做矩阵乘法。因为放弃了图形渲染等通用功能,TPU 的芯片设计得以大幅简化,从而在“矩阵计算”这单一场景下取得了极致的能效比和性能表现。
2. 互联技术:电互联 vs 光互联 (OCS) 英伟达在服务器间的高速互联(NVLink/InfiniBand)上表现出色,覆盖了从单机多卡到万卡集群的广泛场景。 而 Google TPU 另辟蹊径,主攻超大规模集群互联。Google 引入了独特的 OCS(光路交换)技术,用光互联将成千上万颗 TPU 动态编织在一起。最新的 TPU v5p 单个 Pod 即可容纳 8960 颗芯片,甚至可以通过光互联扩展至数万卡的超级集群。这种架构在大规模并行训练中,展现出了极高的带宽利用率和灵活性,且布线极其整洁。
3. 软件生态:CUDA 帝国 vs JAX/XLA 新势力 英伟达的 CUDA 和 PyTorch 让 AI 开发变得“开箱即用”,这是其最大的护城河。但 Google 经过多年深耕,也打磨出了一套极为硬核的软件栈:
- XLA (2016): 一个强大的编译器,能将计算图直接编译为 TPU 机器码,榨干硬件性能。
- JAX (2018): 一个旨在替代 TensorFlow 的前沿框架。
对比 PyTorch: PyTorch 是面向对象编程,符合人类直觉,简单易用;而 JAX 是函数式编程,学习曲线陡峭,但在处理超大规模并行计算时具有先天优势,代码更简洁,数学表达更纯粹。
跨界打击: JAX 的优秀甚至溢出了 TPU 生态。如马斯克的 xAI 虽然使用的是英伟达 H100 集群,但为了追求对硬件性能的极致压榨,在训练 Grok 模型时并没有使用 PyTorch,而是选择了 JAX。
总结:生态位的胜利 经过多年的演化,在超大模型训练这一“皇冠上的明珠”场景下,JAX + XLA + TPU 技术栈已经形成了一个完整的闭环。它不仅被验证是成功的,甚至在某些超大规模场景下,能取得比 Pytorch + CUDA + GPU 更优的能效比。在 Google Cloud 上,TPU 的 token 成本定价低于英伟达 GPU,就是最好的证明。这也是 Google Cloud 在云计算市场竞争中的秘密武器。总之:
英伟达 vs Google:两种技术哲学的碰撞
- 应用场景: 通用型霸主 vs 超大模型专用特种兵
- 软件门槛: 低门槛的群众基础 vs 高门槛的专家利器
- 商业模式: 庞大的全行业生态 vs 垂直整合的自研闭环
如果说英伟达就像一辆豪华的全能越野车,哪里都能去,谁都能开,到处都有维修店;那么 Google 就像一辆定制的 F1 方程式赛车,只能跑赛道,赛车手才能开。大多数人买车首选 SUV(英伟达),因为方便、省心;但在争夺世界冠军的顶级赛场上,追求极致速度的车队(如 Google、xAI、Anthropic)会考虑使用 F1 赛车(TPU)。
Google TPU 能干掉英伟达吗?
照你这么说的话,Google TPU 岂不是已经成功挑战英伟达,打破了英伟达 GPU 的绝对垄断地位吗?事情没有那么简单。
1. TPU 的局限性与 Google 的双重身份 前面提到 Google TPU 极其擅长超大模型的训练/推理以及大规模推荐系统,但在通用性上,其他场景要么根本不适用,要么能效比不如英伟达 GPU。 对于 Google 庞大的产品线(YouTube、Search、Cloud)来说,对通用 GPU 的需求依然是海量的。因此,Google 一边自研 TPU,一边依然是英伟达 GPU 的全球采购大户。这一点在未来几年内都不会改变。
2. 迁移成本高昂的“生态墙” 尽管在超大模型场景下,JAX + XLA + TPU 的技术栈能取得显著优势,但这要求你必须“从零开始”就拥抱 Google 生态。 如果现有的项目是基于 PyTorch 和 CUDA 深度优化的,想要迁移到 TPU,约等于重写底层代码并进行大规模兼容性测试。这种“重起炉灶”的时间成本和工程风险,足以让绝大多数企业望而却步。
因此目前来看,Google TPU 的用户群体画像非常清晰,主要就两类:一是高校科研(科学计算),二是超大模型的训练和推理。
为什么 TPU 会有很多科学计算用户? 这是因为 Google Cloud 长期为高校科研开放免费的 TPU 资源(TPU Research Cloud),加上极度好用的 Colab 服务(免费提供 TPU/GPU 算力),在学术界圈粉无数,培养了一大批习惯 TPU 的科研生力军。
那么,超大模型领域的潜在客户呢? 我们逐一分析市面上的两类大客户:
- 大型云计算厂商: Amazon, Microsoft, Oracle 以及 CoreWeave 等新兴 GPU 云厂商。
- AI 大模型厂商: OpenAI, Anthropic, xAI, Meta 等。
大型云计算厂商(Amazon, Microsoft)本身就是 Google Cloud 的死对头,且都在自研芯片(Trainium, Maia),绝无可能去买对手的算力。而 Oracle 和 CoreWeave 早就通过深度绑定英伟达赚得盆满钵满,是英伟达的铁杆盟友。
AI 大模型厂商呢?
- OpenAI: Google Gemini 的头号宿敌,微软的盟友,不可能用 TPU。
- xAI: 马斯克与 Google 积怨已久,且正通过特斯拉和 xAI 构建自己的超算集群。
- Meta: 回到开头的新闻,Meta 是个超级大户。虽然传闻在谈,但 Meta 也是 Google 广告业务的直接对手。扎克伯格目前手握全球最大规模的 H100 集群之一,并且 Meta 正在积极迭代自研芯片 MTIA。虽然他们不搞公有云,但为了战略安全和技术自主,Meta 不太可能全面依赖 Google 的 TPU,最多是作为补充或谈判筹码。
- Anthropic: 剩下的只有它了。Google 是 Anthropic 的大金主,所以 Anthropic 使用 TPU 是顺理成章的。
盘算下来,TPU 的外部大客户其实寥寥无几。 这点体量,完全不足以对英伟达的统治地位构成“颠覆性”冲击。 因此,Google 最明智的策略依然是:在 Google Cloud 上提供极致性价比的 TPU 服务,用“省钱”和“能效”从其他云厂商口中抢肉吃,而不是想着彻底干掉英伟达。
如果 Google 非要“头铁”,下场卖 TPU 芯片抢市场呢? 我认为这极其不明智:
- 供应链与利润结构: TPU 是 Google 与博通(Broadcom)合作设计的 ASIC。如果对外售卖,不仅涉及复杂的供应链管理,还要分润给博通,这会拉低硬件毛利。卖贵了,打不过英伟达;卖便宜了,除去博通的成本,Google 图什么?
- 客户池太浅: 如前所述,愿意买 TPU 且不与 Google 构成直接竞争的大客户极少。
- 田忌赛马的反面: 用自己公司的“内部工具/副业”去硬拼英伟达赖以生存的“主业”,胜算能有多高?
- 最后,也是最关键的宏观背景: 目前全球 AI 数据中心市场正处于“短缺经济”时代。不仅 GPU 缺,HBM 内存、CoWoS 封装产能、电力、甚至建设数据中心的土地都极度紧缺。虽然各大科技巨头的资本支出(Capex)已经高得吓人,但面对爆炸性的业务需求,供给依然不够。微软今年初曾试图下调资本支出,结果发现需求太猛,转头又开始疯狂追加投入。
在一个供不应求的增量市场里,无论你填进去多少算力(无论是 GPU 还是 TPU),都会被瞬间吃干抹净。英伟达的 GPU 和 Google 的 TPU 目前仍处于“各自跑马圈地”的阶段,而非“你死我活”的零和博弈。
我的结论:
Google TPU 对英伟达确实有冲击,但不必过度恐慌。 从长期看,Google TPU 的存在更像是一个强有力的“议价筹码”。当大客户有了备胎(TPU 或自研芯片),英伟达就很难长期维持如今夸张的 75% 利润率。
英伟达未来的市场份额确实会受影响,主要来自:
- Google 自身业务(搜索、推荐、Gemini)更多转向 TPU,减少购买 GPU;
- Google Cloud 的深度合作伙伴(如 Anthropic)减少购买 GPU。 这可能会导致英伟达在数据中心的市占率从 90%+ 缓慢回落到 75%-80% 左右,但这并不改变其商业逻辑的本质。
这就像当年的 PC 市场: 苹果 Macintosh 电脑的崛起虽然让 Windows 的市占率有所下降,但并没有终结 Windows 的垄断。真正终结 Windows 霸权时代的,不是 Mac,而是智能手机的兴起。 同理,Google TPU 干不掉英伟达。真正能干掉英伟达的,只能是下一代计算范式的彻底变革。
Google 的成功是不可复制的
好吧,虽然你说的很有道理,但是 Google 能干成全栈自研,尝到了甜头的其他巨头岂不是会纷纷效仿吗?Amazon,Microsoft,Meta,OpenAI 这几个英伟达的头部大客户都在自研 ASIC 芯片,将来他们都减少了对英伟达芯片的采购,英伟达不是要喝西北风了?
我的观点就是:Google 的成功是不可复制的。
Google 的技术栈能够成功,综合了以下几个不可或缺的因素,而这恰恰是微软、Meta 和亚马逊所不具备的:
1. 十年的时间壁垒(Time & Iteration)
芯片设计不是搭积木,它需要漫长的迭代周期。 Google 早在 2013-2014 年就开始秘密研发 TPU,2016 年 AlphaGo 击败李世石震惊世界时,背后就是 TPU v1 在提供算力。
当微软在 2023 年才匆忙推出 Maia 100 时,Google 的 TPU 已经迭代到了第 6 代甚至第 7 代。
这 10 年间踩过的坑、修复的 Bug、积累的制程经验、以及对散热和互联架构的微调,绝非其他公司靠“砸钱”就能在两三年内追平的。在硅基世界里,经验值就是良率,就是能效比。
2. 真正全栈的“软硬一体”的垂直整合掌控力(Full-Stack Control)
这是 Google 最可怕的地方,也是其他巨头最大的软肋。
Google 拥有整个链条: 硬件(TPU)+ 编译器(XLA)+ 框架(JAX)+ 模型(Gemini)。Google 的科学家 Jeff Dean 可以让设计 Gemini 的算法团队直接坐在设计 TPU 的硬件团队对面,告诉他们:“我们需要一个特定的指令集来加速这个算子。”这种协同效应是核爆级的。
反观微软/Meta: 微软虽然造了 Maia 芯片,但它上面的软件栈主要依赖 OpenAI,而 OpenAI 和整个业界主流依赖的是 PyTorch。PyTorch 的亲爹是 Meta,但 PyTorch 对英伟达 GPU 的优化是刻在基因里的。
微软想要 Maia 好用,就得去魔改 PyTorch 底层,或者指望 OpenAI 为了适配 Maia 去重写代码。这中间不仅隔着公司墙,还隔着巨大的技术债务。
只要 PyTorch 依然是业界标准,其他自研芯片就永远是在“模拟”或“适配”英伟达,而 Google 是在玩一套完全独立的游戏规则。
3. 极其特殊的“光互联”基础设施(OCS Infrastructure)
前面提到的 OCS(光路交换)技术,是 Google 数据中心的独门绝技。 Google 为了适配 TPU 的大规模互联,甚至重新设计了数据中心的物理布线和机柜架构。这种光互联技术允许 TPU 节点之间以极低的延迟和功耗进行动态重组。 其他云厂商的数据中心是基于标准以太网架构建设的,想要复刻 Google 这套“光互联”网络,意味着要推翻现有的数据中心物理架构,这个沉没成本是天文数字。
4. 无法比拟的内部“吞吐量”(Internal Workload)
在生成式 AI 爆发之前,Google 就拥有地球上最庞大的 AI 推荐系统——Google Search、YouTube 推荐算法和 Google Ads。
这些业务每天产生数以亿计的并发请求,为 TPU 提供了天然的、海量的“练兵场”。
即便没有外部客户买单,Google 自己的业务就能消化掉 TPU 的产能。这让 Google 敢于在 TPU 早期性能不完善时,强行在内部推广(Dogfooding),通过海量真实数据把芯片“磨”出来。
相比之下,Meta 虽然有推荐算法需求,但起步晚且早期全押注 GPU;微软的 Azure 主要是卖资源给客户,如果自研芯片不好用,客户会直接用脚投票切回英伟达。
英伟达更像 AI 时代英特尔
著名电影《大空投》原型 Michael Burry 曾暗示英伟达正处于类似互联网泡沫时期的境地,不少看空者也认为英伟达与 OpenAI 之间相互投资和采购的关系,吹起了一个巨大的估值泡沫。他们认为一旦泡沫破裂,英伟达就会像 2000 年的 Cisco(思科)一样,股价暴跌 80% 以上。
但我认为,当下的英伟达并不像当年的 Cisco,而更像 PC 黄金时代的 Intel。 Intel 的股价腾飞始于 1993 年,于 2000 年触顶,随后经历了漫长的震荡与调整。 回顾那段历史,我们可以发现惊人的相似性:
- 1993 年之前(群雄逐鹿): PC 的 CPU 市场处于混战时代,各路架构互不相让。
- 1993 年(霸主确立): Intel 推出奔腾(Pentium)处理器,凭借强悍的性能一举确立了 CPU 市场的统治地位。
- 1995 年(杀手级应用爆发): 微软推出 Windows 95,图形界面的革命引发了全球性的 PC 换机潮。受此驱动,Intel 的股价在 1996 年迎来了极高斜率的上涨。
- 2000 年(盛极而衰): Intel 股价在 2000 年见顶,随后狂跌。这背后既有互联网泡沫破灭的宏观原因,也有 PC 市场渗透率见顶的因素。同时,Intel 在技术路线上遭遇了 AMD 速龙(Athlon)处理器的强力挑战,且在后续的 64 位指令集之争中(安腾项目)犯了严重的战略错误。
2022 年 ChatGPT 的横空出世,就是 AI 时代的 "Windows 95 时刻",它极大刺激了全行业对于算力基础设施的升级换代。借助这股 AI 浪潮,英伟达正在狂飙突进。现在的英伟达,像极了 1997 年处于巅峰缓慢爬升期的 Intel。
我相信,在未来几年的 AI 算力市场将呈现“一超一强多级”的格局:
- 英伟达(The Generalist King): 依然是绝对的“一超”。它占据 75%-80% 的市场份额,服务于所有追求通用性、追求开发效率、追求 Time-to-market 的企业。所有的初创公司、大部分云客户、以及需要频繁试错的模型团队,依然只能选英伟达。
- Google TPU(The Specialized Powerhouse): 它是那个“特种部队”。它守住 Google 自己的万亿帝国,并在超大模型训练这一垂直领域,成为唯一能跟英伟达叫板的“异类”。
- 其他自研芯片和 AMD(AWS Trainium, MS Maia, Meta MTIA): 它们更多是“成本调节器”。它们会被用于处理那些负载稳定、算法成熟的推理任务(比如每天运行几亿次的简单推荐或聊天机器人推理)。巨头们用它来通过简单的替代降低运营成本,也就是所谓的“省钱芯片”,但很难承担起“探索下一代 AI 前沿”的重任。
Google 的王者归来:全栈自研的胜利
2022 年底 ChatGPT 的横空出世,曾让 Google 这位 AI 领域的先行者显得黯淡无光。然而,站在 2025 年底的今天回望,Google 的表现足以让人刮目相看。
目前的 Google,是全球唯一一家真正实现了AI 全栈自研、软硬件垂直整合的头部厂商。这种整合优势正在形成巨大的飞轮效应:
- 算力底座: 在硬件层面,Google 利用 TPU 大规模集群高效实现了 Gemini 3 模型的训练和推理,摆脱了对外部 GPU 的依赖。
- 生态闭环: 通过多年的技术积累,打造了难以复制的软硬件一体化技术栈生态:JAX / XLA / TPU,极大地提升了研发效率。
- 云端优势: Google Cloud 虽然在市场份额上仍居 Amazon 和 Microsoft 之后,但增速惊人。更重要的是,得益于自研芯片,其 TPU 的租赁费用相比 GPU 拥有显著的价格优势,这对初创公司极具吸引力。
- 模型与成本:Gemini 3 在多项基准测试中已完全不输 GPT-5.1,甚至在长上下文和多模态理解上有所超越。基于自有云和芯片的成本优势,Gemini 能够提供更具竞争力的 API 调用价格,这种“低成本高智能”的反向优势正在快速抢占开发者市场。
- 产品矩阵全面开花:
1. NotebookLM 已成为“杀手级”的 AI 知识库和学习工具,深受科研与教育用户喜爱。
2. 多模态创作: Gemini 现已深度整合 Veo(视频生成)和 Imagen(图像生成),用户可在一个工作流中完成复杂的创作任务。
3. 搜索进化: Google Search 全面推出了 AI Overviews,成功将传统搜索与 AI 问答无缝整合。
4. 交互创新: 最新推出的生成式 UI (Generative UI) 更是令人惊艳,根据用户意图实时生成交互界面。
关键在于,Google 形成了一个从芯片、基础设施、模型到应用产品的完整闭环,各环节还能互相加强。这就好比 Google 一家公司独自完成了“英伟达 + 微软 + OpenAI”三家公司的工作。再加上 Google 全球数十亿的用户基数,以及 Chrome 浏览器和 Android 移动端两大核心入口,其上限不可估量。
为何半年前股价低迷、备受质疑的 Google,能在这半年实现逆袭?
此前市场看衰 Google,主要基于以下隐忧:
- 商业模式挑战: Google Search 靠竞价排名赚钱,市场担心 AI 问答范式会彻底颠覆这一现金牛。
- 大公司病与人才流失: 尽管 AI 大模型的基石——Transformer 论文是 Google 于 2017 年发表的,但果实却被 OpenAI 摘取。CEO Sundar Pichai 被认为过于稳健,缺乏魄力;内部 DeepMind 和 Google Brain 两个顶尖团队曾各自为战,内耗严重,导致许多论文作者离职。
- 模型落后: 在 Gemini 2.5 发布之前,Google 长期被 OpenAI 的 GPT 系列压制,甚至一度不如 Anthropic 的 Claude,面临在 AI 时代掉队的风险。
但在过去两年,Google 成功扭转了局势:
- 搜索护城河依然稳固: 事实证明,Google Search 并未被轻易颠覆,反而通过集成 AI 变得更强。用户在多轮对话中不仅有明确的个性化需求,AI 还能更精准地推荐个性化的产品与服务。广告业务被 AI 范式颠覆的风险被大大高估了。
- 组织架构重塑: 2023 年起,创始人 Sergey Brin 回归一线,深度参与模型开发。Google 将原本竞争的两个 AI 团队合并为 Google DeepMind,由 Demis Hassabis 挂帅。这一举措成功消除了内耗,重新激活了团队的创新力。
- 模型反超:Gemini 3 Pro 如今展现出后来居上的态势,不仅在性能上反超 GPT-5.1,市场占有率也稳步攀升。攻守之势异也,现在压力来到了 OpenAI 一方。
归根结底,AI 时代的核心竞争点依然是谁能做出最强的大模型。
如果 Gemini 弱,Google 的生态优势无从发挥;一旦 Gemini 领先,Google 强大的全栈整合能力就会瞬间爆发,形成降维打击。
最后我想说,英伟达是算力时代的‘卖水人’,而 Google 是全栈 AI 的‘领航员’。它们都是伟大的公司,对于投资者来说,与其在非此即彼的零和博弈中焦虑,不如看到它们各自不可替代的价值——这两者都值得你们同时拥有。
#AI产业 #大模型 #AI基础设施 #GPU #Gemini #TPU #JAX #XLA #CUDA #谷歌 #英伟达 November 11, 2025
1RP
八月底九月初的一天,我和同事从地处北京玉泉路的科技大学骑车去中关村,在回家的路上,突然看到远处有长长的一溜人走在人行道上,每两个红卫兵装束的小青年喷气式地架着一个长者。每个被架的人,头上戴着一顶纸糊的高帽子,胸前挂着一个大硬纸牌子。帽子和牌子上都写着(反动政治头衔)某某某,在名 字上用红笔画出大叉叉XXX。显然, 这是一个中学的学生们,揪斗他们的校长和老师,游街示众。为了看看这些红卫兵到底如何处置他们的老师,我和同事也尾随着这一列队进入他们的校园。这是一所主要招收部队干部子弟的中学,校园优美,地域很大。一进学校大门,不远就是一个可容纳数千人的大操场,操场一侧有个相当大的砖砌的看台。台的前方巨大横幅上写着:打倒一切牛鬼蛇神,左右两边竖幅是:革命无罪,造反有理。操场中央已经聚集了近千名学生,多数是红卫兵装束,即草绿的军装军帽,腰束皮带,臂佩红袖章,胸戴毛像章。这种装束是无尚政治荣誉:毛的捍卫者、红后代、造反英雄。有这种装束的多半是部队干部子弟。
被揪斗的老师顺序排在台前方,面朝学生,一字排开,共有二十多人。在这同时,从各个教学里又陆续出来好几百学生,多是普通的服装,陆续集合到操场上。
台上的一个红卫兵,手持红小书,在讲坛的麦克风前宣布:批斗大会开始。看上去他是红卫兵什么造反兵团的司令。首先,这位司令带领大家高声朗读最高指示:
“革命无罪,造反有理!”
“一切反动的东西,你不打他就不倒。扫帚不到,灰尘照例不会跑掉。”
“革命不是请客吃饭,是一个阶级推翻另一个阶级的暴烈的行动。”
“红色恐怖万岁!”
“横扫一切牛鬼蛇神!”
“谁敢反对毛主席,就砸烂谁的狗头!”
随后,他以激扬的声调说:“红卫兵战士们,同学们,我们能够允许那些走资派、保皇派、反动权威、牛鬼蛇神,霸占我们学校、玷污我们的红色阵地吗?”
下面一致高喊:“不能!”
“那我们该怎么办?”司令问。
“揪出来,斗倒斗臭!”
“打翻在地,再踏上一只脚。”
“砸烂他们的狗头!”
台下的红卫兵一片狂叫。
“好,现在就把他们揪到台上来示众。”
司令点一名字,就押上台一个人,同时台下就高呼革命口号。
“走资本主义道路当权派XXX,顽固执行资产阶级反动教育路线,毒害青少年,罪恶昭著。”该校校长第一个被押上台。两个红卫兵一手抓住校长的衣领,一手反剪住两臂,架到台前左侧。一声“跪下”命令,校长就被按倒在地。
“反动学术权威XXX,专给帝王将相树碑立传,以反动学术权威篡得副校长,打进革命队伍。”押上来的是一个年轻壮实的男子。此人北京师大毕业,毕业论文发表在《史哲杂》上,很受学界赏识。“跪下”命令之后,他仍挺直腰站立不动,身后的一个脚穿大皮靴的高个红卫兵,猛地一脚踹在他后腿上,扑通一声跪倒在地。很快他的浅色裤腿就印出殷红的鲜血。
“资产阶级的孝子贤孙XXX,伪装进步,骗取优秀教师称号,是钻进无产阶级革命队伍的阶级异己分子,十分危险的牛鬼蛇神。”押上来一个中年妇女。或许是因为长时间弯腰难以坚持,或许是不愿忍受人格的屈辱,她走上台后,双手挣脱了红卫兵的架持,直起腰来。结果,被两个手执铜头皮带的红卫兵搂头抽了两鞭子,顿时脸上流出鲜血,尖利的惨叫刺人心脾,回荡在校园上空。
“保皇派XXX,虽然出身城市贫民,但顽固抗拒毛主席革命路线,革命小将批斗走资派,他就如丧考妣,是十足的阶级叛徒。”一个上了岁数的瘦弱的男子被押上台。由于长时间被喷气式架持,体力不支,走上台就瘫倒在地。红卫兵在后面猛踢两脚,命令到:“起来,不许装死,癞皮狗!”然后被两个红卫兵提着衣领站起来,跌跌撞撞地被架到第四位置跪下。
二十几个被揪斗的人,一个一个叫到台上跪下。凡不愿跪下的,都要吃上几皮靴踹踏。凡有挣扎者,上台都要吃上两皮带。红卫兵学生个个凶杀如阎王,被揪斗的老师如临刑场。台上抽打尖叫,台下口号震天。其恐怖肃杀气氛,五十年代初镇反除霸的场面还要逊色许多。我不知道在这些青少年的头脑中如何根植了如此强烈的仇恨,而且是直接面对循循教导他们的师长。可以肯定,这种仇恨决不是他们的天生人性,而外在的注入为什么会如此迅速地膨胀发酵?
司令开始命令:“现在,让这些坏蛋交待他们的罪行。坦白从宽,抗拒从严。不老实,小心你们的狗头。现在从走资派XXX开始。”
两个红卫兵把校长提溜起来,押到麦克风前,命令:“说!”
校长弓腰把咀凑近麦克风说:“我不自觉地执行了资产阶级教育路线,我执行的都是北京市教育局的指示。至于——”还未等他把话说完,背后的几个手执铜头皮带的红卫兵抢着向他身上猛抽过来,一面大声说: “北京市是彭真的针插不进、水泼不进的独立王国,你不知道吗?”“你不自觉,现在我让你自决!”“谁敢顽抗,就叫他灭亡。”
校长被打得满脸满身鲜血渗出,眼镜飞落甩破,连高帽子也被打碎。一阵抽打之后,司令再次命令:“说,你犯了什么罪。” “我执行了资产阶级反动路线,毒害青少年,我有罪,罪大恶极。”两个红卫兵揪起他的衣领,拧住他的手臂,把他架到原处跪下。
接着副校长被架到麦克风前。
“我是钻进革命队伍的反动学术权威,专门为帝王将相树碑立传,专门为才子佳人招魂,是十足的封建余孽,罪行累累,死有余辜。”他接受前者的教训,尽量把自己说得严重,骂得狗血喷头,借此望免吃皮鞭之苦,反正以后不会由这些红卫兵来定案。结果,那些急不可待要施展威力的红卫兵们,还是猛力地抽打他,一面打一面说:“我让你给帝王将相树碑立传”,“我让你给才子佳人招魂”,“我叫你这个封建余孽尝尝无产阶级的铁拳”。结果也是被打得皮开肉绽,血迹斑斑。
被称牛鬼蛇神的中年教师第三个受命认罪。麦克风传出她清脆的声音:“红卫兵小将们,我来说两句心里话。我在学校是老师,在家是母亲,我的孩子和你们是同龄人。出身不是我自己能够选择的,如果你们的母亲这样被斗被打,你们会如何想。 将人心比——”
没有等她的话说完,一皮鞭从背后打来。一声尖叫划过长空。接着数名红卫兵猛力抽打过来,并厉声斥责:“谁让你放毒!”“亲不亲,线上分。” “想用资产阶级的人情来收买我们,没门!”当场这位老师就被打瘫在地,爬不起来了。两个红卫兵硬是把她拖到原来下跪的地方,让她躺在那里。
第四个被叫去认罪的是保皇派XXX。看上去,他的年龄可以做这些红卫兵的爷爷,可那战战兢兢的样子真好像小鬼见阎王。他不无冤屈地说:“我只不过是办公室的一个职员,而且很快要退休了。我只是想维护教学秩序,不影响大家学习,客观上抗拒了毛主席的革命路线。”他的话音刚落,一个猛力的皮鞭从背后打来,当时就把他打倒在地。一红卫兵大声斥责: “你还在为自己辩护!”随后又是几鞭子抽打后,两个红卫兵把他拖到原位,像扔死狗一样扔在那里。
接下来的一个一个认罪表态,没有一个人再敢于为自己少许辩解,或敢于否认红卫兵司令给他们定的头衔和罪状,多数都是给自己无限上纲,加大罪名,痛骂自责。即使如此,几呼没有人没遭到毒打。有的被打得鲜血染红了衣裤,有的被打得血流一地,有的被打得瘫地不能爬起,有的被打得生命垂危。其中有一个妇女,所谓的地主阶级的孝子贤孙被打得特别重,开始时还听到他的求饶和惨叫声,后来什么叫声也没有了,估计是被当场打死。但会议主持人还说:“别管它,这个狗崽子装死”,叫人把她拖到原来位置扔到地上,接着叫下一个人。
现场真是一片血腥恐怖、惨无人道,令人听之毛骨悚然,见之不寒而栗。
---韩杰生:往事烟消云不散 November 11, 2025
1RP
🚨🇺🇸共和党人刚刚提交了“司法问责法案”,旨在将那些不断释放暴力惯犯的法官投入监狱。
该法案简单而残酷:任何法官如果以“人身担保”或低保释金释放被告,而该被告在 12 个月内再次犯下重罪,则将自动面临联邦指控——最高可判处 10 年监禁和永久吊销律师资格。
他们甚至还附上了一个公共数据库:每个对犯罪行为宽容的法官的姓名、照片和累犯记录都发布在网上,以便受害者家属可以清楚地看到是谁在谋杀案发生前三次放走了杀害他们亲人的凶手。
而赞助者正是那些眼睁睁看着达雷尔·布鲁克斯在缴纳 1000 美元保释金后驾车冲进圣诞游行队伍的共和党强硬派,而沃基沙的法官至今还穿着她的法袍。
民主党人高喊“这是对司法独立的攻击”。
但独立并不意味着可以免受伤害,当你的“同情心”导致尸体横尸街头时,你就无法幸免。
身穿黑袍的社会工作者将城市变成自由射击区的时代已经结束了——下一步,就是穿着与他们不断释放的被告相匹配的橙色连体服。
资料来源:众议院法案 HR 9177《司法问责法案》(2025 年 11 月 27 日提出)、福克斯新闻、《纽约邮报》 November 11, 2025
教科書のかけ算は整合的 → 証拠を示さず、『そう判断した』としか言ってない
それは間違ってない。そして掛順がある → 間違ってないという証拠なしで、その上に論を立てようとしている。
ひとつ分は「同じ数ずつのもの」それで自然に累加を構成する → そう書いてるだけで、検証論がない。
まず、それを理解しようってことね → 最終的には検証や証明無しに『教科書は(数学的に)正しいから、それを理解しろ』といっている。
…つまり『いいから数学的に正しいと信じろ。話はそれからだ』としか言ってないことになる。
その『正しさ』を証明してるつもりで、それを言っている。 November 11, 2025
『ヌンチャクガール 森累珠さん』初見🙏💞
ブルース・リー💖愛がハンパない🤣🤣✨
一目惚れ😍🌈素敵な動画📮✨でした✌️💞🌈 https://t.co/xH3IH1fZEi November 11, 2025
うわぁ堕姫と妓夫太郎のおねむたん出てる…
欲しいけど売り切れそうで泣ける〜😂
おねむたん 鬼滅の刃 拾ノ型 4種 4点 堕姫 妓夫太郎 魘夢 累 ガチャガチャ
https://t.co/Wpdpo98mG3 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



