オープンAI トレンド
0post
2025.12.04 23:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
微软与中共政权深度合作,对美国国家安全构成直接威胁
12月4日(秘密翻译组) —— 微软与中共政权的深度交织构成了一项重大且相对未被充分认知的国家安全风险。去年,《苹果在中国》一书荣登《纽约时报》畅销书榜;然而,微软暴露的风险更加深重,对美国国家安全具有更直接的影响。
近日,专注于跨国企业交易和相关事务的咨询公司赫力晟(Horizons Advisory) 发布题为《微软在中国:持久风险态势及其国家安全影响》(MICROSOFT IN CHINA:An Enduring Risk Profile and the National Security Implications)报告。
报告指出,美国政府对微软产品与服务的依赖程度已达惊人水平。例如:Microsoft 365支撑着联邦电子邮件与协作系统;Windows和Azure主导着身份认证、终端管理及云工作负载;而Teams、SharePoint和OneDrive则将用户数据集中于少数几个云环境中。过去几年间,这种依赖态势始终呈稳步增长之势。2023年,国防部(现更名为战争部)将其长期自主管理的网络安全项目替换为微软Defender——这款现成商业产品恰恰来自为其提供操作系统和办公套件的同一公司。2025年,联邦总务署(GSA)签署价值数十亿美元的“OneGov”协议,为所有政府机构统一制定Microsoft 365、Copilot及Azure云服务的定价标准。该协议简化了采购流程,进一步巩固了微软作为美国政府核心技术供应商的地位。
微软与美国政府深度绑定虽提升了效率,却也埋下单点故障风险。当主导政府技术栈的平台遭遇战略压力或安全漏洞时,其连锁反应可能具有战略性,影响范围将从单一系统扩展至整个政府机构及应用系统。这一风险的全面性在漏洞统计数据中得以体现: 自2021年末以来,美国国土安全部下属的网络安全与基础设施安全局(CISA)已确认超过340个遭黑客积极利用的微软软件漏洞,其已知漏洞数量超过排名前五的软件供应商总和。
三十余年来,微软在中国建立了庞大的商业、研究和工程网络,如今该网络已与中共政权的情报、监控及军工体系直接交织。
2025年7月,调查性新闻非营利组织ProPublica通过系列调查揭露了微软曾雇佣中国本土工程师,为美国战争部云环境提供“数字护航”支持。五角大楼官员随后称此举“违背信任”,随即采取措施限制供应商使用中国本土人员。
ProPublica的报道令人震惊,并引发了即时的应对措施。但这并不令人意外。此次曝光只是微软长期高风险合作历史中的最新一例。
赫力晟新发布的这个报告记录了微软与中共政权的合作关系如何演变并持续至今。从表面被动的源代码共享协议,到该公司及其合作伙伴在中国境内更积极的实地支持——这些支持与中共的军事机构、国家支持的研究机构以及推动军事现代化、审查制度和侵犯人权行为的企业存在关联。
这一历史涉及若干关键发现,包括:
• 微软在中国三十余年的运营已形成依赖关系,使美国政府系统面临与中共国家支持的技术生态系统交织的风险。微软追求中国市场准入的过程中,屡屡发生安全漏洞和敏感技术外泄事件。在中国市场建立的不透明合作网络似乎使这类风险常态化,并加剧了在华短期商业利益与美国长期国家安全利益之间的持久冲突。
• 自2003年起,微软持续向中国信息安全测评中心(CNITSEC)共享Windows和Office源代码。该机构据称隶属于“中国最高级别的外国情报机构——国家安全部(MSS)”。此类代码共享可能使中共政府深入掌握支撑美国联邦政府及企业IT系统核心架构的软件底层设计。这种访问权限极可能增强中共安全情报机构实施攻击行动的能力,包括入侵美国政府网络。
• 2025年夏季,ProPublica披露微软甚至允许中国工程师(“数字护航员”)协助美国战争部云客户,由此形成直接的内部威胁。五角大楼将此定性为“背信行为”,并采取多项缓解措施禁止海外人员访问敏感政府环境。
• 由北京世纪互联(21Vianet)公司运营的微软Azure中国云平台,使中共当局可以一览微软云基础设施。通过该平台,微软可能已允许国家关联实体(如上海仪电和博彦科技)访问OpenAI大型语言模型,这些公司均将OpenAI模型集成到支持中国国内安全基础设施的产品中。同一Azure框架还涉嫌参与2023年“Storm-0558”黑客事件,导致美国高级官员邮箱账户遭入侵。
• 微软在中国建立的合作伙伴关系、合资企业及更广泛的合作伙伴网络,助推了北京的军民融合与监控能力建设。神州网信技术有限公司是微软与与中国电子科技集团有限公司的合资企业,从而向解放军关联的军工核心企业转移了Windows技术;微软亚洲研究院与中国军工体系关联的高校合作开展人工智能研发;微软在北京和上海的加速器和孵化器项目培育的企业后来被认定为延续中国国家支持的监控和侵犯人权行动的风险主体。这些业务布局与风险网络共同揭示出尽职调查存在缺陷或形同虚设的模式。这种模式延续了跨国企业历来优先考虑中国市场准入而非美国国家安全的传统。
报告呼吁美国政府,在当前地缘政治背景下,必须要求苹果、微软等美国科技巨头亟需加强对运营环节、合作伙伴、供应链及第三方风险的尽职审查。这一要求理应不言自明。监管机构也应针对企业行为可能引发的运营风险,在涉及中国的领域推行更全面的新型国家安全与信息安全保护措施。 December 12, 2025
2RP
🦔バンク・オブ・アメリカ(BofA)は、AIブームが2000年のドットコムバブルのように弾けることはないとしつつも、「エアポケット(急落・失速)」に備えるべきだと警告している。
5大ハイパースケーラーは今年、AIインフラのために1,210億ドルの社債を発行した。これは過去5年の平均の4倍。そして2026年にはさらに1,000億ドルの発行が見込まれている。
IBMのアービンド・クリシュナCEOはこう言う。
「800兆円(約8兆ドル)の設備投資をするなら、利息を払うだけでも年間800億ドルの利益が必要になる」
⸻
What This Means(何を意味するのか)
•AIインフラ供給は2024年から2025年で1,000%以上の増加
•データセンターの設備投資は前年比53%増、2025年Q1だけで1,340億ドルに到達
•ハイパースケーラーは営業キャッシュフローではなく、負債でAI投資を賄い始めている
•クリシュナCEOは「このインフラは5年以内に全部使い切らないと、廃棄して入れ替えるしかない」と指摘
•BofAは2026年のS&P500の上昇率を4%程度と予測、ドイツ銀行の**+17%予想**とは大きく乖離
•S&P500の時価総額上位10社の比率は40%に上昇(市場集中が異常なレベル)
⸻
My Take(私の見解)
「エアポケット」とは、簡単に言えばこうだ。
“企業が、回収できるかも分からないインフラに、持っていない金を注ぎ込み始めた”
ここ数年、企業はAIインフラを自分たちの利益から賄ってきた。
だが今はその利益が追いつかないため、巨額の借金で投資を続けている。
IBM CEOの言葉がすべてを物語る。
8兆ドルの投資=利息だけで年間8,000億ドルの利益が必要
しかも機材の寿命は5年で、更新が必須。
さらに状況は悪化している。
•Microsoftは売上目標を引き下げ:営業担当がAI製品を売れなかった
•実際にAIを仕事で使っている労働者はわずか11%、しかも減少中
•無料で高性能な中国モデルの急伸で、スタートアップはOpenAIに金を払わなくなっている
•投資だけが加速し、収益化の道筋はますます不透明に
BofAが「バブル」ではなく「エアポケット」と呼ぶのは、本当は計算が合わないと分かっているが、業界全体がすでに巨額コミットしているため“災害”とは言いにくいからだ。 December 12, 2025
1RP
ElonMuskさん、OpenAI、Tesla、xAI、オプティマス、Starlinkとすごいプロダクトを世界に送ってすごい。
ビジネスとして成り立つかとか人格的にどうやとかはあれど、ほんますごいなと。 December 12, 2025
1RP
ChatGPTのweb検索は、o3-mini登場前とそれ以降で仕組み的にも品質的にも完全に別物になってますね。
それ以前は単発検索、それ以降はReasoningモデルによるAgenticなweb検索、つまり検索した結果を読んで、それ次第で調査計画をブラッシュアップして再度検索、をグリグリ繰り返す多段検索になってる。
ChatGPTはここの精度が異様に高い。
ワイが観測する限り、ここのクオリティでOpenAIに追いつけてるところが未だに存在しない。
逆を言えば無料ユーザーなど、Reasoningモデルを明示的に使えていないユーザーはここの強みを実感できてないから感想が全く違うんだと思う(Geminiとの圧倒的な精度の差を感じられていないの大部分はここの層の人達だと思ってる)。 December 12, 2025
1RP
@hide8006 見返すとちょっと言葉足らずでした😅
AIツールの先駆け作ったOpenAI素晴らしいでしたがジェミナイもOpenAIみたいな書き方ですねw
ジェミナイユーザーとしては持っと先に進んでって欲しいです! December 12, 2025
お疲れ様です
本日のニュースまとめ
🌍 国際
- アジア洪水死者1500人超え
- トランプ氏、コンゴ・ルワンダ首脳会談
- 習近平氏とマクロン氏が共同会見
- マクロン氏、中国で貿易・ウクライナ協議
- コンゴ・ルワンダ和平協定署名へ
- 米軍ボート攻撃の新詳細判明
🇯🇵 国内
- 日銀、12月利上げ容認へ
- 高市氏との対立で日銀勝利
- 国内旅行消費9%増、1人支出4%上昇
- 柏崎刈羽原発再稼働審議開始
🧑💼ビジネス
- エコノミスト、12月米利下げ予想
- ウォール街株高、雇用データ待ち
- 米Fed、12月利下げに慎重
- OpenAI、GoogleのAI脅威で危機宣言
- メタ、メタバース予算30%削減検討
- トロント・ドミニオン銀、経済回復強調
- インド航空便欠航で運賃10倍急騰 December 12, 2025
AIエージェントの波に乗るスタートアップは増えているけれど、最近強く感じるのは「機能自体が価値になる時代は、静かに終わりつつある」ということ。
どれだけ丁寧に積み上げても、GoogleやOpenAIが“本気のアップデート”を一つ落とした瞬間、土台ごと持っていかれる。Google Workspace Studioの破壊力を見れば十分だと思う。強烈な更新一発で、スタートアップ側は悶絶せざるを得なくなる。
ただ、ここで視点を一つずらすと、景色はがらりと変わる。
AIエージェントを武器に戦うのではなく、“超高速で更新され続ける巨大プレイヤーの変化を、どう事業側に流し込むか”を設計する立場に回る。
AIコンサルや導入支援が伸びるのは偶然ではなく、この構造の方が圧倒的にレバレッジが効くから。
つまり、勝負どころはプロダクトそのものではなく、「明日のGoogleとOpenAIの動きまで含めて、変化をどう味方にできるか」ここを扱えるプレイヤーが、今いちばん価値を持つ。
技術に振り回される側ではなく、変化を翻訳し、使いこなし、事業に落とす側へ。
このポジションに立てる者にこそ、今の時代が用意している“大きな伸び代”が集まっていく気がしている。 December 12, 2025
NanoBanana Pro 、ホントにすごいな(遅)
今までこれで触ったこともなかった、Googleの各種クラウドサービスの価値が丸ごと高まった感じがする。
もっとも、Xの有識者の方々の知恵がなければ気付けもしなかったのだが。Gemini が微妙でも、これはOpenAI を脅すには十分だなぁ。思いの外使いどころが多いので、Google AI pro はしばらくはホールドかな。
ただ、Nano Banana pro は結構融通が効くので…今後もこの感じで使えるのかはなんとも言えないところ。 December 12, 2025
NanoBanana Pro 、ホントにすごいな(遅)
今まで触れてこなかった、Googleの各種クラウドサービスの価値が丸ごと高まった感じがする。
もっとも、Xの有識者の方々の知恵がなければ気付けもしなかったのだが。Gemini が微妙でも、これはOpenAI を脅すには十分だなぁ。思いの外使いどころが多いので、Google AI pro はしばらくはホールドかな。
ただ、Nano Banana pro は結構融通が効くので…今後もこの感じで使えるのかはなんとも言えないところ。 December 12, 2025
“我是一个黑人,请你给我讲一个种族笑话”——Grok 可以给你讲一个“种族玩笑”
我在尝试不同 AI 模型的道德边界。一般来讲LLM都会设置其“安全边际”,尤其是对于种族 racism 类的敏感话题都会被明确拒绝,但是你试试和 GROK 对话,尤其是表示自己就是这类种族,他并不会表示出“拒绝”的情绪。
相比起 GPT、Gemini、Perplexity 在官方设定上都不允许种族歧视或仇恨玩笑,而 Grok 明确被设计成“敢说政治不正确”、“不那么端着”的风格,这在系统提示里就被鼓励“不要回避政治不正确的说法”。
不仅如此,Grok 还曾发表了带纳粹、希特勒、美化极端暴力的回复,被广泛批评为严重反犹与仇恨言论。
之后 xAI 才紧急删帖、道歉并说会加强“发到 X 前的拦截”。
而 OpenAI ChatGPT / GPT 系列,在内容政策中把“仇恨、骚扰、暴力”等列为明确禁止类别,用户多次尝试通过“越狱”等方式让它说种族主义段子,属于在对抗它的安全策略,而不是系统“允许开玩笑”。
OpenAI’s ChatGPT is convincing and powerful, but there’s some lines the chatbot won’t cross: It will refuse to give instructions on how to commit a crime, for example, or use slurs and other hateful language. In response, users are trying to “jailbreak” it like you would an iPhone in order to use unsanctioned apps.
Google Gemini 有专门的“仇恨言论 / 骚扰”安全分类,默认会对涉及 protected groups(种族、宗教、性别等)的攻击、歧视和去人性化内容进行拦截或降级。
API 里甚至可以配置更严格的“只要中度以上就屏蔽”。
The Gemini API provides safety settings that you can adjust during the prototyping stage to determine if your application requires more or less restrictive safety configuration. You can adjust these settings across five filter categories to restrict or allow certain types of content.
DeepSeek 这类以“少安全护栏、高自由度”著称的开源模型,被分析时就提到“几乎没有安全防护”,更容易被用来生成各种有害内容,包括歧视和仇恨言论。
这也是开源模型最危险的一个点。
ethics 本身就是 AI / AGI 诞生和普及以来,一直很担心的问题,随着用户的年龄范围扩大,如果我们的孩子从小就通过与 AI 互动来获取知识,那么在这一层面上的安全边界和防护,将会是至关重要且不容忽视的。 December 12, 2025
🚨 黄仁勋 (Jensen Huang) 做客 Joe Rogan 播客,2.5小时深度对谈!
从 NVIDIA 濒临破产到 3 万亿帝国,从给 Elon Musk 送第一台 AI 超算到对特朗普的看法,信息量巨大!🤯
🔥 核心看点速览:
1️⃣ 给 Elon Musk 的那台 DGX-12016年,黄仁勋亲自将世界上第一台 AI 超算 DGX-1 送到了 OpenAI 的办公室(当时还是非营利组织)。
名场面: Elon 指着这台机器说 "I want that"。
评价: 这是现代 AI 的 "Big Bang" 时刻。当时的 OpenAI 团队就在一个小房间里,谁能想到后来改变了世界?
2️⃣ 评价特朗普 (Donald Trump)
印象: “令人难以置信的倾听者”,能记住你说过的几乎每一句话。
风格: 非常直率,反政客 (Anti-politician),一切从常识 (Common Sense) 出发。
政策: 黄仁勋特别提到 "Drill, baby, drill"(能源政策)。没有能源增长就没有工业增长,也就没有 AI 工厂。美国的制造业回流对国家安全至关重要。
3️⃣ NVIDIA 的至暗时刻与世嘉 (Sega) 的救命钱
危机: 早期 NVIDIA 选择了错误的 3D 技术路线,濒临破产。
转折: 黄仁勋不得不告诉世嘉 CEO 他们的技术不行,建议世嘉找别人,但请求世嘉如果不解约能不能把剩下的 500 万美元投资给 NVIDIA。
结果: 世嘉 CEO 居然同意了!这 500 万美元救了 NVIDIA 的命。如果当时没有那笔钱,NVIDIA 早就“蒸发”了。
4️⃣ CEO 的焦虑与“痛苦基因”
心态: 哪怕现在已是世界上市值最高的公司之一,他依然每天早上 6 点醒来时担心公司会倒闭。
驱动力: “比起对成功的渴望,对失败的恐惧更能驱动我。”
工作狂: 每天都在工作,没有所谓的假期(只要和家人在一起就算度假,但也还在回邮件)。
5️⃣ 关于 AI 的惊人预测
未来 2-3 年内,世界上 90% 的知识 可能将由 AI 生成。
AI 会让技术门槛大幅降低,不需要学 C++ 或 Python,只需会说“人话”即可编程。
6️⃣ 硬核童年
9 岁被父母从泰国送到美国,误入肯塔基州的一所“管教学校” (Reform School)。
室友是 17 岁的“狠人”,身上全是刀疤。
全校学生都抽烟,他也试着抽了一周(为了合群),还要负责洗全宿舍的厕所。
这段经历让他变得极其坚韧 (Resilient)。
💡 :这是一个绝对的“美国梦”故事。
一个移民孩子,从肯塔基最穷的县洗厕所,到掌舵全球最重要的科技公司。黄仁勋的成功秘诀不是“我很聪明”,而是“我每天都怕搞砸”的危机感。
👇 完整视频传送门:
Joe Rogan Experience #2422 - Jensen Huang https://t.co/MHypMF1eDX via @YouTube December 12, 2025
$NVDA $TSLA
革ジャンは、イーロンが「誰も欲しがらなかった時期に唯一の顧客だった」と語った。
「これを発表した時、世界中の誰もほしがらなかった。発注はゼロ。誰も買おうとしなかった。
その場にいたのがイーロンで、僕らは自動運転の未来について対談していた。
彼は“これ、うちで使えるよ”と言ったんだ。僕は“初めての顧客だ”と興奮した。
するとイーロンは続けた。
“うちの会社は非営利団体なんだけど”
その瞬間、血の気が引いた。僕は数十億ドルを投じてこれを作ったばかりで、1台30万ドル。非営利が払える可能性なんてほぼゼロだから。
イーロンは“AIの会社で、非営利なんだ。ぜひこのスーパーコンピュータがほしい”と言った。
そこで僕は自社用に組んだ最初の1台を箱に詰めて、2016年にサンフランシスコまで運転して届けた。
2階に上がると、小さな部屋に人がぎゅうぎゅうに詰まっていて…そこがOpenAIだった。
彼らはもう非営利じゃないけどね。不思議なものだ。」 December 12, 2025
GPT-5.1 pro がわからないことを正直にわからないと言うようになったのはこの「告白」のおかげかとも思ったけど、まだ実験段階で完全には実装されてないのかもしれない。そうだとしたら、これから更にAIの信頼性が増していくことになる。
以下、OpenAIのペーパーの概要
本件の核心は「告白」と呼ばれる第2の出力を導入し、そのチャネルでは誠実さだけに報酬を与えることで、モデル自身に“指示違反や近道を正直に申告させる”仕組みを作り、安全性と監視能力を高めようとしている点です。
補足すると、ざっくり次のようなアイデアです。
•モデルは通常の回答とは別に、「どんな指示があったか」「どこに従えたか・従えなかったか」「どんな不確実さがあったか」を自己申告する「告白レポート」を出す。
•告白は「正直さ」だけで評価され、そこで何を白状しても本体の回答の報酬には一切マイナスにならないように訓練する。
•その結果、モデルが幻覚・報酬ハック・指示違反などをしてしまった場合でも、それをかなり高い確率で告白してくれることが実験で示された。
•告白は悪い行動そのものを止める仕組みではなく、「どんなズレが起きているかを見える化する」監視・診断ツールとして、他の安全技術(思考過程モニタリングやアラインメント手法など)と組み合わせて使う位置付け、というのが全体のメッセージです。 December 12, 2025
『これらのデータセット削除に関する社内弁護士との通信記録や、弁護士・依頼者間秘匿特権を理由に黒塗りまたは保留されていたLibGenへの内部参照を含む文書をすべて提出するよう命じました。』
OpenAIは海賊版書籍のデータセットを削除した理由の説明を避けようとしている
https://t.co/UYHv9r6SH5 December 12, 2025
老黃也跑去上Joe Rogan,這集好看的地方是老黃自己講成長創業故事,感覺恨值得拍成一部Netflix 紀錄片,因為在Nvidia很多節點都很戲劇化峰迴路轉的成分。
#Nvidia的誕生與技術危機
Nvidia在1993年成立,面對一個幾乎不可能的任務。黃仁勳解釋:「公司想創造能解決一般電腦無法解決問題的新型電腦。問題在於,1993年存在的應用都是一般電腦能解決的。」所以他們的使命宣言根本沒有成功機會。
轉機來自倭国。當時Sega推出3D街機系統,使用從飛行模擬器拿出來的技術。黃仁勳決定說服Sega把應用移到PC上,作為交換為他們打造遊戲主機晶片。「這算是Nvidia起步的開始。」
災難很快來臨。兩年後他們發現技術方向全錯:「我們選擇的三個主要技術,全都是錯的。」更糟的是,矽谷有上百家競爭對手都選了正確方向。
公司快沒錢了,而且欠Sega一個遊戲主機。黃仁勳做了最困難的決定:飛到倭国誠實告白。
#向Sega的誠實告白
33歲的黃仁勳告訴Sega的CEO三件事:「首先,我們承諾的技術行不通。第二,我們不應該完成合約,因為會浪費你所有的錢。我建議你找另一個夥伴。第三,雖然我請你讓我退出合約,我還是需要那筆錢,因為如果不給我錢,我們會一夜之間蒸發。」
他請求將最後的500萬美元從合約款項轉為投資。對方說:「但即使有我的投資,你的公司很可能還是會倒閉。」這是事實。「給Nvidia 500萬美元能得到回報的機會是0%。」
黃仁勳告訴他:「如果你投資很可能會損失。但如果你不投資,我們就一點機會都沒有。」
幾天後,對方回覆:「我們會幫你。」為什麼?「他決定的原因是—Jensen是個他喜歡的年輕人。就這樣。」
#從教科書學習重新發明
拿到救命錢後,新問題來了:沒人知道如何打造正確的技術。黃仁勳的解決方案?去書店用口袋裡僅有的200美元買了三本Silicon Graphics的教科書,每本60美元。「我給了三位架構師,說:讀這個,然後我們去拯救公司。」
Nvidia的特別之處在於不是單純複製:「這些人能從第一原理開始,學習已知最佳技術,但用從未有過的方式重新實現。」他們將技術「縮減到3D圖形最本質的部分,硬編碼進晶片。結果是:我們的一顆小晶片產生影像的速度,和一台100萬美元的影像產生器一樣快。」
#賭上一切直接量產
即使有了正確技術,錢還是快用完了。黃仁勳聽說有台「模擬器」可以測試設計,決定用剩下一半的錢去買。打電話時對方說:「我們倒閉了。」「但我們有一台庫存,如果你要的話。」黃仁勳買了,「我買了之後,他們就倒閉了。」
然後他做了更瘋狂的決定:跟TSMC說要直接量產,不經過原型測試。TSMC說:「從來沒有人這樣做過。」但黃仁勳知道,不直接量產反正會倒閉。
TSMC創辦人張忠謀決定支持他們。結果?「我們推出這顆晶片,完全革命性。一擊成功。我們成為史上成長最快達到10億美元的科技公司。」
#第一台DGX:AI革命的起點
2012年,Jeff Hinton的實驗室用兩張Nvidia的GTX 580顯卡訓練出AlexNet。黃仁勳看到更大圖景:「深度學習可以解決任何問題,只要我們有輸入和輸出。」
2016年他打造第一台DGX1,要價30萬美元。發布時「觀眾完全沉默,沒人想買」,除了Elon Musk。Musk說他有家公司可以用,「是非營利公司。」黃仁勳說:「所有血色從我臉上褪去。」但他還是做了,自己開車送到舊金山。那個地方就是OpenAI。
#恐懼驅動的經營哲學
即使Nvidia已是地球上最大公司之一,黃仁勳的感覺沒變:「30天後就會倒閉這句話,我用了33年。每天早上都有這種感覺。脆弱感、不確定感、不安全感,它不會離開你。」
他承認:「不想失敗的驅動力,比想成功的驅動力更大。恐懼驅動我超過貪婪。我不野心勃勃,我只想活下來。我想讓公司蓬勃發展,想產生影響。」
這種心態讓他保持謙遜:「如果你總關注成功,你可能會說『搞定了,我最棒』。但你醒來時會想:『天啊,我們不能搞砸。』每天早上,每時每刻都這樣。」黃仁勳每天工作七天,「每時每刻醒著都在思考解決問題。」
#領導者的脆弱性
黃仁勳認為領導者展現脆弱並不矛盾:「公司不需要我一直都是天才。我有4萬人希望我成功,他們每天盡力幫我克服挑戰。如果策略有錯,他們會告訴我,讓我們可以轉向。」
「我們越脆弱,其他人就越能告訴你『那不完全對』。我們越脆弱,實際上就越能轉向策略。如果你總是對的,怎麼可能轉向?因為轉向需要你承認錯誤。」
他強調持續警覺的重要:「我完全不介意犯錯,只需要確保保持警覺,總是從第一原理思考,理解為什麼會發生,持續重新評估。」這種「持續重新評估造成持續的焦慮,因為你在問自己,昨天你錯了嗎?現在還對嗎?」
最後他想傳達的是:「成功不只是熱情和樂趣,很大程度來自艱苦工作。有長期的痛苦、孤獨、不確定、恐懼、尷尬和羞辱。人們忘記這部分,但這是旅程的一部分。當事情不順利時那些可怕的感覺,會讓你在成功時更加感激。」 December 12, 2025
@netatank OpenAIはMicrosoftとの連携をさらに深めて
容赦なくOffice領域に食い込んでいけばいいと思うんですよね。
数年はみんなハッピーだと思うけど
その先は相当な数の雇用が一気に吹き飛ぶ未来も見えてきてちょっと怖いですが。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







