AMD
0post
2025.11.29 13:00
:0% :0% (20代/女性)
人気のポスト ※表示されているRP数は特定時点のものです
我有个单向的哥们,最近分享了他在2025年的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/8O8usyl6Af…)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍。 November 11, 2025
2RP
おれは死の香りがする作品が好きです、bandcampのタグにdiecoreというタグが付けられていて、まさにそうだなと思いました、アルバムの中盤はハッとするような美しさ(のようなもの)も垣間見えます、煤のような音楽が好きな人は是非(Xamd)
https://t.co/2TBW6ah3Ot November 11, 2025
#NuNuPCで欲しいPC
cpuはAMDでgpuは16gb以上、電源cpuクーラーつよつよで拡張性高め。値段は30万未満でお願いします…。 https://t.co/KczGTQkoe7 November 11, 2025
@sofmap_gaming 何点か質問したい項目があるのでこの機会にお聞きしようと思います
①ゲーミングPCってなぜ光るんでしょうか?
②AMDのCPUはマッチングが良くないソフトも多少あると聞きましたが、現在はそうでも無いのでしょうか?
③キーボード、マウス、モニターもソフマップさんでまとめて購入可能でしょうか? November 11, 2025
@goppajp XFX Swift AMD Radeon™ RX 9060 XT OC 16GB Gaming Edition
無事届きまして動作も軽快です。
ありがとうございました。 November 11, 2025
Core i7(メモリはCPU内蔵8533)
Ryzen AI7 350(メモリはオンボード7500)
インテルはスコア19000、AMDは24000・・・値段はAMDが1万円ほど高い。
今のPCトラブルがCPU起因だった(現在は解決済み)から悩むなぁ(´・ω・`) November 11, 2025
AMD、GPU価格を最低10%値上げへ - メモリ不足がゲーマーを直撃 - GadgetsX
https://t.co/jAt87BwJ1l
#AMD #GPU
https://t.co/jAt87BwJ1l November 11, 2025
昨日の古いゲームが重くなってた件、いろいろ設定いじったら復旧しました。最初は画面サイズの影響なのかと思って1260くらいで何とか速度出るようになったのですが、amdRSRをオンにしてみたらフルサイズでも以前と同様になった感じです。原因は別にあるかもですが。まぁ良かった。 November 11, 2025
台積電(TSMC)作為全球晶圓代工龍頭,除了領先的製程技術外,先進封裝(Advanced Packaging)已成為其核心競爭力,對高階AI晶片不可或缺。TSMC正大規模擴充封裝產能,以因應市場需求。尤其在HBM4(High Bandwidth Memory 4)整合中,Base Die(基底晶片)角色轉變重大:以往由記憶體廠如三星、SK海力士、美光製造,未來改由TSMC提供標準化版本,簡化整合流程。
HBM4採用N12製程,電壓從1.1V降至0.8V,提升效率1.5倍,並首度導入標準PHY介面。更進階的HBM4E(C-HBM4E)則躍升至N3P製程,電壓再降至0.75V,效率較傳統DRAM提升2倍;Base Die內建記憶體控制器(原本在GPU內),PHY改為專屬設計。這項技術將率先應用於AMD Instinct MI400系列(432GB容量、19.6TB/s頻寬)與NVIDIA Rubin世代(20TB/s頻寬),強化AI加速器效能。
TSMC先進封裝三大支柱包括CoWoS、SoIC與SoW。
CoWoS為主力,可整合運算晶片與多達8顆HBM;現行CoWoS-S支援3.3倍光罩尺寸(N5/N4製程),CoWoS-R提升互聯頻寬並兼容N3。下一代CoWoS-L於2026年達5.5倍光罩(約4500mm²)、12顆HBM3E/HBM4,鎖定AMD MI450X與NVIDIA Vera Rubin;2027年更進化至9.5倍、超過12顆HBM,搭配A16製程。
SoIC聚焦3D堆疊,如AMD 3D V-Cache所示,目前支援N4-on-N5(6µm微凸點間距),晶片面積達0.8倍光罩;2025年起進入N3-on-N4,上層晶片無尺寸限制。InFO提供晶片間橋接,AMD Instinct已採用,未來InFO-PoP與InFO-2.5D增添設計彈性。SoW(系統級晶圓)則用於Cerebras等大規模應用,後續推出SoW-P與SoW-X。
為管理複雜結構,TSMC開發3Dblox語言,支援階層式模組設計,一次驗證即可重複使用,如檢查微凸點連接。跨晶片驗證透過Layer Projection的DRC確保規則遵守。當前封裝需處理上億微凸點,間距從9µm縮至5µm:CoWoS-S約1500萬個、CoWoS-L5000萬個、SoW最高4億個。 November 11, 2025
TPUのサプライチェーンが熱くなってきましたね
Google による Nvidia への TPU の挑戦は、2026 年までに AI による銘柄選択が Nvidia のサプライ チェーンだけに依存しなくなることを示唆しています。
台湾株式市場は高値28,554から安値26,395まで下落し、累計2,159ポイントの下落となった。国家安定基金の運用責任者のみが自信を表明し、株式市場の見通しに自信を示したようだ。
台湾株式市場の20日移動平均は、4月の相互関税実施以来初めて下落に転じた。
実際、出来高から判断すると、7月以降は緩やかな上昇基調で徐々に増加し始めました。11月24日の終値は7,130億元でした。しかし、加重指数は26,507ポイントの四半期ラインのサポートを維持し、反発は5日移動平均線の圧力によって抑制されました。4月の公平関税実施以来、20日移動平均線が下向きに転じたのは今回が初めてです。外国人投資家による年末の売り圧力に直面している市場は、あまり気にしていないようです。しかし、今年の最後の5週間は、巳年の強気派と弱気派にとって最も不確実な状況になる可能性があると私は考えています。特に、連邦準備制度理事会(FRB)の12人の当局者のうち5人が利下げを支持しないと表明しています。もし市場が本当にFOMCが利下げを行わない可能性が高いと予想しているのであれば、12月10日までの外国人投資家からの売り圧力は弱まるどころか、強まる可能性があります。
10月8日から11月24日まで、外国人投資家は集中市場において5,404億7,900万台湾ドルの売り越しを記録し、AI関連銘柄が調整の主な対象となりました。これらの銘柄には、TSMC、デルタ・エレクトロニクス、メディアテック、ウィストロン、ウィストロン・マイクロエレクトロニクス、ウィストロン・ニューウェブ、ナンヤ・テクノロジー、アクトン・テクノロジー、ギガバイト、ジェン・ディン・テクノロジー、フォックスコン、コンパル・エレクトロニクス、キング・ユアン・エレクトロニクス、ASUS、タイコー・テクノロジー、チー・ホン、クロミウム・テクノロジー、チンテック、ユニマイクロン・テクノロジー、ハンスター・ディスプレイ、シャープ、インベンテック、FXCM、ヤゲオなどが含まれます。このリストを見ると、ある程度の底堅さを見せたヤゲオ、ナンヤ、シャープを除けば、他の銘柄は短期および中期の移動平均線からの圧力に直面していることがわかります。移動平均線を統合・修復するには時間を要するだけでなく、サポートが確立されているかどうかも不透明です。これは主に第3四半期の財務報告の発表とウォール街でのAIバブル問題に関する議論によるものです。
年末の会計調整を優先する動きから、AI関連銘柄が連日上昇している。
AIバブルとドットコムバブルは性質が全く異なります。前者は巨大IT企業が実際に資金を投じるのに対し、後者は市場シェア獲得のために負債を負うという点です。しかし、市場心理はドットコムバブルの頃ほど不安定ではありません。特に、インターネット技術はeコマースやクラウドコンピューティングといった経済モデルを生み出したため、生成型AI技術は生産性向上に有益であるという認識が一般的です。しかしながら、年末決算のオプションを考慮すると、大きく上昇したAI関連銘柄は当然ながら調整対象として最適です。
どれも非常に合理的な選択のように見えましたが、同時に警戒感も抱かせました。今年のAI関連銘柄の急騰は、800Gスイッチ、ASICサーバー、空冷から液冷への移行、800VDCアーキテクチャ、M9素材といったハードウェアのアップグレードによって牽引されました。これらのハードウェアのアップグレードは、より高級な素材の使用につながり、素材不足を引き起こしました。さらに、Nvidiaはハードウェアを毎年アップグレードすると表明していたため、GB200からGB300への供給がスムーズになると、株式市場の認知度が高まり、資金が大規模な短期投資を行うことが可能になりました。Delta Electronics、BizLink-KY、Chuanhu、Guang Sheng、Taiguang Electronics、Chi Hong、Jian Ce、Wistron、Xin Hua、Qin Chengなど、これらの好調な銘柄の多くは、株価が2倍以上に上昇しました。
しかし、最近のメディア報道によると、NVIDIAはサーバーハードウェアをVera Rubinプラットフォームに高度に統合(L10)し、ハードウェアサプライヤーのスペースをわずか10%にまで縮小するとのことです。これにより、OEM/ODMメーカーの事業運営余地は大幅に縮小するでしょう。もしこの噂が事実であれば、時価総額が大きなウェイトを占める下流サーバーメーカーにとって大きなマイナス要因となり、加重指数に圧力をかけることになります。これは、NVIDIAの第3四半期決算が好調であったにもかかわらず、サーバー関連銘柄のパフォーマンスが低迷し、ASUS、Gigabyte、Inventecが年間移動平均線を下回っている理由を説明できるでしょう。これは、10月初旬から外国人投資家による売りが続いている理由も説明できるかもしれません。
メモリーチップ銘柄は高値水準で推移している。
強気相場を阻むもう一つの重要な要因は、メモリのスーパーサイクルがどれだけ長く続くかだ。モルガン・スタンレーは、メモリチップ価格が10%上昇した場合、ハードウェアメーカーの粗利益率を0.45%から1.50%圧迫する可能性があると指摘している。今年の第3四半期と第4四半期には、メモリ価格(SSD、DRAM、VRAMを含む)は平均で約30%から50%上昇した。したがって、メモリ価格の上昇は、下流ブランドメーカーの利益を1.35%から7.50%押し下げる可能性がある。コスト転嫁ができない場合、実際には粗利益率は3%から6%近く(サプライチェーンの投資収益率に非常に近い)減少する可能性がある。
もう一つの変数は、エイサーの陳春生会長が、メモリチップの価格上昇が鈍化するかどうかは、長鑫メモリのDDR5生産能力がいつ「大量稼働」するかにかかっていると述べたことです。すべてが順調に進めば、長鑫メモリは2~3ヶ月以内(つまり2026年第1四半期)に月産28万~30万枚(現状比約50%増)に大幅に増加すると予想されています。その時点で、メモリチップ価格の上昇圧力は大幅に緩和されると予想されます。
ADATAとInnoluxは、メモリは2026年まで供給不足が続くと断言していますが、Nanya Technology、Winbond Electronics、Phisonといった主要メモリ銘柄は明らかに高値圏で推移しています。移動平均線の抵抗線を突破するには、しばらく時間がかかるでしょう。また、国内機関投資家からの売り圧力は依然として強いようです。そのため、サーバーセクターとメモリセクターの株価が引き続き推移した場合、加重指数が四半期サポートレベルを維持し、過去最高値を直接更新する可能性は低いと考えられます。
GoogleのGemini 3 Proは高い評価を得ています。Gemini 3はChatGPT、Grok、Perplexityよりも高速で俊敏性が高く、より深い推論能力を備えています。さらに重要なのは、Gemini 3はNVIDIAチップではなく、主にGoogle TPUで学習されていることです。TPUはNVIDIA GPUほど柔軟ではありませんが、開発コストが低く、フル負荷時の消費電力も少なくなります。
Google TPUエコシステムの成長の可能性に楽観的
さらに、GoogleのAIインフラストラクチャ責任者であるアミン・ヴァダット氏は、11月6日に開催された全社会議において、Googleはコンピューティング能力を6ヶ月ごとに倍増させる必要があり、今後4~5年で1000倍の増強を目標としていると述べた。さらにヴァダット氏は、「現時点では、投資不足のリスクは過剰投資のリスクよりもはるかに大きい」と述べた。
ゴールドマン・サックスは、2026年までにGoogleのTPUエコシステムの成長ポテンシャルに楽観的な見方を示しており、TPU + AIサービスの価値は9,000億ドルに達する可能性があると予測しています。同社の中核的な優位性は、ソフトウェア、ハードウェア、クラウドの統合と「自社開発+サプライチェーン管理」能力にあります。TPUエコシステムが拡大すれば、BroadcomのASICチップ設計におけるビジネスチャンスも拡大する可能性があります。
3月には、Googleがコスト削減と生産加速のため、次世代TPUでMediaTekと提携する計画があると噂されていました。しかし最近、Creative LabsがGoogle向けにAxion CPUを開発しているとの報道があり、これは2026年の明確な成長ドライバーになると予想されています。Creative Labsの株価は過去最高の2,175台湾ドルを記録しました。
推論モデルは、Nvidia への依存から脱却することを目指しています。
AI ASIC分野における新しいシステムレベルのテストアプリケーションの需要増加の恩恵を受けて、Ingenicの収益は2026年に前年比42%増加すると予測されています。WM Siliconは2026年にGoogle TPUにVPCプローブカードを供給する予定で、その年の収益成長率は46%と推定されています。
GoogleのTPUエコシステムが最終的にNvidiaの独占から脱却できるかどうかに関わらず、OpenAIとAMD、そしてAnthropicとGoogleの連携は、AI大手企業が2026年にはモデルの学習にNvidiaのGPUに依存する必要がある一方で、推論モデルに関してはNvidiaへの依存を減らしたいと考えていることを示しています。したがって、2026年のAI銘柄選定は、もはやNvidiaに支配されることはないでしょう。 November 11, 2025
オーダー依頼
オーナー:@hobbs_AMD
車両:P1
レイヤー数:100枚
HinaオリジナルデザインのAMD仕様✨
このデザイン人気ですね( ´艸`)
今回は、部分変更&クラブロゴ、キット無しVer.にて製作致しました☺️
ご依頼ありがとうございました(*´꒳`*)
#レーマス
#Hinaオリジナル
#KOHK https://t.co/31ZBUufhhl November 11, 2025
🤖集まれロボティクス開発者‼
パリや東京で開催されるAMD Open Robotics Hackathonに出場して@huggingface LeRobotを使った、現場で役立つロボットソリューションを開発しよう!
賞金,000を獲得するチャンス💪
AMDのAIハードウェアも体験しよう‼
👉 詳細/参加登録はこちら https://t.co/bdhoAXIyEv https://t.co/T9g8MWPwkj November 11, 2025
2025年,我的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/W0qe8YtsYX)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍,
现在最大的问题是,groq、sambanova、cerebras他们只能白嫖开源模型(deepseek、qwen、zai甚至更难用的llama),因为这三家自己没能力训练模型,本质是卖芯片的(实际是自己造完data center后卖API),
但是只要中国几家厂商能源源不断输送最好的开放weights的模型,让groq、sambanova、cerebras持续用上他们能用的最好的开放weights的模型,这三家最终会把nvidia、google tpu连同他们的客户一锅端。
人类依然非常需要LLM inference的时间上的飞速优化,只不过现在人们需要更强的模型,而人类愿意为此多等等时间,
但是终归有一天人们会发现,无论是coding,还是在各种infra中快速反馈相应,哪怕是简单的搜索或者问答,inference速度这件事才是至关重要。 November 11, 2025
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
①わかりません…ロマンですかねぇ…全く光らないのもあります。
静音性特化ですね
https://t.co/qqBpMM2G8J
②昔はありましたが、最近はほぼ解消されてます(0とは言いません、ゲームや配信、動画編集関係だと特にそういうソフトは無いと思います)。今のゲーミングPCだとAMDがかなりのシェアです。なお、動画編集などをゲームより重視するならCoreUltraシリーズもありです。
③もちろんです!その辺もかなり品揃え自信ありですね(特に秋葉原、なんばの店舗や、おんなじものを売ってるのでもちろんドットコムも) November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





