AMD
0post
2025.11.28
:0% :0% (30代/男性)
AMDに関するポスト数は前日に比べ59%減少しました。男性の比率は3%増加し、本日も30代男性の皆さんからのポストが最も多いです。本日話題になっているキーワードは「NVIDIA」です。
人気のポスト ※表示されているRP数は特定時点のものです
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
55RP
テクノロジーアナリストが選ぶAI関連10銘柄
AIバブルではなく「本格普及はこれから」
🔸AI革命はまだ序盤、企業の導入率はわずか3%
ウェドブッシュのアナリスト、ダン・アイブス氏は「AI革命はまだ始まったばかり」と強調しています。
米国企業のAI導入率はわずか3%、世界全体では1%未満にとどまっているとのことです。
話題は大きいものの、実際の普及はまだ初期段階だと指摘しました。
🔸1999年とは異なる確かな収益基盤
アイブス氏はドットコムバブル期との比較を否定しています。
当時の平均的なテクノロジー株は売上高の30倍で取引されていましたが、ビジネスモデルは未実証でした。
現在の大手企業は数千億ドルの現金を生み出しており、実際のインフラと顧客を持っています。
🔸需給のひっ迫が示す成長余地
エヌビディアのチップに対する需要は供給を大きく上回っている状況です。
このアンバランスは過熱の兆候ではなく、産業が需要に追いついていない証拠だとアイブス氏は述べました。
エヌビディアはアマゾン、グーグル、マイクロソフトといったAI競争の主要企業に供給しています。
🔸注目すべき10銘柄とその理由
アイブス氏が選んだのは、AI経済に不可欠な企業です。
マイクロソフトは企業のAI導入で最も利益を得る可能性が高く、パランティアは政府・企業向けAIソフトの筆頭です。
エヌビディア、AMD、テスラ、アップル、メタ、アルファベット、クラウドストライク、パロアルトネットワークスが選ばれました。
🔸まとめ
AI関連の設備投資は2026年までに5500億〜6000億ドルに達すると予想されています。
米国企業の5%未満しかAIを本格導入しておらず、成長余地は極めて大きいとアイブス氏は見ています。
「AIパーティーは午前4時まで続くが、今はまだ午後10時半にすぎない」と表現しました。
🔸参考
Tech analyst Dan Ives flags 10 stocks to own, insists there's no AI bubble
https://t.co/M9aA185mCv
🔸図解 November 11, 2025
31RP
2025年,我的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/W0qe8YtsYX)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍,
现在最大的问题是,groq、sambanova、cerebras他们只能白嫖开源模型(deepseek、qwen、zai甚至更难用的llama),因为这三家自己没能力训练模型,本质是卖芯片的(实际是自己造完data center后卖API),
但是只要中国几家厂商能源源不断输送最好的开放weights的模型,让groq、sambanova、cerebras持续用上他们能用的最好的开放weights的模型,这三家最终会把nvidia、google tpu连同他们的客户一锅端。
人类依然非常需要LLM inference的时间上的飞速优化,只不过现在人们需要更强的模型,而人类愿意为此多等等时间,
但是终归有一天人们会发现,无论是coding,还是在各种infra中快速反馈相应,哪怕是简单的搜索或者问答,inference速度这件事才是至关重要。 November 11, 2025
22RP
Googleは、TPUを一般企業やユーザ向けに広く販売するという選択肢を残していて、もし普及できれば、TPUの販売がGoogleの収益の柱となり、全方位で圧倒的な勝者になる可能性はあります。
ただし、NVIDIAより性能が低めで、価格が安いAMD Instinct GPUがあまり普及していないことを考えると、
普及するためには、TPUが価格と性能でNVIDIAよりかなり優位に立つことが条件です。
また、普及にはAIモデルの処理の互換性や、導入のしやすさが鍵になります。
試した限りでは、AMD Instinct GPUとGoogle TPUはだいたいのAIモデルが動きますが、AMD Instinct GPUはコードの書き換えがほぼ必要なく導入できる一方で、Google TPUはコードの書き換えが必要で、導入のハードルが高いです。
AmazonのTrainiumも試しましたが、動くAIモデルが限られ、導入のハードルも高いので、NVIDIAに対抗しうるレベルまで成熟しているとは言えない印象を受けました。
試せていないですが、他にも、Cerebras WSE-3、Groq LPU、Intel Gaudi 3、Huawei Ascendなどがあり、いつか試してみたいです。
まとめると、TPUは価格・性能面での十分な優位性や、導入のしやすさで課題があり、また他にもプレイヤーが多いので、NVIDIAのように普及できるかは現時点では未知数かと思います。
また、NVIDIAの独走を食い止めるという意味では、やはりAMDが本命なのではないかと思います。 November 11, 2025
13RP
グラボ買い替える頃にはきっとROCmがWindowsでフルサポートされてAMDグラボでもNVidiaと同様にComfyUIが普通に使えるようになってる事を期待。NVidia、お前が招いたCUDA離れだぞ https://t.co/gUkoEJW0rM November 11, 2025
5RP
🤖集まれロボティクス開発者‼
パリや東京で開催されるAMD Open Robotics Hackathonに出場して@huggingface LeRobotを使った、現場で役立つロボットソリューションを開発しよう!
賞金,000を獲得するチャンス💪
AMDのAIハードウェアも体験しよう‼
👉 詳細/参加登録はこちら https://t.co/bdhoAXIyEv https://t.co/T9g8MWPwkj November 11, 2025
5RP
今回の件の違和感の元凶は何かというと、受益者自身が開発しないものをOSSにする、という点なんだよ。
Linuxカーネルだと、RHみたいなソフトウェアベンダーはむしろ珍しくて、LinuxというOSが動くことにメリットがあるハードウェアベンダーのコントリビューションが大きい。IntelやAMDといったCPUベンダーはもちろん、デバイスドライバーを提供すれば自社H/Wを使って貰えるベンダーが多い。
某弊社がPostgreSQLに大きくコミットしているのは、自社のサービスとして提供するというメリットがあるから。AWSさんがコミットしているのも同じ理由だと思う。
なので、自治体→ベンダーという構造で、ベンダーが受益者たり得るのかが、不勉強でよく分からんのだよね。自治体そのものが開発するのは倭国の場合は無理でしょ? デジ庁が開発するスキームなら、まだ分かるかなぁ。 November 11, 2025
4RP
【NEW PRODUCT】📣
DAMD FREED ISOLATORが本日発売となりましたーー☺️
たくさんのアイソレーターオーナー様とお会い出来るのを楽しみにしております✨
https://t.co/J2hitrtT3f https://t.co/jbG8laWvim November 11, 2025
4RP
ホンダ黄金期の“ヤングタイマーデザイン”を最新ミニバンに融合! シンプル&ワイルドが刺さりまくるDAMDの最新作「フリード アイソレーター」で楽しむデイキャンプ
https://t.co/Dx9jyfFT2x
#DAMD #ダムド #フリード #honda #ミニバン #カスタムカー #くるまのニュース #PR https://t.co/wXsYa452mO November 11, 2025
4RP
AMDからチップセットを提供されているんでAMD側かと…
ではなく…
コンソールゲーム機はメモリとVRAMを共有する作りになっていて早い話RAMをVRAMのかわりにする、という実装をされていました。
でとXSSだとメモリがあまり早くなく量もない結果、アップデートが積み重なったモンハンワイルズではゲー https://t.co/3fF9JDeHLh November 11, 2025
3RP
しれっと32GBの XFX AMD Radeon™ AI PRO R9700 購入する人怖すぎます(意訳:本当にありがとうございます https://t.co/m3s2TLc0of November 11, 2025
3RP
AMD BC-250でスト6やってるけど、WQHD 60Hzでも普通にいけてるな。違和感なくトレモできてる。USB DACで音も問題なし。うーん、思ってた以上に快適だ…。 https://t.co/NbiNMJrDyE November 11, 2025
3RP
《最高峰モデルPCをプレゼント》
抽選で🔟名様へ👇をプレゼント🎁
NEXTGEARゲーミングPC FG-A7G80
🟪Windows 11 Home 64ビット
🟪AMD Ryzen 7 9800X3D
🟪NVIDIA GeForce RTX 5090
【参加受付】
➊いいね+フォロー
➋好きな絵文字をコメント
〆切:11/30 23:59 https://t.co/xm72JBG6NB November 11, 2025
3RP
ドスパラ通販でCPUとマザーボードセットがお得に買える
Ryzen5 3400G クーポン使用で9,000円
ASRock A520M-HDV CPUマザーボードセットクーポン使用で480円
合計9,480円
#AMD
#RYZEN https://t.co/GnXG2wyhQl November 11, 2025
3RP
もちろんいい意味でだけどDAMDってこう女をグーで殴ってそうなDQNやゴロツキのご愛好のエアロ作ってた頃が懐かしく思うがだいぶイメージ変わったよね。
この系統のカスタム結構見るし、ファミリー層にターゲット変えてから景気がいいかな。 https://t.co/yHlXYHeS9a https://t.co/M45ei8s18d November 11, 2025
2RP
AIの学習や推論では、NVIDIAの独占状態で、棲み分けというレベルにとても達してないのが現状。
Google TPU、AMD Instinct、Amazon Trainium等はクラウドで使えますが、弊社のようなコストをどうしても削減したい物好き以外は試してすらなく、弊社は一通り試し、NVIDIAを使い続ける結論になりました。
ただし、推論においてはCerebrasやGroq、SambaNovaなどが一部で使われ始めていて、CursorのComposer1はそのおかげで爆速で推論できています。
TPUは推論速度でCerebrasやGroq、SambaNovaなどのレベルに達しておらず、現状でわざわざ推論のためにTPUを選択するメリットはないです。
株クラの方向けの自分の見解ですが、NVIDIAの独占はしばらく続き、将来的にその独占を崩せる可能性がある本命はAMDで、Google TPUも可能性はあるかぐらいかと思います。 November 11, 2025
2RP
ちなみにだが直近の底値に近い火曜日にSQQQを利確して全銘柄
エヌビディア【NVDA】
ブロードコム【AVGO】
パランティア【PLTR】
アップラビン【APP】
AMD
アルファベット【GOOG】
を買ったがな
天才だろ❓ https://t.co/3RwOU1iFY9 https://t.co/yGrLCWEBq3 November 11, 2025
2RP
メモリーにも注目!
🔻
🔻
🔻
【Micron: $MU 】DellとHPの決算で判明! 🚨 メモリー価格高騰がAI相場を牽引しすぎる問題📈
#概要
1️⃣ Micron株は年初来で約174%もの暴騰を記録しており、デル(DELL)とHP(HPQ)の決算がメモリー需要の確実性を証明しました。
2️⃣ メモリー価格の高騰はAIブームと生産能力の再配分による供給不足が原因で、デルは巧みにコスト増を管理した一方、HPは年間30セントの利益圧迫を警告しました。
3️⃣ この価格高騰はメモリー・スーパーサイクルの到来を意味し、アナリストはMicron株のさらなる上昇(目標株価275ドルなど)を予測しています。
#内容
1️⃣ メモリー価格高騰がAI需要の「真実」を証明
Micron Technologyの株価は、感謝祭後の薄商いのセッション(11/28)でも2.6%上昇するなど、今年に入って約174%という驚異的な上昇を続けています。
この強さを裏付けたのが、デルとHPの決算コメントでした。
デルはAIサーバー需要の力強さを示し、サプライチェーン管理の巧みさでコスト上昇を吸収しました。
一方のHPは、メモリー価格の高騰を理由に2026年度の利益見通しを下方修正し、メモリー価格の上昇が「実在するコスト圧力」であることを顧客側の視点から明確に示しました。
2️⃣ AIブームとDRAM・NANDの供給不足
メモリー価格高騰の根源は、AIブームによるチップ生産能力の再配分です。
メーカーが利益率の高いAI向けメモリー(HBMなど)に生産を集中させた結果、パソコンやスマートフォン向けの一般的なDRAMやNANDフラッシュの供給が不足しています。
アナリストは、DRAM価格が前回のスーパーサイクル(2016-2018)を上回るペースで上昇しているとし、この供給逼迫は2026年まで続くと予測しています。
3️⃣ Micronの将来性と市場評価
Micronは、AIトレーニング用データ保存に不可欠なDRAMやNAND、特に高帯域メモリー(HBM)をNVIDIAやAMDなどに供給しており、この価格高騰の最大の恩恵を受けます。
ゴールドマン・サックスなど大手銀行は、Micronの目標株価を相次いで引き上げ、利益見通しが大幅に改善すると見ています。
株価はすでに大きく上昇していますが、他のAIインフラ銘柄(NVIDIAなど)と比較しても依然として割安であり、今後数年間のメモリー・スーパーサイクルに対する期待から、さらなる上昇の余地があると評価されています。
#株式投資
#米国株投資 #新NISA #銘柄ナビゲーター : @s_navigator_umi #ムクローネby銘柄ナビゲーター November 11, 2025
1RP
純AMD最新ゲーミングPC
この構成で自作も考えてた方多いかと
https://t.co/YVxmByN8Hn https://t.co/gejwrl0E6b November 11, 2025
1RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





