DeepSeek トレンド
0post
2025.12.03 01:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
アメリカの厳しいAIチップ規制を回避する中国AI企業の戦略が、ついに露呈しました。
NVIDIAチップなしでどうモデルを訓練しているのか?その答えは「意外な国のデータセンター」にありました。
立ち回りが上手すぎます。
その衝撃的な詳細を3つのポイントにまとめました。
1. 海外データセンターでのNVIDIA製GPU利用
まず一つ目の主要戦略は、海外データセンターの活用です。中国のAI大手は、自国内ではなく、NVIDIA製ハードウェアに合法的にアクセスできる海外のデータセンターを利用して、最新の大規模言語モデルのトレーニングを行っています。これにより、物理的なチップの輸入規制を事実上無効化しているのです。
2. 東南アジアへのワークロード移行
具体的な企業の動きも明らかになっています。AlibabaやByteDanceといった巨大テック企業は、かなりの規模のトレーニングワークロードを東南アジアのデータセンターに移行させています。規制の網がかからない地域で計算リソースを確保するという、極めて合理的な判断が実行されています。
3. DeepSeekとHuaweiによる国内連携
一方で、国内エコシステムの強化も進んでいます。特にDeepSeekは早期にGPUを備蓄し、さらにHuaweiとの提携を強化することで国内での計算基盤を確立しようとしています。海外リソースの活用と国内自給の二段構えで、規制の壁を乗り越えようとしているのです。 December 12, 2025
1RP
DeepSeek V3.2 、こういう評価もあるみたい。
倭国語訳
DeepSeek V3.2 はベンチマーク上ではとんでもない性能に見える……しかし、初期テスターの評価はあまり良くない。
チャートは大騒ぎになっている。
AIME は90点台半ば、HLE も大幅向上、Codeforces ではレート2700に迫る勢い。
数字だけ見れば完全にモンスターだ。
しかし、実際に触った人たちの報告はまったく違う。
すでにこんな声が上がっている:
「ベンチマークに全振りしたモデル」
「数字はすごいけど、リアルな使用感は普通」
「コード書くなら、むしろ Grok のほうが良い」
また同じパターンだ。
ランキングでは圧勝、日常使用では平凡。
もちろん“悪い”わけではない。
だが、DeepSeek は実用性よりスコアボード最適化に注力したように見え始めている。
この熱狂が落ち着き、本格的な検証が始まったとき、どう評価されるか注目だ。 December 12, 2025
好みの作文をするLLMを見つける方法
1. 何か記事を選ぶ
2. perplexityなどで要約する
3. https://t.co/9GD89GwmPN を開いて(2)をコピペして本文を書いてと指示する
4. 2種類のモデルの文章が出るので好きな方を選ぶ
5. 繰り返し
自分はGeminiとDeepSeek系が割と好きというのが分かった December 12, 2025
DeepSeekもそうだけど、中華LLMが一番使ってて感動する。GemmaとかQwenはパッと見た感じ、特定の用途なら使えるんじゃない?とか思っちゃうけど、ガチ利用を見据えるとやっぱり微妙だなってなる。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



