クラウド
0post
2025.11.27 10:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Googleは、Nvidiaを速度で倒すのではなく、計算コストを安くすることでAIで勝とうとしている。
NvidiaはGPUをクラウドに売る時に70%以上の高いマージンを乗せ、それがクラウド価格を押し上げる。
一方Googleは、TPUをほぼ製造原価で自社用に作り、販売マージンなしでAggressiveなクラウド価格を出せる。
これはチップ → ネットワーク → クラウドの垂直統合により、スタック全体を押さえているから。
トレーニングは最速チップが重要だが、運用段階では推論がコストの大半を占める。
もし推論がAIコストの90%になるなら、勝者は大規模に最も安いトークン単価を提供できる企業になる。
GoogleはTPUでトークン単価を下げ続け、それをクラウド価格に反映させる。
そうなると、買い手は速度より価格・安定性・供給量を重視する可能性が高い。
Nvidiaは最先端のトレーニングでは強いが、推論が安価なTPUに移れば高いマージンは縮むかもしれない。
さらにGoogleは、Search/YouTube/Android/Workspace でTPUのキャパを常に埋められる巨大ディストリビューションの強みがある。
(ChatGPT和訳) November 11, 2025
11RP
/
Wフォロー&リポスト🔁で
A5ランク【黒】毛和牛🐃
#プレゼントキャンペーン 🎁⚡️
\
📢 応募方法
①クラウドキャッチャー & モコネオ をWフォロー!
@CCatcherApp & @CC_moconeo
② キャンペーン投稿をリポスト🔁
🗓️ 期間:〜11月28日(金)23:59〆
🏆 賞品:A5 黒毛和牛 選べるカタログギフト…抽選1名様
🔽詳細はこちら🌩️
https://t.co/wXPx2dqdwB
#クラウドキャッチャー
#オンラインクレーンゲーム #オンクレ
#ブラックフライデー
#リポストキャンペーン November 11, 2025
9RP
なぜこうも不毛な分断が生じるのかと言うと、
批判的なのはOSSについてではなく、
- 自治体システム標準化やガバメントクラウド移行に伴う自治体や関与事業者の悲痛な叫びを「無視」していることへの怒り
なのだと思います。
事実、「もう終わったこと」「なかったこと」では済まされない現実が自治体の現場にはありまして(私も辛い思いをしています)、
「OSSの資産問題なんてヌルい質問してんじゃないよ。質問するなら『今ここにある危機』なんじゃないのかよ」
という失望の現れなのではないかと受けとめました。
実際、関与している自治体での私の役割は、
- リスクマネジメント(いかに住民の方に不利益を与えないか)
- 関与する職員の心理的負担の軽減(心のケア)
にあります。それぐらい職員の人身に関わっていますし、これまで以上にシステムのトラブルがニュースを賑わす可能性は大きいです。
ニュースになってからでは遅いよね。それとも一度底辺に落ちたほうがいいと思ってるのかな…
いろいろな方のコメントにもある「解像度」なる言葉は、
「おまえちゃんと勉強してるのかよ。
役人のレクを丸呑みしてんじゃねえぞ」
という期待の現れかと。
国民の代表なんですから、私は期待していますよ。
(支持しているかはともかく) November 11, 2025
9RP
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
2RP
今日の尾辻さんの質疑、すごく良かった
立憲の質疑は調査もしっかりしているし、質が高い
15の医療DXシステムがあるけれど、各課が個別に持っているため、厚労省として全体把握ができていなかったらしい
クラウド基盤は12で、そのうちマイクロソフトが1つ、残りはすべて AWS を利用
これではベンダーロックインがクラウドロックインになっただけで、寡占状態のリスクもあり、国内 IT 産業の弱体化につながる
大臣の答弁も前向きだった
美容医療で使われているエクソソームや幹細胞培養上清液の規制が緩すぎる
国内で扱っている医療機関は600を超えており、欧米よりはるかに多いのに、厚労省はその数を正確に把握していない
倭国では実験用のエクソソームの使用が規制されておらず、薬事法の規制対象外で“法の穴”に落ちている状態
保険適用外のため、1回4万円を超えるものもある
がんリスクもあることから、安全な実施を求める文書配布だけでなく、実態把握が必要ではないか
NMN点滴についても、ハーバード大教授の名前を出して「点滴の開発者」のように宣伝されているが、実際は点滴を開発していないし、むしろ慎重な対応を求めている
マンジャロはオンライン購入が可能で、ダイエット目的の使用による救急搬送も出ている
厚労省の答弁はかなり消極的で、やる気がなさすぎる
保険適用外ということは、厚労省が実態把握もせず、安全性にも責任を持っていないという現状なんだよね・・・
2025年11月26日 衆議院 厚生労働委員会 https://t.co/1rq4DOre81 @YouTubeより November 11, 2025
2RP
なるほど。Nvidiaは製造とR&Dコストに70%以上の大きなマージンを乗せてGPUをクラウドに販売し、クラウド価格を押し上げている。Googleは、製造コストに近い価格でTPUを構築し、積極的なクラウド価格を押し出す
これが垂直統合で、チップからネットワーク、クラウドの全体のスタックを所有することで価格競争力が出てくる。学習は最速のチップを好むが、モデルが稼働するとコストの大半は推論に費やされ、安定した低コストのハードウェアが重視される
推論が支出の90%を占めるようになれば、勝者は最低のトークンあたりのコストを提供する者になる。Googleの計画はTPUでトークンコストを継続的に削減し、クラウド価格を通じてその節約を顧客に還元すること
Nvidiaは最先端のトレーニングで強さを保ち続けるが、ワークロードがTPUでの安価な推論に移行すれば、高いマージンは縮小する可能性がある
ディストリビューションもGoogleにとって大きなレバレッジで、Googleは検索、YouTube、Android、ワークスペースを通じてTPU容量を埋め尽くすことが可能 November 11, 2025
2RP
TLを見てると、特許情報分析は、
①紙にまとめる最古の時代から、
②エクセルで集計してグラフ化してパテントマップを作る時代を経て、
③専用クラウドツールを活用してIPLする時代になり、
④AIを使って自分でツールを作ってカスタム分析をする時代に、
シフトしつつある感じがするね November 11, 2025
2RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
1RP
☀お昼配信告知☁
本日12時~
クラウドキャッチャー(@CCatcherApp)様にてライブ配信を行います✨
明日のあなごちゃんとの対決に向けて予習しておかねば💪
新景品盛り盛り狙っていくぞ🔥
https://t.co/oyuvtxJaH4
↑ライブ配信のリンクです
#ゲーム実況
#PR https://t.co/TEQv79h6F6 November 11, 2025
1RP
昨日、メルマガ読者様よりお問い合わせをいただきました。 現在ISP(プロバイダー)発行のメールアドレスを使用中で、大量の迷惑メールに業務を妨げられているとのこと。
「Google Workspace(Gmail)に切り替えたら軽減されますか?」
というご質問に対し、以下のようにお答えしました。
✅ 強力なスパムフィルターGoogleのAIが学習し続けるフィルターにより、不審なメールの多くは受信トレイに届く前に処理されます(効果は絶大です)。
✅ 独自ドメインで信頼性UPビジネス利用なら月額少額のコスト(Business Starterなど)で、自社ドメインのGmailが利用可能です。
✅ 複数拠点・スマホでも同期クラウドなので、会社・外出先・自宅どこでも同じメールボックスを確認できます。
お問い合わせいただいたお客様も複数拠点をお持ちでしたので、「それはウチにとって良いことしかない!」とメリットを実感していただけました。
メールはビジネスの基本インフラです。 まだGoogle Workspaceをご利用でない企業様、ぜひ一度ご検討ください。
🌐 導入サポート・詳細はこちら https://t.co/0wWG5Mv2b0
#GoogleWorkspace #Gmail #業務効率化 #中小企業 #DX November 11, 2025
1RP
/
☁️1分でわかる
クラウド・レルム編ストーリー
\
12/6(土)に『#ロマサガRS』は7周年!🎉
7周年に向けて、クラウド・レルム編を相関図つきでおさらい🎥✨
これまでのクラウド・レルム編の考察や感想があれば、ぜひ教えてくださいね💬
ゆっくり読みたい方はリプライをCHECK!⬇️
#ロマサガRS祝7周年 https://t.co/ZeSnPa6zpx November 11, 2025
1RP
クラウドコンピューティングはすっかり一般化し、バズワードのポジションはAIに奪われました。デジタル技術のイノベーションは曲がり角にあり、アーキテクチャレベルからの再考が求められます。その時クラウドネイティブは何をどう支えられるのかについて皆様と議論します。 November 11, 2025
@caerusienne ウチもHDDとクラウドの両方使ってる!
ウチも夫なんて当然なんにもやらないよ…って言いかけて、よくよく見たら違った!逆だった!
うらやま! November 11, 2025
タブレット買った
しかし私はすっかり忘れてた大事なこと
それは…
移行作業ww
うぅ( 。゚Д゚。)
できるよ、できるけど面倒よね…
しかし外注するほどでもないこのジレンマ(^^;
クラウド使えよっとツッコミがあるかもだけど使いたくない昭和の人w
#ブラックフライデー November 11, 2025
長年ATOK使ってきたけどプレミアム相当の機能は不要なので解約いたします。
求めているのは、IMEとしての圧倒的な変換精度であって無駄に多い辞書やクラウド連携機能じゃないんです。
https://t.co/UtQWy4gMPJ November 11, 2025
🌠🛸入荷案内🛸🌠
『#ダンダダン』 -Relax time-モモ
いつもの制服姿とはひと味違う✨ #モモ が登場です❣️
普段の表情とはまた違った魅力がありますよ❗(˘ᵕ˘ )
約10㎝の大きさで棚やデスクに飾りやすいサイズです✨💕
▼ゲームプレイはこちら
https://t.co/9GqzaIxM4Z
#クラウドキャッチャー
#オンクレ
#オンラインクレーンゲーム November 11, 2025
クラウドコンピューティングはすっかり一般化し、バズワードのポジションはAIに奪われました。デジタル技術のイノベーションは曲がり角にあり、アーキテクチャレベルからの再考が求められます。その時クラウドネイティブは何をどう支えられるのかについて皆様と議論します。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





