クラウド
0post
2025.11.28 04:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
おい嘘だろ もうこれが分からないって世代がこんな素敵な絵を描けるのかよ これはローポリといってまあつまりこれじゃ この方が探しておるのは左側のクラウドじゃな https://t.co/gZq5BknQUK https://t.co/Crv9x4b2G2 November 11, 2025
16RP
/
Wフォロー&リポスト🔁で
A5ランク【黒】毛和牛🐃
#プレゼントキャンペーン 🎁⚡️
\
📢 応募方法
①クラウドキャッチャー & モコネオ をWフォロー!
@CCatcherApp & @CC_moconeo
② キャンペーン投稿をリポスト🔁
🗓️ 期間:〜11月28日(金)23:59〆
🏆 賞品:A5 黒毛和牛 選べるカタログギフト…抽選1名様
🔽詳細はこちら🌩️
https://t.co/wXPx2dqdwB
#クラウドキャッチャー
#オンラインクレーンゲーム #オンクレ
#ブラックフライデー
#リポストキャンペーン November 11, 2025
5RP
先日の櫻井祥子議員の質疑(参・経産委)
https://t.co/feP3IVlMSK
電気料金の高騰とデジタル赤字の懸念に関する質疑でした。
電気料金の高騰については、再エネ賦課金の原因であるFIT/FIP制度を見直して、料金の高騰を抑えるべきです。
また、赤沢大臣から中長期的に再エネや原子力等への経済構造への転換を推進する旨の御答弁がありましたが、再エネについては、安価な大規模出力を満たすものではなく、また、メガソーラーや洋上風力等には環境破壊や危険性もありますので、再エネ比率を高めることには反対です。
現在ある原発については最大限に活用した上で、原子力に代わる安全かつ安定的に大規模な電力を出力することができる発電方法について、国を挙げた開発を進めていただきたく思います。
デジタル分野については、赤字が拡大している現状を是正しなければならないことに加え、櫻井議員の御指摘の中にもあったように、国産クラウドの開発が必要です。
ガバメントクラウドでは、大半の自治体がAWSを活用している現状があり、安全保障上の観点からも国産クラウドの開発促進(国産はさくらインターネットのみ)を加速していただきたいです。
情報戦の世の中、デジタル主権を取ることも非常に重要なポイントです。
櫻井議員、ありがとうございました。 November 11, 2025
4RP
アサヒさんのランサム事案の記者会見(QA含む約2時間)からセキュリティクラスタ的に気になるであろう箇所をピックしました。以下16項目でまとめています。
・2025年9月29日(月)午前7時頃システム障害が発生し被害確認。詳細な日時は未特定だが約10日ほど前に同社グループ内の拠点にあるNW機器を経由し侵入。その後主要なDCに入り込みパスワードの脆弱性を突いて管理者権限を奪取し移動を行い、主に業務時間外に複数サーバに偵察侵入し、アクセス権認証サーバからランサムウェアが一斉実行され起動中のサーバやパソコンが暗号化された。
・被害発覚の10日ほど前から侵入されていた可能性があるが、その間は導入していたEDRでは検知できなかった。攻撃が高度で巧妙であったため。EDRのレベルをより上げる課題がある。強化して監視の仕組みも見直す。
・侵入経路はNW機器。VPN機器かどうかはセキュリティの都合から明言出来ないが世間の想像とそう違いはないと思います、ということで留めたい。入口になり得る"脆弱性"の改善は完了済み(※この"脆弱性"という言葉は社長発言だが狭義の既知脆弱性=CVEという意味では使ってなさそう)。VPN機器は存在していたが対応過程で廃止済み。
・被害が拡大しないよう安全性を確保しながら慎重に復旧を進めたため時間を要した。バックアップデータは取得しておりそれが生きていたことは幸いだった。バックアップは複数媒体で取得していた。大部分が健全な状態で保たれていた。
・明確な個人情報の漏洩は、従業員に貸与したPCの情報を確認しているが、システムからのデータ漏洩は未確認で可能性として考えている。
・社員の個人貸与PCに情報を残すことは許可しておらずクラウド保存をポリシーで定めていたが、一時的に保管していた個人の情報が残っておりそのタイミングで攻撃がきた。
・工場現場を動かすOT領域は一切影響を受けておらず無傷で、工場は通常稼働ができる状態だった。出荷関係のシステム被害により作っても持って行き先がないので製造に結果的に影響が出た。システムを使わないExcelなどで人力での出荷で対応していた。
・NISTフレームワークに沿った成熟度診断は実施しており一定以上のアセスメントが出来ていたため十分な対策を保持していると考えていた。外部のホワイトハッカーによる模擬攻撃も実施してリスク対処をしていたので、必要かつ十分なセキュリティ対策は取ってたと判断していた。しかし今回の攻撃はそれを超える高度で巧妙なものだった。
・被害範囲は主にDC内のサーバとそこから繋がってるパソコン。端末台数は37台。サーバ台数は明言できない。
・攻撃者に対する身代金は支払っていない。攻撃者と接触もしていない。脅迫も請求も直接は受けてない。
・身代金支払い要求への対応については障害早期では当然考えたが、バックアップあり自力復旧ができること、支払っても復旧できない事例があること、支払いが漏れた場合他の攻撃者からも狙われるリスクがあるため、慎重に捉えていた。反社会勢力への支払いのぜひもその前段階から相当ネガティブな懸念としてあった。復号キーがきたとしても復元にすごく時間がかかるという認識もしたので要求がきてもおそらく支払ってない。
・現場対応は非常に負担が大きく長時間労働等を懸念していた。リーダとして社員の健康が一番大事で命を削ってまで対応しなくて良いということをトップから繰り返し全社発信していた。対応を支援してくれた外部ベンダにも伝えていた。
・自然災害含む経営リスクに関して10個のリスクを定めてサイバーリスクも含めて十分な対策を取っていたと思っていたがより高度化しないといけない教訓となった。他のリスク項目も対策を見直す。
・他社には、経験からの教訓として、全体を広く見て対策を最新に保つことの必要性を伝えたい。結果的に全体として脆弱性を見れてなかったので、ないと思ったところにあったので侵入されたし、対策も最新、最強でなかったので障害が発生したので、それを裏返ししてほしい。
・経営者はテクノロジーやITに興味を持ってるというだけでは済まない。全てに気を配り対策に踏み込めるようなところまで入っていくべきということを実感した。知見を高めガバナンスに活かしていくべき。
・セキュリティの都合で開示できない情報は多々あるが、社会のために情報をより公開すべきというのは認識しており状況が整ったら検討したい。
記者会見動画リンク
https://t.co/2bG06AK1pH November 11, 2025
2RP
「ライフストリーム」にルビで「エアリス」と振りたくなるね。
マリンがライフストリームにお花のおねえちゃんを感じたように、正真正銘最終決戦一騎打ちのクラウドを包み込んでくれる温かさも、決して諦めない強さも、エアリスを感じたんじゃないかな。 https://t.co/k8aTz2F6xd November 11, 2025
社内クラウドが新しくなって容量大きくなったのはいいけど、DLしたファイルがDL終わった瞬間に開くの凄い嫌…。前は保存場所も都度指定できたし、とりあえずDLだけしといて後で作業…とかできたのになんかペースもスペースも好き勝手されてる感じがして嫌だわ…。 November 11, 2025
え、ちょっと!このクラウド5、ブラック×ホワイトの配色がたまらん!めちゃくちゃカッコイイんだけど、誰か買わない?私も欲しい…!
オン クラウド 5 Cloud5 ブラック ホワイト M7.5(25.5cm)
https://t.co/1rQED003eu November 11, 2025
$GOOGL $META $ORCL $NVDA $MSFT $AMZN
【📈 Google が最高値更新も Meta の方が断然良い買い】
◆Meta と Oracle が不当に売られており、今こそ絶好の買い場
◆Google の株価急騰は感情的な動き、ファンダメンタルズは年初から大きく変わっていない
◆複数の AI エージェントが共存する世界になる
◆社独占はあり得ない
🎙️ どんな内容?
Yahoo Finance の番組で、Jefferies のシニアアナリスト ブレント・ティルが、AI 関連株の最近の動きについて語りました。
Google が記録的な高値を更新し、時価総額 4 兆ドルに迫る中、彼は「Meta の方がはるかに良い買い」と主張。投資家が短期的なモメンタムを追いかけすぎており、AI トレードが過剰に誇張されていると指摘しています。
📊 主なポイント
・Google の急騰は感情的
年初には Google は「終わった」と言われていたが、今では何も間違えないかのような評価に。しかし、ファンダメンタルズは年初と変わっていない。
・Meta と Oracle が絶好の買い場
2 ヶ月前には Meta と Oracle が過熱していたが、今は毎日株価が下落。ビジネス自体は悪くないのに、センチメントだけで売られている。
・Meta-Google のチップ契約報道
Meta が Google のチップに数十億ドル投資する可能性が報じられたが、これは特別なことではない。需要が高すぎて Nvidia だけでは供給が追いつかず、各社がリスク分散のために複数ベンダーを利用している。
・Gemini 3 の評価
Salesforce の マーク・ベニオフが絶賛しているが、現実には複数の AI エージェントを使う世界になる。一社独占はない。
・Oracle の債務懸念は織り込み済み
CFRA が Oracle を格下げしたが、債務問題は既知のこと。OpenAI 契約の価値は既に株価から消えており、実際のビジネスはそれ以上に広がっている。
・キャパシティ制約が深刻
Microsoft、Google、Amazon などすべてのクラウド大手で、バックログ(受注残)が売上を大幅に上回っている。需要に供給が追いついていない状況。
・Meta の隠れた可能性
Meta は将来的にエンタープライズ市場に参入する可能性がある。AWS が Amazon で成功したように、Meta の技術を企業向けに提供するビジネスが生まれるかもしれない。
🔍 重要な投資哲学
・最悪のセンチメントの時に買え
年初に最悪のセンチメントだった Google は大きく上昇。今、最悪のセンチメントなのは Meta と Oracle—ここが買い場。
・モメンタムを追うな
短期的な動きに振り回されず、6〜9 ヶ月先を見据えた投資を。
--------(ここまで)----------
2 ヶ月前には Meta と Oracle が無敵扱いされ、今は Google が無敌扱いと指摘、ファンダメンタルズがほとんど変わっていないのに、株価が大きく変動している。また、「複数の AI エージェントが共存する世界」という見通しも重要です 🤖。「勝者総取り」のシナリオを描きがちですが、実際の企業行動を見ると、リスク分散と供給制約の観点から複数ベンダー戦略が主流になっています。AI 投資においても分散投資が合理的です。
投資は「他人が恐怖している時に貪欲に、他人が貪欲な時に恐怖する」こと 。今、市場は Google に貪欲で Meta と Oracle に恐怖している。Thill の逆張り提案は、この古典的な投資原則に忠実です ✨ November 11, 2025
> MS と Amazon から合計 3,880 億ドル
・Microsoft とのクラウドレンタル契約:2,500 億ドル
・Amazon との契約:380 億ドル
→ 合計 2,880 億ドル(2880 億ドル ≒ 288 billion)
なので、3,880 億ドルは単純に 1,000 億ドル多い誤記 だと思われ、しかも「最大値」ベースの話です。 November 11, 2025
ラズベリーパイのような小型コンピュータでも、LLMのサイズと使い方を選べば十分に使えることが分かっています。
安価では本当に小さなモデルしかまともに動きませんが、比較的大きなモデルまで対応できるデバイスも存在します。
面白いのは同じハードでもソフトによって性能が大きく変わる点です。
ソフトウェアを変更するだけで3〜4倍速く動き、電力消費も3〜4割少なくて済むことがあります。
また、必ずしもコンピュータのコア数を増やせば速くなるわけではないそうです。
クラウドサービスに頼らず、プライバシーを守りながら自前でAIを動かしたい中小企業にとっては良い時代です。
記事では価格の異なる3種類のシングルボードコンピュータで25種類のLLMを実行するテストの結果を細かく見ていきます。 November 11, 2025
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
334億ドルの殻ゲーム:シリコンバレーの最大の詐欺が40日で崩壊する仕組み
Nvidiaは昨日、誰も気づかなかった壊滅的なことを報告しました。
Days Sales Outstandingが53日に跳ね上がりました。過去の平均:46日。その7日の差は、Nvidiaが帳簿上では収益として計上したものの、現金としては決して受け取っていない104億ドルの収益を表しています。
実際の状況はこれです:
NvidiaがAIスタートアップに投資します。
それらのスタートアップがクラウドサービスを購入します。
クラウドプロバイダーがそのお金を使ってNvidiaのチップを買います。
Nvidiaがそれを収益として計上します。
しかし、それは同じお金がぐるぐる回っているだけです。
証明は数学的です:
• 売掛金:334億ドル(昨年から倍増)
• 在庫:198億ドル(「不足」中に増加)
• クラウドコミットメント:260億ドル(90日で倍増)
総資本の閉じ込め:792億ドル。
昨年の総現金生成:648億ドル。
彼らはこれまで稼いだことのないほどのお金を閉じ込めています。
決定的証拠:在庫が32%増加しているのに「異常な需要」を主張するのは、チップが実際に売れていない限り不可能です。不足と余剰を同時に持つことはできません。基本的な物理学です。
営業キャッシュフローは純利益の75%に過ぎません。健全な企業は100%以上を生成します。その25%のギャップ? 決して本物のお金にならない偽の収益です。
次に何が起こるか:
2025年12月:経年スケジュールが真実を明らかに
2026年2月:退出の最後のチャンス
2026年4月:最初の売掛金償却
2026年10月:完全な崩壊が始まる
今日の株価:140ドル
償却後の価格:70ドル
これは推測ではありません。会計の算術です。売掛金が60日を超えて経年すると、GAAPの下で償却が義務付けられます。
Nortelは2001年にこれをやりました。Lucentは2000年に。両方ともゼロになりました。
メカニズムは同一:成長を装った循環ベンダー融資です。
自分で検証:どのテック企業のDSOでも確認してください。50を超えると破滅の予兆です。
カウントダウンが始まりました。
詳細な深掘り記事はこちら - November 11, 2025
新作✨クラウドbrave✨は今日も無事利確‼️
オプチャも盛り上がってましたね✨
高耐久、且つ爆益性能抜群の新作はプロフのリンクからオプチャへ‼️
まずはデモ口座から見てください✨
朝日新聞/福岡県警/名探偵津田/国分太一 https://t.co/6qujMOaOiV November 11, 2025
ブラックフライデーにメモリの高騰見て、デスクトップPCの購入真面目に考えたけど、やっぱり見送り!
クラウドGPUって選択肢も知れたので、引き続きノートPCで気長に生成していきます(*´ω`*)
生成環境はスマホかローカルか、どっち派が多いんでしょうね…? https://t.co/N3uhE6YfSx November 11, 2025
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
@CCatcherApp @CC_moconeo #クラウドキャッチャー ㊗️10周年㊗️👏🏻
オンラインでクレーンゲームを楽しめる感動を
いつもありがとうございます👾🕹✨️
豪華な【黒】毛和牛、、、🥩
お肉大大大好きなので家族で堪能したいです( ¤̴̶̷̤́ ‧̫̮ ¤̴̶̷̤̀ )
ご縁がありましたらXとInstagramにて
ご紹介させて下さいᝰ✍🏻✨️ November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





