1
インフラ
0post
2025.11.28 04:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
パックン
「(中国の)観光客も受け入れないほうがいいって言うんですか」
→そうです。
犯罪や迷惑行為が飛び抜けて多く、
一条龍なんて舐め腐った仕組みを作り、倭国のインフラや福祉を食い潰すだけの連中なんぞ、害悪でしかないでしょ。
倭国に都合の悪い連中は入れない。
当たり前の話。 https://t.co/qEQ2FazYRO November 11, 2025
11RP
(金が続く限りでの)推しと(一瞬の)話題性しか頼りにしない文化産業は、これから先細りしていくだけだ。だがここまで経済が悪いと、どうしてもこうなってしまう。本当は正常で健康な好奇心の賦活が必要なのに、そのインフラがほぼほぼ崩壊してしまっている。本をタダで配っても読まれないだろうし。 November 11, 2025
3RP
んー。
過去のADSLやiPhoneの成功を見るに、必要なのは「否定派への罵倒」ではなく、
・iPhone的な他を圧倒する商品の提示
・yahoo!BBのADSLモデム無料配布や1円ケータイ的な赤字覚悟、普及優先の価格戦略
・ADSL網や3G4G的な公的インフラの整備
みたいな普及側の戦略が必要かと。
EVには一つもない。 https://t.co/iXYzZTsFsJ November 11, 2025
2RP
「維新政権で大阪の景気は良くなったのか?」
◆結論
大阪の景気は全国平均より低い。
維新が誇る「成長」「民間活力」の実感は、統計を見る限り裏付けはなく、むしろ衰退を招いている。
以下、御一読の上、御賛同賜りましたら、周知のほどよろしくお願いします。
---
◆1.経済成長
大阪府の名目GRPの伸び
→ 維新政権が本格化した2012〜2019年の伸び率は全国平均を下回る。
大阪府:+7.8%
全国平均:+11.3%
つまり、“大阪だけ鈍い”。
---
◆2.給与・所得の伸び
厚労省「毎月勤労統計」「賃金構造基本統計」
大阪府の実質賃金上昇率:全国平均以下
名目賃金も全国と比べて伸びが弱い
さらに非正規比率が高止まりし、働く人の底上げにつながっていない
結論:稼ぐ力は全国より弱いまま。
---
◆3.企業数・開業率
中小企業庁「事業所・企業統計」「経済センサス」
大阪府の開業率:政令市・大都市圏の中でも下位
廃業率が高く、純増はマイナス傾向
「民間活力を引き出した」という維新の主張とは逆で、企業は減っている。
---
◆4.人口動態(→景気の体温計)
若年層の流出が続き、出生数も大幅減
東京圏への流出は全国最多クラス
「住みたい都市」調査でも大阪が順位を落とす
経済が本当に良ければ若い世代の流出は止まるはず。
現実は逆。
---
◆5.府の財政
* 財政再建を強調するが、実際は
市町村の一般財源を吸い上げ、府債残高はむしろ増加
* インフラ投資は低水準で、成長投資が不足
「絞りすぎで、成長の芽を摘んでいる」という専門家の指摘は多い。
---
◆6.観光ブームは“景気”か?
維新支持者が誇るポイントだが――
* 観光消費はインバウンド依存
* 地元雇用は非正規が中心
* 中小企業の倒産はむしろ増加傾向
派手に見えるが、地元にカネが落ちにくい構造。
どの指標を取っても「維新で景気が良くなった」は成り立たない。
むしろ“全国より伸びない大阪”が固定化している。
---
維新で大阪の景気が良くなった?
→主要データほぼ全部「全国以下」です。
* GRP成長:大阪7.8%<全国11.3%
* 賃金上昇:全国以下
* 開業率:下位
* 若者流出:ワースト級
* 中小倒産:増加
見た目は派手でも、中身はずっと低迷。
これが“維新の経済”の実態です。
以上。 November 11, 2025
1RP
「I don't care how well your "AI" works」という記事から。
・AIが便利だから使うという話に見えて、実際には多くの人が半ば強制的にAIを使わされる環境に置かれている
・AIを使わないと不利になるような社会構造ができつつあり、選択の自由が失われつつある
・AIを使うと、文章作成や思考のプロセスにAIが入り込み、自分の考えとAIが生み出した表現が混ざり、主体性が弱まる
・書くことや作ることは本来、自分の考えを形成する重要な行為なのに、その過程がAIによって置き換えられる危険がある
・技術的にAIがもっと賢くなったとしても、人の思考や価値観に対してAIが影響を与えるという根本問題は解決しない
・AIを動かす巨大なインフラや資本は、一部の企業や権力者によって集中管理されている
・そのためAI普及は、結果的に権力の集中と監視を強化する仕組みとして働きやすい
・伝統的な技能や創造の力がAIによって価値を奪われ、人間が「後処理担当」に追いやられる懸念がある
・こうした状況はAIの技術問題ではなく、資本主義がより効率よく人を管理し搾取しようとする動きと結びついている
・だからAIの課題は、「AIをどう扱うか」というより「この社会でどう自分らしさと自由を保つか」という問題でもある
・筆者は、個人やコミュニティで支え合いながら、自分しか作れないものを作ったり、心の健康を守ることでこの流れに抗うべきだと考えている
https://t.co/PrZhLudgNL November 11, 2025
1RP
@iloha_train このあたりは、ガソリンスタンドが壊滅した地域から徐々にEVに起きかわって行くとおもいますね。
まあだいぶ先だと思いますが。
EVもFCVもインフラがゴミすぎるんですよね
ここを何とかせいと November 11, 2025
充電スポット数、充電速度、走行距離、この辺りがガソリン車と遜色がないレベルになって初めて検討するって感じだなぁ。
現状のインフラ状況で「EV車が流行らないのは購入者の現状維持バイアス」って結論付けるのは無理筋じゃないかな。 November 11, 2025
観光地に来てみたけど、確かに外国人多いな。
しかしインフラや施設の老朽化が目立ってきたなーと思う。
外国の方はキレイな町、整ったインフラを目当てで来てる面は大いにあるだろから、このまま国力落ちてインフラ整備もままならんくなったら、自然と観光客減るだろな。
倭国の終わりだね。 November 11, 2025
@shop_kakiko パックン
「(中国の)観光客も受け入れないほうがいいって言うんですか」
→そうです。
犯罪や迷惑行為が飛び抜けて多く、
一条龍なんて舐め腐った仕組みを作り、倭国のインフラや福祉を食い潰すだけの連中なんぞ、害悪でしかないでしょ。
倭国に都合の悪い連中は入れない。
当たり前の話。 November 11, 2025
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
@kokuu_osaka @pirooooon3 字数の関係で書けなかったですけど、スロープで定位置固定でゲタ下から給油するシステムを作るだろうなって感じですね。🦥(^O^;)…。
※EVならばバッテリーケースごと交換、水エンジンならば給水、水素ならば固体水素燃料をってガソリンスタンドにインフラを集約させるじゃろなと。(^O^;)タブン November 11, 2025
@1NW1581044 それすごいわかる💦
プログラマは、インフラを「アプリケーションを動かすためのリソース(資源)」としてみているもんね💧
LAN、WANのNW環境は当然で、OSのライフサイクル、セキュリティなど、めっちゃやることあるもんね💦 November 11, 2025
@roaneatan そんなに倭国が嫌いなら出て行けば良い。大嫌いな倭国の空気を吸うな。大嫌いな倭国の食材を食べるな。大嫌いな倭国の高度医療技術を使うな。倭国の精緻な交通インフラを使うな。コンクリートジャングルが嫌いならアマゾンの密林にでも住めば良い。ゴビ砂漠でも良いぞ。 November 11, 2025
@PDgNHXX7tsS0S96 じゃあ、倭国出てモルディブ行けば
としか思わない。
こうやってブツブツ言ってる人ほど倭国のインフラにタダ乗りして倭国から出て行かないじゃないか!
こちらからお願いしたいぐらいです。
お願いですから倭国から出て行ってください🙇♀️ November 11, 2025
✅ネットワークエンジニア永遠の悩み
非エンジニアの人に
ネットワークエンジニアを説明するの
ムズすぎる説
開発系だとプログラマーとか
アプリとかHP作ってるとか
言うと何となく理解されるけど
ネットワークエンジニアって説明むずい
とりあえず、
「今ここでスマホでWi-Fi使ってるやん?オフィスでネット使えるやん?それはネット使えるようにする技術者が居てそれがネットワークエンジニア」って言ってるけど
ピンときてない顔🤔で
「ふーん。そうなんだ」と言われる
みんながどうやってネットワークエンジニアの
説明しているのか気になる
というかインフラエンジニア全般難しそう
LinuxとかAWSとか知らない人も無い人も多いし! November 11, 2025
テザーは、基本的に1米ドル相当の価値を常に保つよう設計された暗号通貨であるステーブルコインです。銀行口座ではなくブロックチェーンネットワーク上で存在するデジタルドルだと考えてください。
テザーは当初、トレーダーが銀行手数料を払わずに素早く資金を移動するためのツールとして始まりましたが、今では送金労働者が家族に送金する際に使用する重要なインフラとなり、国境を越えた迅速な送金が必要な機関や、不安定な通貨や崩壊した銀行システムを持つ国々の人々が資金を安全に保管するための手段として欠かせないものになっています。約1,840億ドル相当のUSDTが流通しており、これは信頼できる伝統的な銀行にアクセスできない何十億人もの人々にとって、代替金融システムの基盤となっています。
テザーの仕組みはこうです:彼らが作成するすべてのUSDTトークンに対して、実際の資産を準備金として保有していると主張しており、銀行がお金を貸し出さずにすべてを保管するのと同じように、それを裏付けています。しかし、テザーの準備金は単なる現金だけではなく、米国債、ビットコイン、金、社債、融資の混合です。さらに、テザーはこれらの資産保有から実際の利息や収益を得ています。米国債や社債からの利息支払い、担保付き融資からの収益、そして金さえも貸し出して利益を生み出すことができます。しかし、これらの資産すべてが安全とは限りません。ビットコインは1週間で20%下落する可能性があり、金も変動します。それらの資産が価値を失えば、人々が保有するすべてのUSDTをカバーするのに十分な裏付けがなくなるかもしれません。
現在、テザーは大量の金を購入しています。フィナンシャル・タイムズのチャートによると、テザーは2025年第3四半期だけで26トンの金を購入しており、これは同期間にどの単一の国の中央銀行も購入した量を上回っています。参考までに、カザフスタンは18トン、ブラジルは15トン、トルコは7トンを購入しました。
暗号通貨企業が今や国々を上回る量の金を買い占めています。テザーは現在、約116トンの物理的な金を保有しており、その価値は約140億〜150億ドルで、世界最大の非中央銀行金保有者となっています。彼らの金保有量は、南韓国、匈牙利、ギリシャなどの国々の準備金を上回っています。
なぜテザーがこれほど大量の金を購入しているのか? 彼らは、ステーブルコインを裏付ける実物資産を重視する機関や新興市場の人々に対して、自分たちをより信頼できる存在に見せようとしているのです。テザーは2025年に150億ドルの利益を見込んでおり、支出する資金があります。アナリストたちは、テザーが金を購入し続けると、毎年ほぼ60トンを追加できる可能性があると見ています。この大量購入は金価格を押し上げ、2025年には50%以上上昇しています。つまり、暗号通貨が今や金価格に影響を与えているのです。
しかし、問題があります。世界で最も信頼される格付け機関のひとつであるS&Pグローバルは、テザーに最悪のスコアを与えました。彼らはテザーを5(弱)と格下げし、これは基本的に赤信号です。主な問題は、ビットコインがUSDTの裏付けの約5.6%を占めるようになった一方で、テザーの安全バッファーはわずか3.9%しかないことです。つまり、ビットコインが大幅に下落すれば、流通するすべてのUSDTをカバーする資産が不足する可能性があります。彼らの金保有にも同じ問題が当てはまります。通貨が安定しているはずなのに、ビットコインや金のような変動性の高い資産を保有するのは、その目的を台無しにします。特に、新興市場の何百万人もの人々が資金を安全に保つためにそれに依存しているのです。
S&Pはまた、テザーが誰が実際に資金を保有しているか、そしてその人々が信頼できるかどうかの十分な情報を提供していないと指摘しました。テザーが破産した場合に顧客が優先的に資金を回収できるという保護もありません。また、テザーはUSDTを実際のドルと交換できると言っていますが、現実には彼らと直接取引するには最低10万ドル必要です。これはテザーが危機にあるという意味ではなく、世界が何十億人もの人々が日常的に頼るデジタルドルの裏側について、より明確な全体像を知る権利があるという意味です。 November 11, 2025
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



