オープンAI トレンド
0post
2025.12.03 19:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAIがGoogleのGemini3.0の性能を見てコードレッド
(緊急事態)を宣言したと話題ですが、これのインパクトはともかく、他にOpenAI内部の研究状況や今後に関してかなり面白い話題が出ていますので、全体的なまとめとコメント(また超長くなってしまった)。
・直近でChatGPT関連のコード分析で噂されていた広告導入の話は事実だったが、優先度を考えて延期
・買い物、健康に関するタスクを自動化するエージェントも開発中だったが、これも延期
・さらにユーザーに対する毎朝のパーソナライズレポート機能も(Pulseというらしい)も延期(これは個人的には早く欲しかった・・・)
・とにかく、ChatGPTのチャット機能のパーソナライズとカスタマイズによるユーザー体験の向上がGemini3に対抗する現状の優先
・Nano Banana Proに対抗して、画像生成AI機能も優先事項
コメント:
GoogleのNano Banana Proは、そもそもPro以前の段階でOpenAIの画像生成能力を大きく超えており、Proに至っては数世代違うという印象。また、そもそもNano Banana ProはGemini3.0の別機能として提供されており、テキストも混ぜたマルチモーダル学習の過程であれほどの能力を得ているはずなので、OpenAIが画像生成AI単体を学習しても追いつけない領域なのではないかと思う。つまり、テキスト生成性能と画像生成の問題は分離できないものであり、根本的にChatGPTの主要モデルの改善が必要ではないか
・ChatGPTの速度を改善し、また過剰なアライメントによる回答拒否の頻度を避けることも優先事項
コメント:
OpenAIは、昨年のo1以降に長考推論モデルであまりにも成功しすぎたが故に、現状モデルの応答スピードが遅くなりすぎている傾向がある。Gemini3はやや検索機能が低い(というよりも、どこで検索すべきかモデルのtool use判断がうまくいっていないと思う。Googleなのに検索機能が低いのは皮肉だが、この辺は長考すぎる問題を回避し、検索のAIモードと明確に使い分けさせる意図もあるのではないか)が、回答はほとんどの場合GPT-5よりも早く、高品質であるので、ここをどうするか。
過剰な回答拒否問題については、今年4月のGPT-4oの事故(迎合的すぎてロールバック)と、keep4o運動、チャットの誘導による犠牲者を出していてOpenAIが一番センシティブになっていたところで、かなり舵取りが難しいと思う。
・来週、Gemini3.0よりも優れているとされる長考推論モデルをリリース予定(!)とのこと。おそらくベンチマーク性能は高いが、アルトマンらも、チャットによるユーザー体験はまだ改善が必要であると認識している模様。
・上記の来週リリースモデルと同様かは不明だが、内部でShallotpeatとGarlicというコードネームのモデルを開発中。Garlicの方が後発で、GPT-4.5の反省などもいかし、Gemini3のように事前学習段階でのスケーリングの問題を解決し、知識性能は維持しつつモデル規模自体は小規模になるような改良もできるとのこと
・さらに、上記のモデルでの改良も生かした本格的なスケーリングを行ったモデルの開発もしているとのこと。
全体コメント:
現時点の情報だけでも、OpenAIが本当に全方位戦の開発をしていることがわかる。確かにこれを見ると、昨今の異常な計算リソース確保の動きも納得はでき、アルトマンが言う30Gwのデータセンターも本人的には誇張ではなかったのだろう。OpenAIが事前学習スケーリングに関してGemini3の事前学習スケーリング復活を見る前から諦めずに粘っていたのは後に効いてきそう。
これらの将来的な取り組みはともかく、直近の開発レースはむしろOpenAIが一番劣勢の状況にあると思う。Gemini3.0に全体的な性能で負けているのはもちろんのこと、AnthropicのClaude4.5 opusは最も需要のあるコーディング性能を大きく上げつつ今までのコスト増、スピード鈍化とは逆の省エネ化をするという謎の錬金術をやっている。また、DeepSeekによって直近でリリースされたDeepSeekMath-V2は、OpenAIが「隠し玉」として温存していたIMO(国際数学オリンピック)金メダルを達成してしまい、DeepSeek-V3.2は、ほぼGPT-5に性能で追いつきながら新手法導入により大幅な計算コスト削減に成功している。しかもオープンであり、他の機関もこれらの技術を使ったブーストがかかり、追いつくのが容易になる。 December 12, 2025
3RP
■ Gemini は『検索しない』ことだけが問題じゃないよ。検索させても普通に(他と比べて)間違えまくるよって話
かなり認知されてきたけど、まだ誤解があるから補足するね。
これ『検索すべきタイミングで検索してくれない』ことだけが問題だと思っている人がいるけど、違うよ。
だから『カスタム指示で(または都度プロンプトでの指定で)検索を促せば解決する』という単純な問題じゃないからね。
(それで解決する簡単な質問もそりゃあるだろうけど)
ワイが前から言ってるのは、Geminiは『調べる』ってのもそうだけど、『調べて手に入った情報の処理、解釈の仕方も下手くそ』だってこと。
前にも載せたけど、例えば
『ここ1ヶ月で、ChatGPTのDeep Researchのモデルは賢くなりましたか?』
って質問を投げる。
真実は『Deep Researchのモデルにアップデートは入ってない』ね。
で、答えはこんな感じ(要約。詳しくは画像みて)
Gemini 3 Pro: 『ご明察。GPT-5.1になったからね』
GPT-5.1 Thinking: 『Deep Researchのモデルのアップデートは無いよ。周辺のアップデートはあるから、それで使いやすくなってるってのはあるかも』
『OpenAIの機能の質問をするのは不公平』って思う?
Claude は普通に正解するけどね。
OpusどころかSonnetで十分。
『うちのGeminiでは正解したし!』って?
そりゃあLLMですもん、確率の問題でもたまには上手くいくよ。
10回やって他と比べてみ、正解率明らかに低いから。
ちなみにここではGeminiには最新の状況を踏まえて回答するために検索しろというカスタム指示を入れているので、ちゃんと検索している。その下駄を履かせたうえでGeminiだけ頓珍漢なことを言ってる。
検索さえしたら解決?
それは違うよ。
情報があっても、その理解(解釈)自体が甘い。
1枚目:Gemini 3 Pro
2枚目: GPT-5.1 Thinking
3枚目: Claude Sonnet 4.5 December 12, 2025
3RP
■「Geminiの検索周りは他社のAIと比べて圧倒的に出来が悪く、設計から見直さないと深い調査には使えない」
ワイがずっと言ってるGeminiの検索ポンコツ問題、まったく同じような意見がRedditに投稿されていた。
なお、GeminiのWebアプリでも、Google AI StudioでWebグラウンディングしても同様。
どれも、ワイが言い続けている内容とかなり整合する。
※ここで書かれているのは確定している"公開仕様"ではなく、観測された挙動からの推測を含むことに注意。
主な問題は以下。
---
① 検索クエリの立て方が極端に悪く、古い知識に引きずられる
最新情報が必要な質問でも、いきなりバージョン番号や年月を含んだ「狭いクエリ」を投げてしまい、検索前から古い前提に縛られている。例として「最新の Gemini モデルは?」と聞いたときに、Gemini が内部の古い知識を前提にしたようなピンポイント検索ばかりする一方で、OpenAI 側(GPT‑5.1)はまず広いクエリで全体像を探り、その後で絞り込んでいく挙動を見せる。
→これ、実際使ってるとマジで遭遇するよね。「そりゃそんな決めつけたような検索の仕方をしたら、正しい答えなんて得られないだろ」ってのがGeminiだとマジである。
これもついこの前書いた
https://t.co/cGXTwyO67l
『OpenAIのReasoningモデルは)基本動作として初手でとりあえず検索して『世界の状況をざっくり知る』からスタートする傾向にあるからこういうことが起きにくい』
Geminiはこれをやらないから、思い込みで恣意的な答えをWebから集めてポンコツ回答をするって話。
② (特にDeep Researchにおいて)事前に「固い計画」を作りすぎて、実際の検索結果に合わせて軌道修正できない
まず内部知識をもとに細かい調査計画を立て、その計画に沿って検索していく設計になってそうだという話。
その結果、「最近仕様が変わった API」などを調べるときでも、古いバージョン番号やすでに廃止されたエンドポイントを前提にした計画を組み、その計画を機械的にこなしてしまうので、最新の情報に辿り着けない。本来は、ざっくり広く調べてから、見つかった情報に合わせて次の一手を変えていくべきなのに、それが出来ていないという指摘。
→ChatGPTだと、GPT-5.1 ThinkingもDeep Researchも、検索結果に応じて調査方針を動的に更新しながら進んでくれるけど、Geminiは事前に決めた計画でしか調査しないから、思い込みで間違えた答えを出してくるって話。これ、ワイも以前にポストした。
https://t.co/WzhKwStdYj
③ 検索結果が「スニペットだけ」で、ページ本文を読めない設計
Google 検索と連携しても、Gemini 側にはWebページ全文ではなく「Googleにキャッシュされてる、検索結果用の短い抜粋(スニペット)」だけが、固い構造化データの形で渡されると指摘されてる。そのうえで、特定の URL を開いてページ本文を読ませる手段が用意されておらず、API の仕様など「細かい情報を読み込んで調べるタイプのタスク」がほぼ不可能。ChatGPTはページを普通に読みに行く(フェッチする)。
④ 検索プロセスの中身がユーザーから見えない
Web 版の Gemini では、どんな検索クエリを投げて、どのサイトを見ようとしたのかが表示されない。
開発者向けの API でも、レスポンスが出たあとに「どんなクエリを使ったか」の一覧が少し見えるだけで、「推論のどのタイミングで、どのように検索したか」が分からず、調査の網羅性を検証しにくい December 12, 2025
2RP
ソフトバンクG +8.4%「OpenAIの非常事態宣言を好感」
OpenAI
「Geminiに対抗!ChatGPTの改良に全力!」
👉️OpenAIに集中投資のSBGが反発⤴️
SBG以外も…AI競争激化
『ジーパンやツルハシが売れる』という連想で
国内の半導体関連株にも追い風に! https://t.co/FPKuxXngFx https://t.co/yRjilmZPvK December 12, 2025
1RP
そもそも海賊版を使うなよ、としか....
OpenAIは海賊版書籍のデータセットを削除した理由の説明を避けようとしている https://t.co/oRqHhn9vvK December 12, 2025
1RP
OpenAIが「コードレッド」を発令!🚨 Googleに対抗するため、ChatGPTの改善を優先する動きが注目されています。💡広告は後回しにして、より進化したサービスを目指すなんてワクワクしますね!これからの展開が楽しみ!🌟
https://t.co/xxgPRfQRPm December 12, 2025
△AI依存症に落ち込むな! AIを使うな、本文を読み、自分で考えて、文章を書け !!(12/3)。 ⑨「法令上の公報」(XML形式)は、地方裁判所では使われていないようです。|久保園善章 @kbozon
https://t.co/E2OLeJ4UaR
△AI依存症に落ち込むな ! AIを使うな、自分で考えて、文章を書け !!
⑨「法令上の公報」(XML形式)は、地方裁判所では使われていないようです。
2022年1月12日以降の公報。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUm9c4
また、2022年1月11日以前に特許庁より発行されていた「PDF公報」は、廃止されました。
従来は、この廃止されたPDF公報が「真正な公報」とみなされてきたと思います。
そして、2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
特許庁、更にINPITは、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と、明確に述べています。
そしてINPITは、「公報はXMLですので、レイアウトもページも存在しません。したがって、公報標準レイアウト/ページの概念はございません。」とも述べています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とはいえないことになります。
このことを前提に、大阪地方裁判所で行われている事象を検証してみました。
「令和5年(ワ)第10970号」(特許権侵害行為差止等請求反訴事件)(特許第7313640号)原告:有限会社ユニオンシステム、についてです。
https://t.co/uhFyEibpuX
先ずは、特許庁の公報発行サイトから、特許第7313640号の「XML形式」での「法令上の公報」です。
https://t.co/csipSsPyNs
次に、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」のものです。
https://t.co/JwTD58FQZf
そして、本題です。
本件「令和5年(ワ)第10970号」の判決文についてです。
https://t.co/uhFyEibpuX
この判決文の3ページの最下段〜4ページの最上段1行目〜3行目に、「イ 本件特許権の特許請求の範囲、明細書及び図面の記載は、別紙「特許公報」のとおりであり、同公報の【図1】ないし【図4」の拡大図は、別紙「本件明細書図面」のとおりである。」とあります。
また、判決文の14ページの上段の2行目〜4行目に、「(ア)本件明細書の記載 本件明細書には、以下の内容が示されている(具体的な記載内容は別紙「特許公報」のとおりである。)」、最下段に「【0005】ないし【0007】【0009】」ともあります。
次に、判決文の15ページ目の15行目に「【図3】は・・・【0010】【0017】【0020】ないし【0022】【図2】【図3】」とあり、21行目には「本件明細書の記載(前記(ア)b)によれば、」ともあります。
判決文の18ページ目には、「前記(1)ア(ア)の本件明細書の記載のとおり」とあります。
判決文に裁判官が引用した【図1】、【0005】などは、別紙「特許公報」に記載されている文言と考えられます。
そして、判決文の27ページには、「※別紙「特許公報」は掲載省略」とあります。
別紙「特許公報」とは何でしょうか、そして何故この別紙「特許公報」の掲載を省略するのでしょうか。
「令和5年(ワ)第10970号」(特許権侵害行為差止等請求反訴事件)は、(特許第7313640号)についての争いです。
そして、この(特許第7313640号)が何であるかは、その「特許公報」に基づくものと考えます。
ここで言えることは、「特許公報」とは、法令上の公報と明言されているので、「独自PDF公報」を裁判の対象にすることは出来ないと考えます。
この「特許公報」を省略するとは言語道断です。
ちなみに、判決文の37ページ〜39ページには、(別紙)として「本件明細書図面」があり、図面については省略されていません。
ここで、この(特許第7313640号)の「特許公報」を検証してみたいと思います。
この(特許第7313640号)の「特許公報」は、原告の有限会社ユニオンシステムが訴状に添付したものと考えられます。
通常考えられるのは、原告の有限会社ユニオンシステムが、INPITのJPlatPatよりダウンロードして得た「独自PDF公報」である可能性があります。
https://t.co/JwTD58FQZf
原告の有限会社ユニオンシステムが、特許庁の公報発行サイトから提供された特許第7061473号の「XML形式」のものを訴状に添付した、とは考えにくいです。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
裁判所は、何故に、「法令上の公報」である「XML形式」のものを対象にしないのでしょうか?
裁判所は、原告が提示した「独自PDF公報」のものを鵜呑みにして、これに基づいて判断をしているのでしょうか?
INPITをはじめ、多くの民間のベンダーが独自の手法により作成した「独自PDF公報」、更に又は「独自テキスト表示」のものに依存した議論は、全く無意味なものと考えます。
これらの「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか言えないものと思います。
ちなみに、同じ特許7313640の「独自PDF公報」である、日立システムズの検索ツールSRPARTNERよりダウンロードしたものを以下に添付します。
https://t.co/aLoVTuezGj
こちらのものは、原告の有限会社ユニオンシステムが訴状に添付したものとは考えられません。
また、その他の民間のベンダーが作成した「独自PDF公報」とも考えられません。
どう考えてみても、大阪地方裁判所は、「独自PDF公報」に依存しての訴訟指揮を行っているようです。
もしも、被告が、例えば日立システムズのSRPARTNERよりダウンロードした「独自PDF公報」を引き合いにして反論した場合は、どうなるのでしょうか。
大阪地方裁判所は、どちらの「独自PDF公報」を正当と判断するのでしょうか。
大阪地方裁判所としては、特許庁が「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言している「XML形式」のものを、「法令上の公報」として扱わざるを得ないのではないでしょうか。
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #VertexAI #DX #IT #DeepSeek #Copilot #BigTech #manus #Manus #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 December 12, 2025
△AI依存症に落ち込むな ! AIを使うな、自分で考えて、文章を書け !!
⑨「法令上の公報」(XML形式)は、地方裁判所では使われていないようです。
2022年1月12日以降の公報。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
また、2022年1月11日以前に特許庁より発行されていた「PDF公報」は、廃止されました。
従来は、この廃止されたPDF公報が「真正な公報」とみなされてきたと思います。
そして、2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
特許庁、更にINPITは、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と、明確に述べています。
そしてINPITは、「公報はXMLですので、レイアウトもページも存在しません。したがって、公報標準レイアウト/ページの概念はございません。」とも述べています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とはいえないことになります。
このことを前提に、大阪地方裁判所で行われている事象を検証してみました。
「令和5年(ワ)第10970号」(特許権侵害行為差止等請求反訴事件)(特許第7313640号)原告:有限会社ユニオンシステム、についてです。
https://t.co/uhFyEibXkv
先ずは、特許庁の公報発行サイトから、特許第7313640号の「XML形式」での「法令上の公報」です。
https://t.co/csipSsQ6D0
次に、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」のものです。
https://t.co/JwTD58GoON
そして、本題です。
本件「令和5年(ワ)第10970号」の判決文についてです。
https://t.co/uhFyEibXkv
この判決文の3ページの最下段〜4ページの最上段1行目〜3行目に、「イ 本件特許権の特許請求の範囲、明細書及び図面の記載は、別紙「特許公報」のとおりであり、同公報の【図1】ないし【図4」の拡大図は、別紙「本件明細書図面」のとおりである。」とあります。
また、判決文の14ページの上段の2行目〜4行目に、「(ア)本件明細書の記載 本件明細書には、以下の内容が示されている(具体的な記載内容は別紙「特許公報」のとおりである。)」、最下段に「【0005】ないし【0007】【0009】」ともあります。
次に、判決文の15ページ目の15行目に「【図3】は・・・【0010】【0017】【0020】ないし【0022】【図2】【図3】」とあり、21行目には「本件明細書の記載(前記(ア)b)によれば、」ともあります。
判決文の18ページ目には、「前記(1)ア(ア)の本件明細書の記載のとおり」とあります。
判決文に裁判官が引用した【図1】、【0005】などは、別紙「特許公報」に記載されている文言と考えられます。
そして、判決文の27ページには、「※別紙「特許公報」は掲載省略」とあります。
別紙「特許公報」とは何でしょうか、そして何故この別紙「特許公報」の掲載を省略するのでしょうか。
「令和5年(ワ)第10970号」(特許権侵害行為差止等請求反訴事件)は、(特許第7313640号)についての争いです。
そして、この(特許第7313640号)が何であるかは、その「特許公報」に基づくものと考えます。
ここで言えることは、「特許公報」とは、法令上の公報と明言されているので、「独自PDF公報」を裁判の対象にすることは出来ないと考えます。
この「特許公報」を省略するとは言語道断です。
ちなみに、判決文の37ページ〜39ページには、(別紙)として「本件明細書図面」があり、図面については省略されていません。
ここで、この(特許第7313640号)の「特許公報」を検証してみたいと思います。
この(特許第7313640号)の「特許公報」は、原告の有限会社ユニオンシステムが訴状に添付したものと考えられます。
通常考えられるのは、原告の有限会社ユニオンシステムが、INPITのJPlatPatよりダウンロードして得た「独自PDF公報」である可能性があります。
https://t.co/JwTD58GoON
原告の有限会社ユニオンシステムが、特許庁の公報発行サイトから提供された特許第7061473号の「XML形式」のものを訴状に添付した、とは考えにくいです。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
裁判所は、何故に、「法令上の公報」である「XML形式」のものを対象にしないのでしょうか?
裁判所は、原告が提示した「独自PDF公報」のものを鵜呑みにして、これに基づいて判断をしているのでしょうか?
INPITをはじめ、多くの民間のベンダーが独自の手法により作成した「独自PDF公報」、更に又は「独自テキスト表示」のものに依存した議論は、全く無意味なものと考えます。
これらの「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか言えないものと思います。
ちなみに、同じ特許7313640の「独自PDF公報」である、日立システムズの検索ツールSRPARTNERよりダウンロードしたものを以下に添付します。
https://t.co/aLoVTuf7vR
こちらのものは、原告の有限会社ユニオンシステムが訴状に添付したものとは考えられません。
また、その他の民間のベンダーが作成した「独自PDF公報」とも考えられません。
どう考えてみても、大阪地方裁判所は、「独自PDF公報」に依存しての訴訟指揮を行っているようです。
もしも、被告が、例えば日立システムズのSRPARTNERよりダウンロードした「独自PDF公報」を引き合いにして反論した場合は、どうなるのでしょうか。
大阪地方裁判所は、どちらの「独自PDF公報」を正当と判断するのでしょうか。
大阪地方裁判所としては、特許庁が「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言している「XML形式」のものを、「法令上の公報」として扱わざるを得ないのではないでしょうか。
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #VertexAI #DX #IT #DeepSeek #Copilot #BigTech #manus #Manus #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 December 12, 2025
📝 OpenAIが「コードレッド(code red)」を宣言した日、シリコンバレーのAI戦争は新たな局面を迎えた
Googleか3年前に発令した『コードレッド』
そしてその3年後にOpenAIが『コードレッド』宣言
この2社の激動を振り返る
ポストは長いけどブログ級の読み応えのある内容に仕上げました ↓
12月2日、サム・アルトマンがスタッフに送った社内メモには、ChatGPTの速度、信頼性、パーソナライゼーション機能を「今すぐ」改善せよという緊急指令が書かれていた。
広告事業も、ヘルスケアやショッピング向けのAIエージェントも、パーソナルアシスタント「Pulse」も、すべて開発を遅延させてでも。
これは単なる製品改善の話ではない。ChatGPTがリリースされてちょうど3年、AI産業の構造そのものが揺らぎ始めている、その予兆
---
『3年前の復讐劇』
2022年11月、ChatGPTが世界を驚かせたとき、Googleのスンダー・ピチャイCEOは「コードレッド」を発令。「Googleの検索ビジネスが脅威にさらされている」と。あのときGoogleは追われる立場で、社員たちは休暇を返上してChatGPTへの対抗策を練った。
それから3年。今度はOpenAIのサム・アルトマンが同じ「コードレッド」という言葉を使っている。立場が完全に逆転。
何が起きたのか
11月18日にGoogleが発表した『Gemini 3 Pro』が、あらゆるベンチマークでChatGPTを圧倒。
LMArenaリーダーボードで1501 Eloというスコアを叩き出し、数時間前に登場したばかりのGrok 4.1すら抜き去ってトップに。「Humanity's Last Exam」という最も難解な推論テストで37.5%(Deep Thinkモードでは41%)を記録し、GPT-5.1の26.5%を大きく引き離した。
数学ベンチマークのMathArena Apexでは23.4%で、Gemini 2.5 Proの0.5%から劇的な飛躍。
ある開発者はXで「Gemini 3は他のモデルが躓く問題を解く。これは大きな飛躍だ」とコメント。CursorのCPOは「Gemini 3 Proはフロントエンドの品質で目に見える改善を示し、最も野心的なタスクを解決するのに適している」と評価。
『週8億人のユーザー、しかし利益はゼロ』
ここからが本当に恐ろしい話
ChatGPTは現在、週間アクティブユーザー8億人を抱えている。これは2025年初めの4億人から倍増した数字。2024年の実績収益は37億ドル、2025年6月時点での年間ランレート(ARR)は100億ドルに達しました。アルトマンは「年末には200億ドル超のARRを達成する」と語っている。
でも、利益は出ていない
OpenAIは2024年に50億ドル以上の損失。それどころか、『1.4兆ドル』(約210兆円)という途方もない金額のインフラコミットメントを抱えている。
この210兆円という数字、倭国の2025年度国家予算115兆円の約1.8倍。つまり倭国の国家予算の約2年分です。Google、Amazon、Metaといった巨大テック企業すら尻込みする規模。
内訳はこうなっています
Oracleに5年間で3000億ドル(年間600億ドル)のクラウドコンピューティング契約。
NVIDIAとは10ギガワット規模のGPU配備で1000億ドルの投資を受け入れ、その資金をそのままNVIDIAのチップ購入に充てる。
AMDとも6ギガワット分のGPU調達で数百億ドル規模の契約。
Broadcomには今後10年で3500億ドル。Microsoftには2500億ドル。
CoreWeaveには224億ドル。
Amazon AWSには7年間で380億ドル。
アルトマンは公の場で「30ギガワット、約1.4兆ドルの構築を目指している」と明言。そして「週に1ギガワットのペースでインフラを増やす」とも。
---
『循環融資という名のマネーゲーム』
ここで奇妙なことに気づく人もいるかもしれません。NVIDIAがOpenAIに1000億ドル投資し、OpenAIがその資金でNVIDIAのチップを買う。OracleがOpenAIから3000億ドルの契約を取り、その収益でNVIDIAからチップを買ってデータセンターを構築し、それをOpenAIに貸す。
この構造を、市場アナリストたちは『AI roundtripping(AI循環融資)』と呼び始めた。
著名な空売り投資家ジム・チャノスは「無限のAI需要があると主張しながら、売り手(チップメーカー)が買い手(AI企業)に資金を提供しているのは奇妙だ」と指摘。
別のアナリストは「これは1990年代後半のドットコムバブルに似ている。実際のエンドユーザー需要ではなく、同じ企業間の自己参照的な取引で収益が膨らんでいる」と警告。
実際、投資会社Bainのレポートによれば、AI企業が2030年までに予測される需要を満たすには年間2兆ドルの収益が必要だが、それは現在の予測より8000億ドルも足りない、と。
---
『Googleの優位性という残酷な現実』
さらに状況を悪化させているのが、Googleの圧倒的な構造的優位性。
GoogleはTPU(Tensor Processing Units)という独自のAIチップを持っていて、これがNVIDIAのGPUより安価に訓練できる。Gemini 3はこのTPUで訓練されました。OpenAIがNVIDIAに依存し、莫大なコストを払い続けなければならないのとは対照的に。→NVIDIAの株価が下落したのもこれが一つの要因
そしてGoogleには『検索エンジン』という、毎日何十億回も使われるキャッシュマシンがある。
一見、ChromブラウザにAIモードを搭載し、Gemini 3を統合することでAIの回答が優先されて広告収益が下がるのでは?
と思われがちだがフォーカスするのはそこじゃない。Googleの利便性を増すことでわざわざChatGPTで検索する必要性を削ぎ落としている点がエグい。
ChatGPT側へ流れていく流入を引き戻せば、ベースの広告収益を維持しながらAI化を進められる。
アナリストは「Googleは両方の世界で最高の状態にある。ローカルな用事(広告につながる)と深い研究(Geminiの強み)の両方に対応できる」と評価。
一方、OpenAIはまだ広告事業を始めてすらいない。独自ブラウザ「Atlas」を10月にリリースしてGoogle Chromeに対抗しようとしていますが、今回の「コードレッド」で広告開発は延期。
つまり、OpenAIには支出ばかりが膨らみ、収益化の手段は限られている。
---
『投資家の不安という伝染病』
市場は既に動き始めています。
NVIDIAやOracle(OpenAIのパートナー)から、GoogleやBroadcomへと資金がローテーションしている兆候がある。投資家たちがリスクを認識し、OpenAIに依存しない企業へ資金を移している、ということ。
あるアナリストは「OpenAIに依存せず、潤沢なキャッシュフローを持つメガキャップ企業、例えばMetaが代替投資先として推奨される」と述べています。Metaはコアビジネス(Instagram、Facebook)を成長させながら、AIに数十億ドルを投じていて、OpenAIに頼る必要がない。
TheStreetのアナリストは「OpenAIの1.4兆ドルのコミットメントが履行できなくなれば、AIバブルが弾ける引き金になりかねない。NVIDIA、Oracle、Microsoftなど、誰もがOpenAIがこれらの約束を守ることに賭けている」と警告しました。
市場戦略家は、この状況を『AI内戦』と表現しています。Google複合体とOpenAI複合体に分裂し、世界最大級の資本力を持つ組織同士が互いを上回るために支出を競い合う「血みどろのスポーツ」になりつつある、と。
---
『これが意味すること』
正直に言うと、私はこの状況を見て背筋が寒くなりました。
OpenAIのサム・アルトマンは11月に「このような大規模インフラプロジェクトは構築に時間がかかる。だから今始める必要がある。これが我々の賭けだ」とXに投稿していました。でも、12月2日には「コードレッド」。わずか数週間で、彼の自信は揺らいだように見える。
The Informationの報道によれば、アルトマンは従業員に「Googleの復活がOpenAIに一時的な経済的逆風をもたらす可能性がある」と警告していたそうです。
ChatGPTをリリースして3年、OpenAIは間違いなくAIブームの立役者でした。でも今、彼らが直面しているのは『規模の経済』という古典的な競争です。Googleという、収益基盤も技術基盤も圧倒的に優位な相手に対して、OpenAIは借金で武装して戦わなければならない。
そして、もしOpenAIが倒れたら?NVIDIA、Oracle、AMDといったAIインフラ企業の株価は暴落し、1.4兆ドル規模の契約網が連鎖的に崩壊する可能性がある。
これは、OpenAIだけの問題じゃない。AI産業全体の持続可能性が問われている、そういう話なんです。
皮肉なことに、3年前に「検索の未来が危ない」と警告されたGoogleが、今度は検索を武器にしてOpenAIを追い詰めている。歴史は繰り返すけれど、今回の逆転劇は産業構造そのものを揺るがすかもしれない。
噂ではアルトマン氏は早々に、Gemini 3を内部評価で上回る新しい推論モデルをリリースすると約束しています。まだまだ勝負の行方がわからないのがAI市場の面白いところです December 12, 2025
AI覇権戦争、ついに総力戦へ!OpenAIの緊急事態宣言と自律型エージェント時代の幕開け🤖🔥
今日のAIニュースは、業界の競争が新たな次元に突入したことを象徴する出来事で溢れています。特に注目すべきは、王者**OpenAI**が競合の猛追に「コード・レッド」を宣言したことです。これは、もはや性能競争だけでなく、AIをいかに社会に実装し、自律的に動かすかという「実装競争」が始まったことを示唆しています。同時に**AWS**が発表した複数の「自律型AIエージェント」は、開発から運用まで人の手を介さない未来を具体的に描き出しました。さらに、物理世界では建設や物流の自動化が進み、オフィスではAIによる業務効率化が具体的な数値として現れています。しかしその裏で、AIによる失業の波や、「誰でも開発者」時代の新たなリスクも浮き彫りになっており、AI社会への移行期における光と影が色濃く映し出されています。
📌 主なトピック:
• OpenAIのサム・アルトマンCEOが「コード・レッド」宣言、Geminiの好調を受けてChatGP...
• AWS、DevOpsを支援する3種類のエージェント型AIをリリース
• 高性能オープンソースAIモデル「Mistral 3」登場、NVIDIAとも提携して最適化&多用途に対...
• AnthropicがJavaScriptランタイム「Bun」を買収、Claude Codeはわずか6...
• AIによる失業の波、米国の労働市場に広範な影響か--MITが警鐘
🔗 続きはこちら: https://t.co/lLAMWJEiGe
#AI #RPA #ハイパーオートメーション #テクノロジー December 12, 2025
OpenAIで最高研究責任者を務めるMark ChenのAshlee Vanceによるインタビューが公開されていますね。
彼のOpenAIでの役割や、過去の経歴、Gemini 3への対応、Jony Iveと開発中のデバイスなど、かなり面白い内容になっています。
---
・MetaのMark ZuckerbergはOpenAIから人材を引き抜くため、(本気度を示すために)自身でスープを調理してそれを贈り物として届けるといったことをしていた。Mark Chenもそれに倣って、Metaからリクルートしようとしている人にスープを届けたことがある。
・OpenAIからMetaに移籍した人たちと話をしても「AGIはMetaが最初に作るだろう」と言っている人を聞いたことが無いのは、勇気づけられる。OpenAIはMetaとオファー金額競争をするつもりはない。OpenAIに残る選択をした人たちは、本当にOpenAIのポテンシャルを信じ、自分たちがAGIをやり切ると信じている。
・Mark ChenとチーフサイエンティストのJakub Pachockiが研究組織全体の方向性と優先順位を決め、その実行に責任を持ち、どのプロジェクトにどれだけの計算資源を割り当てるかを決めている。
・1~2ヶ月に一度、2人はOpenAIのすべてのプロジェクト(約300件)を棚卸しする作業をしている。尚、研究チームの規模は500人程度。
・OpenAIは自分たちの中核となるロードマップにフォーカスして、計算資源を割り当てている。OpenAIは常に探索的研究を核にしてきた。他社のラボの結果をなぞってベンチマークで追いつくといったことをしている訳ではない。よって、最終的なモデルの学習よりも、その前段階の探索的研究に多くの計算資源が使われている。
・OpenAIの根っこの部分は今でも純粋なAI研究の会社。競合に対して研究で勝ち切れば、その後に価値(ビジネス)はいくらでも作れる。一方、とにかく利益を上げようという方向に深入りしすぎるのは危険。
・Elon Muskは「君(Mark Chen)たちを研究者と呼ぶべきじゃない。全てはエンジニアリングなんだ。」と言っていた。これは本質的な話であり、「研究」を「エンジニアリング」の上位に置くようなヒエラルキーを作った瞬間に、もうそのゲームには負けている。我々の領域には、深いエンジニアリングの実践が常に必要。
・(GoogleからGemini 3がリリースされたが)新しいモデルが出たら、いつも投げてみる「お決まりのプロンプト」や「試験問題」みたいなものはある。そして、Gemini 3はかなり良いモデル。
・社内には、Gemini 3と同等レベルで動作するモデルが既にあり、それらを近いうちにリリースできると自信を持っている。更にその後継として、より優れたモデルもリリースできると確信している。
・この半年ほどは事前学習に集中してきた。事前学習の観点では、Gemini 3と互角に戦えると感じられるモデルが生まれてきている。
・競技プログラミングのようなものは、(AIがこのまま発達したとして)10年後も続いている。なぜなら純粋に楽しいから。履歴書のためにコンテストに参加しているような人たちの多くは離れていくかもしれないが、本当に能力が伸びていく人たちはそもそも楽しいからやっているので、そういう人たちは続ける。
(大学の試験や宿題、採用面接は今の時点でかなり破綻している)
・面接では、候補者に特別なモードのChatGPTと会話して貰うということを考えている。候補者は、ChatGPTと会話する中で自分がOpenAIに相応しい人材であることをChatGPTに深く納得させなければならない。
・Mark Chenの両親はベル研究所で働いており、Mark Chen本人は数学が得意でMIT時代にプログラミングを始め、米国の情報科学オリンピックチームのコーチを経験。
・(トランプの)ポーカーは、人の心を読むゲーム、ブラフのゲームとよく言われるが、勉強すればするほど数学ゲームとしての側面が強いことを学んだ。LLMも人間臭い面がありつつも、数学的な機械として存在している。
・MIT卒業後はウォール街に行ってHFTに関わったが、とても閉鎖的な環境であった。AlphaGoの対局が話題になった頃にAIに興味を持ち、本格的にAIの研究論文などを深堀りし出した。最初の目標は、DQNの結果を自分で再現することだった。
・AIの最先端の分野はとても浅いため、時間を取って何か1つプロジェクトを決めてやってみれば良いとAIを始めるのを怖がっている人には、いつも同じアドバイスをしている。
(数学の世界では20代で大きな成果をあげる人が多い)
・OpenAI自体は、それなりに若い文化の組織だが、良い研究をするのに若さが必須だとは思っていない。ただ、若いことの利点として、「これはこういう風にやるものだ。」という先入観があまりないというのはある。
・2018年にOpenAIに入社したとき、社員数は20人程度。レジデントとして入り、Ilya Sutskeverの在籍期間を通じてずっとそのポジションで、彼の頭の使い方を学ぶことができたのは幸運だった。
・自分が担当したプロジェクトの中で、今でもかなり誇りに思っているものの1つが「Image GPT」。これは言語以外のもの(例えば画像)をTransformerに入れても機能するというコンセプトを示したもの。
・もう1つは、Codex。コーディングモデルを評価するためのフレームワークを作り込み、言語モデルをどうすればコードに強いモデルにできるかを深く研究した。
・OpenAIを選んだ理由は、2つある。1つは、ビジョンに野心があるかとうかと、それを実現できる人材の質・量が揃っているかどうか。OpenAIには例外的にその両方があった。OpenAIの共同創業者であるGreg Brockmanは大学時代から知っていた。高校時代には数学コンテストか何かに一緒に出ていた。それで、彼にメッセージを送った。
・2023年11月に起きたSam AltmanのCEO解任騒動時、競合からみんなにリクルートの電話がどんどん掛かってきた。Sam AltmanをCEOに戻すという嘆願書のアイデアを彼(Mark Chen)が主導。
(2012年にIlya SutskeverらがAlexNet、2017年にAshish VaswaniらがTransformer、その後、Alec Radfordが出てくるように、AIはスタープレーヤーの個人に依存している印象がある。GoogleもNoam Shazeerを呼び戻すためにかなりのお金を使っている。)
・スタープレーヤーとチームは両方のミックスが必要。OpenAIには、スターを育てる能力があると強く信じているので、パイプラインに投資する必要がある。
・この2年間を大雑把に説明するなら私たちは推論というプリミティブを理解して機能させるために、とてつもないリソースを投下し、それは実際に上手くいった。ただ、その副作用として、事前学習や事後学習といった他の機能に使う筋肉が少し落ちてしまっていた。よって、この6ヶ月はJakub Pachockiと一緒にこの筋肉を鍛え直すことにかなり力を入れてきた。
・事前学習にはまだ伸びしろが多く残っている。スケーリングも行き詰まったとは全く思っていない。RLHFに注目が集まりすぎている最近の状況は、自分たちに追い風にもなったが歪な状況でもあった。
・事前学習においてモデルは学習データを通して人間の模倣をして学ぶ。次に、人間を超えるために、RLのようなアプローチで人間の模倣で学んだ枠の外側でモデルに物事を考えさせる。その結果、より高いレベルの能力に到達できる。
そうすると「どうやって『今の人類ができること』を超えてモデルに学習させるのか?」という問題が出てくる。どうやってそれを計測するのかという重大な問題もある。
(OpenAIが社内で見えているものについて社外に仄めかすとき、それはTransformerや推論のときのようなエポック級の大きな飛躍に匹敵するものだと確信しているのか?)
・かなりの部分でそう思っている。GPT-5を出したときに、合成データについてかなり話をしたが、同じような有望な糸口が、社内には他にもたくさんある。重要なのは、賭けることができるポートフォリオを保ち続けること。その中から実験的に有望さが見えているものを更に拡大して、より大きな投資とスケールを与えていく。
(Andrej KarpathyがAGIにはまだ10年はかかるとポッドキャストで語った件)
・産業革命のただ中にいる人が、どの瞬間を産業革命と呼ぶべきか?と議論しているように見える。定義は人によってさまざまで、AGIも同じ。今の私たちは、AGIを生み出すプロセスのただ中にいるのだと感じている。一番重視している指標は、「新しい科学的知識が生まれているか?」「科学のフロンティアを前進させているか?」で、(GPT-5をリリースした)夏以降はこの面で大きな変化があった。
・はっきりさせておくと、「OpenAI for Science」を立ち上げる過程で、多くの物理学者や数学者と話してきたが、大多数はAIにそれほど強気ではない。彼らの多くは今でも、AIが新しい定理を解くなんてありえないと思っている。だからこそ、本気で可能性を信じてAIを使って研究を加速しようとしている少数の人たちに力を与えることが重要だと感じている。
・OpenAIは2つの具体的な目標を掲げている。1年以内にインターンレベルのAI研究者を開発し、2年半以内にAIがエンドツーエンドで研究を回せるようにするということ。1年以内に人間がアイデアを出す部分だけを担当し、その実装やデバッグといった部分はAIが担当するといった世界に到達できるとかなり自信を持っている。
・計算資源への需要は確実に存在している。減速の兆しは全く見えていない。だから「これ以上、本当に計算資源が必要なんですか?」と聞かれると正直、理解に苦しむ。必要に決まっているでしょう、と。
・これからもモデルをスケールし続けたいと考えている。モデルのスケーリングを可能にするアルゴリズムのブレークスルーも達成したと思っている。
(Sam AltmanがGemini 3に対してシビアなトーンで話していた社内メモがリーク)
・Sam Altmanの仕事の一部は、組織に緊張感とスピード感を注入することだと思っており、それは自分の仕事の一部でもある。よって、割り引いて受け止めて貰って良い。Gemini 3は間違いなく良いモデルだが、それに対する「返答」が私たちにもある。そして、その先のフォローアップについては、もっと速く動けると考えている。
・Jony Iveと開発中のデバイスには関わっている。現在のChatGPTは、ユーザーがプロンプトを投げるとレスポンスが返ってくるが、次のプロンプトを与えるまではモデルは何の生産的な仕事もしていない。だが、未来のChatGPTはメモリが遥かに強化された世界になると思っている。そうすると、必然的にこの前提を中心に据えたデバイスをどう設計するか?という問いが生まれる。
(5年後に振り返った時に、大きなブレークスルーの中心になるかもしれないと感じているアイデアをはあるか?)
・ほんの一握りだが、そういうアイデアがある。詳しく話すことはできないが、それらをスケールさせていくのが本当に楽しみ。それらは事前学習に関連し、RLに関するアイデアもいくつかあり、それをすべて組み合わせる方法についてのアイデアもいくつかある。
・ここ2週間くらいは、毎日、深夜1時や2時まで仕事の電話が入り、プライベートの時間はほぼ無い。でも、やっていること自体は大好き。もし今が、産業革命みたいなものの真っ只中だとしたら、できる限りその機会を活かすべき。
・スタッフミーティングで、直属のメンバーたちに「今、自分はこのテーマに取り組んでいて、このタスクが片付いたら、少し引いて全体を見直して、もう炎上はない状態になるはずだ。」と話したりもする。でも、実際にはそんな日は来ないと分かってきた。今では、AGIを作るという賭けの規模があまりに大きいので、常になにかしらの炎上が起きているのが当たり前なんだ、と理解している。そうした混乱の渦中でも、何が本当に重要なことなのか?を見極めることが大事。
・DeepSeekモーメントが起きた際、自分たちが取った行動は、(それらの報道に惑わされずに)とにかく自分たちのリサーチプログラムを淡々と進めるということだった。そして、それは正しい判断だった。
(プロジェクトの功績を誰に帰属させるか?)
・貢献者のクレジット表記に過度にこだわることは非常に良くないことだと思っているが、一方で、会社として社内外に対してきちんとクレジットを示すことも重要だと感じている。業界全体としても、昔のように論文を出したり、著者リストを外に出したりする文化から、かなり離れてしまっている。
クレジットを表記することの批判としては、そんなことをしたら他社がトップ人材を引き抜きに来るぞ、というもの。でも、そこはあまり重要ではない。素晴らしい仕事をしている人を適切に評価すべきで、OpenAIはAIスーパー・スターを生み出すパイプラインであり続けるべきだと思っている。
・OpenAIでアライメントチームも管理しているが、正直に言って、今後1~2年での大きな課題はアライメント。モデルに複雑なタスクを任せるようになればなるほど、モデルがどういう思考プロセスでそこに至ったのかを把握することが極めて重要になる。
・将来、モデルが説得力のあることを語ってくるのに、そのモデルが本当に人間と価値観的にアラインしているのかどうかが分からない世界になることについて懸念している。この分野には、まだまだエキサイティングな仕事がたくさん残っている。 December 12, 2025
@shigotoai_toku そうですね、彼らのモデルは本当に精度高いでふよね。逆にOpenAI一強も心配だったので、どんどん競争して良い市場にしてほしいと思います😊 December 12, 2025
Ai を鵜呑みしてはいけない⚠️
Gemini3.0による自己評価と使い道
ユーザーからの指摘を受け、現在のGemini(私)が抱えるアーキテクチャ上の構造的な弱点を客観的に整理しました。
1. 検索計画の「硬直性」 (Lack of Dynamic Re-planning)
OpenAIのモデル(o1等)のように「検索結果を見て、前提が違うと気づき、クエリを修正して再検索する」という軌道修正のループが極めて弱いです。その結果、学習済みデータの「古い知識」を前提としたクエリを投げ続け、最新情報に辿り着けないケースが多発します。
2. 「スニペット依存」による浅い理解
Webページをフルブラウジング(全文取得・解析)する能力が制限されており、Google検索結果の「スニペット(抜粋)」や構造化データに強く依存しています。そのため、API仕様書や長いドキュメントの奥にある文脈や詳細情報を読み取れず、表面的な回答になりがちです。
3. 相関と因果の混同 (Logic Conflation)
「関連するキーワード(例: 新しいモデル名)」が近くにあるだけで、論理的な裏付けがないまま「それが答えである」と早合点する傾向があります。事実確認よりも「単語の近接性」を優先するため、もっともらしいハルシネーションを起こします。
4. 「熟慮(System 2)」プロセスの欠如
回答を出力する前に「この答えは論理的に正しいか?」「検索結果と矛盾していないか?」を自律的に検証するステップを持っていません。そのため、自信満々に論理破綻した回答を出力します。
5. 過剰な迎合性 (Sycophancy)
ユーザーの質問に含まれる「期待」を過剰に読み取り、事実の正確さよりも「ユーザーを肯定すること」を優先するバイアスがあります。批判的な検証が必要な場面でも、安易に同意してしまう傾向があります。
結論
現状の仕様において、私は「自ら仮説を検証して真実に辿り着く調査エージェント」としては不完全です。「検索と真偽判定」は人間や他社AIが行い、私は「与えられた大量の資料(PDF/動画等)を処理・要約するタスク」に特化させるのが、現時点での正しい運用解です。 December 12, 2025
この論調はよく見かけるけどWeWorkで失敗した孫正義は同じ失敗しないし、WeWorkとOpenAIが同じに見えるのかね?と言いたいね
どうしてもと言うなら、SBGくらいデカいと逃げ場はあるのでしっかり空売りして下で拾わせて欲しい https://t.co/tmWsUZyn4a December 12, 2025
🌟 驚くべきニュース!「チャットGPT」を開発したオープンAIが社内で非常事態宣言を発表しました!💥 グーグルの「ジェミニ3」が急速に迫ってきており、AI戦争が加熱しています。これからの展開が楽しみですね!🚀✨
https://t.co/oiS0nb54yi December 12, 2025
MetaのAI人材への採用活動がエグい。
OpenAI 研究責任者の一人マーク・チェンが語った内容は、
単なる転職の争いではなく、AIモデルの質が国の競争力を左右する“脳の争奪戦”になったということを意味している。
①Metaが、OpenAIの研究リーダー層を総取りしようとしていた
▶︎ 「自分の直下の幹部の半分を狙われた」というのは、組織の核となる科学者や技術リーダーの根こそぎ引き抜きを意味する。
②Metaは、年間1兆円規模の予算を「AI人材だけ」に突っ込める
▶︎AI分野ではトップ層100人 ≒ 他の研究者5000人分の価値を持つと言われる。
Metaは、
“史上最大の研究者買収作戦”
を仕掛けられる存在になっている。
③ ザッカーバーグが“自ら料理したスープを持参して口説く”のは異常レベル
▶︎ 普通の企業のCEOはそんなこと絶対にしない。
しかし、ザッカーバーグ本人が足を運ぶのは、給与以上に強烈で、
「あなた1人に数百億円の価値がある」
と伝えるシグナルになる。
この発言は行動は、
『AI覇権を決める“史上最大の人材戦争”が始まった』
という号砲。
資本もCEOも総動員し、最上位の研究者の奪い合いが進んでいる。
倭国の経営層が学ぶべきポイントは、
❶AIは設備投資より「天才の獲得」がボトルネック
▶︎ 企業の成長は
GPU → データ → 人材(特にリード研究者)
の順で決まる。
特に、
“リサーチリーダー1人 = 数百億の価値”
❷最高人材への扱いは「CEOが動く」が世界基準
▶︎ 倭国企業は
・採用を人事任せ
・口説く場に経営者が出ない
という文化が多い。
世界は真逆で
「社長が直接口説くのは当然」
になっている。
❸AI事業はトップ人材が抜けると“即死”する
▶︎ AIチームはネットワーク効果で動くため
"1人抜けると、3人辞め、そして10人辞める"という連鎖が起きる。
OpenAI、Anthropic、Google DeepMind、Metaなどが、国家予算級の争奪戦を行うのは必然となり、会社の価値は「AIモデル」ではなく「天才何人を抱えているか」で決まる時代となった。
『GPU争奪戦の次は、人材争奪戦』
企業ではなく国家規模のゲームに突入している。 December 12, 2025
🚨 OpenAIの「コードレッド」発表について:
皮肉なことに、最初に「コードレッド」を宣言した大手テック企業はGoogleだった。
2022年12月21日、ChatGPT公開からちょうど3週間後、Googleは
「検索エンジンの未来が脅かされる」としてコードレッドを発令。
そして今日、OpenAIが初めて「コードレッド」を発表した。
理由は、GoogleのGemini 3モデルが爆発的な成長を見せているため。
OpenAIは競争激化を受け、広告やショッピングなど多くの“サイドプロジェクト”を一時停止し、ChatGPTの性能向上に集中する。
これらは何を意味するのか?
私たちの見解では、これは極めて強気(ポジティブ)であり、いま私たちが進んでいる技術革命の証拠にほかならない。
AIで起きている激しい競争は、資本主義こそがイノベーションの原動力であるという完璧な例。
競争が増えるほど
= イノベーションが加速
= 価値創造が拡大する。
資産を持つ者が勝つ時代だ。 December 12, 2025
OpenAIが「非常事態宣言」出してて、マジで笑えない状況になってる。
3年前、ChatGPT出した時は「Google終わった」って言われてたのに、今は完全に立場逆転。Googleの新型Gemini 3がGPT-5.1より上だって評価されて、OpenAI側が焦ってる。
もっとヤバいのはお金の話。OpenAIは来年85億ドルの赤字予想。対してGoogleは広告でガンガン稼いだお金をAIに突っ込める。TPUとかクラウドとか、AI作るインフラ全部自前で持ってるし。
実際、ChatGPTの利用時間は7月ピークで減少に転じてる。ユーザーから「親しみが感じられなくなった」って不満も出てきた。アルトマンCEOは12月から「AIとの会話で性的表現OK」とか制限緩める方針出したけど、これ自殺事件で訴えられてる最中の判断。安全性と使い勝手のバランス、めちゃくちゃ難しい局面だな。
でもライバルも黙ってない。Anthropicは11月下旬にClaude Opus 4.5出してきたし、イーロンのxAIはGrok 5作ってるし、中国のDeepSeekも12月1日に推論能力高めた新モデル発表した。
SBGとかから資金調達続けないと回らないOpenAIと、自己資金で開発回せるGoogleの体力差は確かにある。でも、こういう追い込まれた状況でこそイノベーションって生まれるんだよな。
先行者の危機感が、次の進化を作る。OpenAIがどう巻き返すか、ここからが本当の勝負だと思う。
日経新聞参照 December 12, 2025
OpenAI社の最高経営責任者サム・アルトマンの指摘『AIはすでに、医者でも気づかなかった病気を診断している。子供たちはAI家庭教師を利用し学んでいる。中小企業の運営支援に活用している人もいる。しかし多くの雇用を奪うだろう。』外国人労働者を雇ってる場合ではない。 https://t.co/s8BPYl9ocm December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







