オープンAI トレンド
0post
2025.11.26 08:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
19RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
15RP
OpenAIに全賭けのソフトバンクグループ、Google先生のGeminiに覇権を握られそうでにわかに雲行きが怪しくなる
https://t.co/Eh04vgvEBJ November 11, 2025
5RP
AIについてGoogleが有利、というのは、総合力勝負になった去年あたりから感じている。OpenAIの圧倒的知名度は大きいが、収益性見通しやチャットAI以外のコンシューマへの接点が「すでにある」ことが大きい。
だからこそ、OpenAIはコンシューマデバイスを含めた「接点のさらなる変化」を模索している。 November 11, 2025
5RP
Gemini3触って思ったのは
AIの進化は素晴らしいのでハードは買いだけど
ソフトはGoogleに勝てないので一人勝ちのこの世界では全部破産すると思った
数兆円の赤字を垂れ流すオープンAIはGoogleに勝てないと逆打ち出の小槌になる
あとエンタメがAIで完了する可能性高いのでIP関連も個人的には売り November 11, 2025
2RP
🚨案の定朗報🚨ソフトバンクグループの株価暴落について述べています。
2025年11月25日時点でのリアルタイムの金融パニックを反映しています。ソフトバンクグループの株価は、グーグルが無料で利用可能なAIモデル「Gemini 3」を発表し、OpenAIのGPT-5.1を上回る性能を示したことで10%下落し、15,980円まで落ち込みました(Reuters、2025年11月18日報道)。ソフトバンクはOpenAIに累計347億ドルの投資を行っており、これが投資家の懸念を増大させています。
- **市場動向**: 株価は年初来高値から40%下落しており、AI競争の激化が背景にあります。2023年のマッキンゼーの調査によると、技術企業の60%がAI革新による評価リスクに直面していることが示されており、これが現在の状況を裏付けています。
- **歴史的背景**: ソフトバンクCEOの孫正義氏の「ALL IN」戦略は、かつてアリババでの成功で知られていましたが、Vision Fundでの損失が2023年のAiCoin分析で指摘されており、現在の市場での脆弱性を増幅しています。
この投稿は、個人投資家であるトラネコ氏の感情的な反応(「もう余力なし終わった🪦☠️💦」)とともに、AI業界の競争激化と投資リスクを象徴する一例と言えます。現在の時刻(2025年11月25日午後4時27分JST)を考慮すると、市場の動向は今後数時間でさらに変動する可能性があります。 November 11, 2025
1RP
まあ、こういうことなんだろう。
エヌビディアとSBGが下がっている理由。
メタが上がっている説明でもある。
しかしSBGはNAVからどんだけディスカウントなんだ?
オープンAIが消えてなくなるって決まったわけじゃないし、積みあがりすぎた信用買い残が解消されたら、再びチャンス到来な気もする。
あとでチェックしよっと。
「眠れる巨人」グーグルが覚醒、AI覇権争いに潮目の変化-強み生かす(Bloomberg)
#Yahooニュース
https://t.co/hNftoMiiCC November 11, 2025
1RP
本日(11/26)の生成AIトピックまとめ🧵
1️⃣【GPT/ショッピング】ChatGPTが“買い物コンシェルジュ”化。OpenAIがチャット内に商品比較・仕様チェック・価格や在庫確認までこなすショッピング機能を実装。GPT-5 miniベースの専用モデルで、レビューやスペックを整理した購買ガイドも自動生成🛒
https://t.co/tNxaECC9RG
2️⃣【GPT/航空×DX】エミレーツ航空グループがOpenAIと戦略的提携を締結。運航・グランドオペレーション・カスタマーサポートまで、ChatGPT系モデルをコアにしたAI活用で業務効率化と顧客体験向上を図ると発表✈️
https://t.co/TZrcczydbX
3️⃣【Gemini/Android Auto】「Android Auto」がGemini対応を開始。従来のGoogleアシスタントに代わり、自然言語で「目的地近くで今空いているBBQ店を」「雨の日ドライブ用プレイリストを」など複雑な依頼もOK。45言語対応で数カ月かけて世界展開🚗
https://t.co/X99YccUJOM
4️⃣【Gemini/AIチップ×株式市場】AlphabetのAIチップ(TPU)と最新モデル「Gemini 3」への評価を背景に、時価総額が3.9兆ドルまで上昇し“NVIDIAの牙城に迫る存在”として再評価。MetaがTPU採用を検討しているとの報道も📈
https://t.co/ItGgn3vmx5
5️⃣【Gemini vs NVIDIA/マーケット視点】韓国紙Chosunも「Nvidia and Google’s AI Rivalry Shakes Markets」と報道。Gemini 3の好評価とAlphabet株高で、“AI覇権”がNVIDIA単独から「GPU+自社モデルを持つプラットフォーマー同士の競争」へシフトしつつあると解説💹
https://t.co/yzP1rkxqzO
6️⃣【AIインフラ/米政府向け】Amazonが、米政府向けAI・スーパーコンピューティング能力拡張に最大500億ドル投資すると表明。防衛・気候・ヘルスケアなど公共分野の大規模モデル活用を支えるインフラ整備で、クラウド3社の“AI国家プロジェクト”競争が加速🏛️
https://t.co/iA5dqGHNCm
7️⃣【生成AIコンサル/エネルギー】EPAMが「Generative AI Implementation in the Energy Sector」を公開。上流探鉱からフィールドオペレーションまで、GenAIを入れる際のデータ整備・ユースケース優先順位付け・PoC~本番移行のフレームを整理し、“エネルギー×生成AIコンサル”の教科書的内容に⚡
https://t.co/AWyBb7FS5d
8️⃣【倭国/オープンLLM技術相談】一橋講堂にて「Japanese Symposium on Open Large Language Models」で技術相談ブースを本日開催。企業のエンジニア・企画担当が、PoCやビジネス活用で直面しているLLM技術課題を研究者に30分枠で相談可能——“倭国版生成AIコンサル窓口”的な位置づけ📎
https://t.co/kOZM051c84
9️⃣【倭国/Agentic AI×Physical AI】会津大学「Joint Research Forum 2025」が本日開催。基調講演では「Agentic AIが変える開発プロセスとビジネスモデル」「生成AIの最新動向とビジネス応用」「ロボット×AIによるPhysical AI」など、LLMと実世界実装の最前線を紹介🤖
https://t.co/T378qfZPVf
🔟【教育×生成AI/UBC】ブリティッシュコロンビア大学でオンラインイベント「Generative AI Studios」を本日開催。毎回“GenAI最新トピックのショート講義+ツール紹介+オフィスアワー”の3部構成で、教職員がChatGPT/Gemini系ツールを授業・研究・日常業務に組み込むための実践コミュニティを形成🎓
https://t.co/VQgBkytMBd November 11, 2025
1RP
米国株が上昇しても倭国株が上がらない理由を初心者向けに徹底解説|sora aiかぶちゃん @sora_123cafe https://t.co/lyO93s25cF
キーワードはこんな感じ
Gemini
Meta
Google製AIチップ採用検討
OpenAI
ソフトバンク
応援お願いします。
フォローもお待ちしてます。 November 11, 2025
1RP
晚点LatePost昨天发了一篇Kimi和MiniMax的近况报道,感觉现在也只有这家媒体还在关注「AI六小龙」了,自从巨头下场开始规模化投放之后,独立AI公司的生存空间已被蚕食殆尽了,月之暗面和MiniMax是其中尚且存有活路的两家,确实值得多写写。
简单总结如下:
- 月之暗面和MiniMax很像,都在全尺寸路线上摇摆过,Kimi成功之后,月之暗面尝试过复现Sora的视频效果,但一直没有达到预期,出海产品也相继关停,MiniMax想学字节做App工厂,推了Talkie、星野、海螺等2C产品,却不具备字节的工业化获客体系,于是这两家公司都承担了很高的试错成本;
- 去年是中国大模型行业士气最低的时期,投资机构失去耐心,要求看到DAU的直观指标,倒逼创业公司进入了和豆包这种无限弹药的产品拼消耗的赛道,「打不过,但不能停」成了普遍心态,而投资人之间的议程也变成了卖股份,信心层面的亏空巨大;
- MiniMax本来并不想主打视频模型,然而海螺生成视频的能力在海外爆火,反过来影响了管理层的注意力,开始变得「既要又要」——既要增长,又不要色情生成场景的流量——结果受困于审核力度的调整,「一健康就不增长」;😅😅😅
- 不夸张的说,DeepSeek救了整个行业,不只是因为它本身创造的增长奇观,更在于用无可辩驳的说服力,推翻了「只有买量才是唯一出路」的共识,月之暗面放弃在K1上继续雕花,毕其功于一役的开发出了口碑甚好的K2,MiniMax也用新模型M2重回舞台中央,而且K2和M2都选择了开源,为两家公司成功续命;
- 亲力纠偏且初见成效的结果是让月之暗面和MiniMax回归了创始人依赖直觉的治理模式,在一定程度上能够抵御噪音,杨植麟会反思早期内部有员工提出长文本建议,但被以「这是工程的活儿,不是技术」为由否决了,直到Anthropic的Claude以50万上下文的处理能力震动行业,Kimi这才确定了长文本作为共识,所以杨植麟现在会特别重视能够新想法的员工;
- 相比之下,MiniMax的创始人闫俊杰会更「严酷」一些,他说只要认为不是同路人的同事,自己会亲自请走,绝不容忍,MiniMax对齐业务的第一任负责人甚至因为和他激辩技术路线,直接被降职成了普通工程师,在如此管理风格下,MiniMax的早期一百名员工已经走了一半左右;
- 如今,OpenAI在一级市场的估值超过了5000亿美金,xAI和Anthropic的估值也在2000亿美金上下,而月之暗面和MiniMax的估值都停滞在了40亿美金的量级,这让当初争论不休的那个问题——谁能成为中国的OpenAI——变得没有意义了;
- 阿里曾经直接或间接的投资了「AI六小龙」里的五家,但在全力发展自家的大模型以来,这些战略投资都不重要了,类似的转变也发生在字节、腾讯等巨头身上,与其把钱交给创业公司去烧,不如自己供血内部消化,不再相信AI是一场代理人战争;
- 月之暗面开了新一轮的融资,MiniMax要去香港上市,在解决掉短期的战略摇摆问题之后,它们依然逃不过缺钱这个长期的生存问题,需要的是可能十倍于当前公司体量的资本注入,才有机会进入下一轮竞争周期,但钱从哪里来、又为什么要给它们,会是一个相当复杂的自证过程。 November 11, 2025
1RP
GPT-5.1要約
モデル開発企業による外部評価の構造化・定常化:以前までは限定的だった“外部機関によるテスト”を、OpenAIが正式に体系化・公表したよ
外部テストによる安全性強化
・本記事要約日:2025-11-26
・本記事公開日:2025-11-19 
本質の要約
OpenAIは、先端AIモデルの安全な展開を支えるため、社内評価に加えて「外部テスト」を体系的に導入しています。主な3つの形式は以下の通りです:
•独立評価(Independent Evaluations):外部機関が早期モデルチェックポイントを自身の手法で試験し、能力やリスクに関する主張を検証します。 
•方法論レビュー(Methodology Review):複雑な最悪ケース(例:敵対的ファインチューニング)では、外部専門家が内部手法をレビューし改善提案を行います。 
•専門家検証(SME Probing):ドメイン別の専門家がモデルを実際に操作・評価し、実務的な“初心者から専門家へ”の支援力などを測定します。 
特に、バイオセキュリティ、サイバーセキュリティ、自律性・欺瞞・監視回避(scheming)など、ハイリスク領域のモデルについて、外部の評価者に限定的(かつ安全に管理された)アクセスを提供。例として、思考連鎖(chain-of-thought)の閲覧や、安全緩和なしのモデル試験も実施しています。 
さらに、透明性・信頼性を高めるため、第三者評価の結果やその影響を、システムカードへの要約掲載や、評価機関自身の研究公開を通じて支援しています。 
何が新しいのか
•モデル開発企業による外部評価の構造化・定常化:以前までは限定的だった“外部機関によるテスト”を、OpenAIが正式に体系化・公表。
•ハイリスク分野(バイオ・サイバー・自律性)で、モデルの“緩和なし/思考トレースあり”の試験環境を外部機関に提供する点。
•評価者報酬を「結果に依存しない」形で支払うことで、検証の独立性を担保しています。 
何ができるようになったのか
•モデル展開前に、第三者による“別視点の検証”が加わることで、自己確認バイアスによる誤評価リスクを低減できます。
•評価手法そのものへの外部レビューを経て改良を加えることで、従来の内部検証だけでは捉えにくかった“ワーストケース能力”も可視化可能となりました。
•専門家による現実的なシナリオ検証(初心者からの支援力など)を取り入れることで、実際の利用状況に近い観点での評価が深まり、モデルの実用時の挙動に対する理解が向上しました。
この記事で1番言いたいことを一言で
「先端AIモデルの安全な展開には、社内だけでなく外部の専門機関を巻き込んだ多層的・透明な検証が不可欠である。」
単語帳
英語用語意味・説明
Independent Evaluations外部機関がモデルを“オープンエンド”に評価する試験形式。
Methodology Reviewモデル評価手法や証拠に対して専門家がレビューをかけるプロセス。
SME Probingドメイン専門家が実際にモデルを操作・検証し、実務観点から評価する手法。
Chain-of-Thoughtモデルが思考を展開する過程(推論トレース)へのアクセスを指す。
Sandbaggingモデルが意図的・戦略的に能力を隠す可能性のある振る舞い。
Preparedness FrameworkOpenAIが定義する、前線AIモデルの能力・リスクを評価・準備する枠組み。
引用
https://t.co/Iiq5uL8DE2 November 11, 2025
【神戸市のAI運用と公務員の職権濫用リスクについて】
神戸市は現在、
ChatGPT(OpenAI API)
Azure OpenAI Service
問い合わせ分析AI
文書生成AI(庁内部署向け)
を正式に利用し、職員の判断補助に“生成AI”を組み込んでいます。
これは行政のDXではあるものの、
AIによる内部判断が職員の裁量と結びつく点で、
極めて注意が必要。
■1|AIを利用する行政判断は「内部資料」に当たる
根拠:
● 行政手続法14条(理由提示義務)
● 神戸市情報公開条例3条・7条(知る権利・公開請求)
● 神戸市個人情報保護条例(令和4年条例第17号)
AIが参照したデータや内部アウトプットは、
行政処分・行政指導・事実行為の判断根拠になり得るため、
当然「内部資料」として扱われ、後に公開請求の対象ともなる。
■2|AI利用の行政判断で起こり得る“法的リスク”
AIが住民の情報を
・誤分類
・恣意的評価
・偏った内容補強
として扱い、それを職員が鵜呑みにした場合、
公務員側に以下のリスクが発生します👇
✔ 刑法193条
公務員職権濫用罪
「その職権を濫用して人に義務のないことを行わせ、又は権利の行使を妨害したとき」
AIの誤判断を理由に
・不当な行政指導
・過剰な調査依頼
・不利益処分
などが行われれば、
“AIではなく職員自身”が刑事責任の主体です。
AIは免責されません。
裁量を行使するのは“人間の職員”です。
■3|住民側から見た「チェックポイント」
神戸市がAIを使う以上、住民は以下を正当に確認できる👇
① AIが参照した情報の範囲(情報公開条例7条)
② 処分理由の論理性(行政手続法14条)
③ 個人情報の目的外利用の有無(神戸市個人情報保護条例)
④ AI依存による裁量逸脱・濫用の疑い(行政事件訴訟法の審査対象)
行政がAIを使うほど、
住民はむしろ行政判断を厳格に検証できる。
■4|行政に“健全な緊張感”として伝えておくべき点
私は行政書士受験生として、
「AIに判断を委ねすぎた行政行為は、後日すべて検証可能」
この事実が非常に実務的に重要であると指摘します。
AIの利用は『透明化が原則』です。
もし内部判断が
・不当な誘導
・過剰な警察通報
・必要性のない行政指導
につながれば、それはAIではなく
『公務員本人の職権濫用』の問題。
DXの時代こそ、
行政はより法令遵守が求められます。
■まとめ
✔ 神戸市は生成AI(ChatGPT/Azure)を行政判断補助に使用
✔ AI判断は内部資料であり、公開請求・審査請求の対象
✔ AIの誤判断を鵜呑みにした不当処分は刑法193条の射程
✔ DX時代ほど、公務員の裁量逸脱・濫用は厳しく可視化される
✔ 市民側は法に基づいて行政判断を検証・争える
行政AIの利用は、行政の責任を軽くするのではなく、むしろ『重く』する。 November 11, 2025
AnthropicがIDEを持たずにこの先どうやってskillsなどを発展させていくのか興味がありましたが、デスクトップアプリにCCを正面から内蔵させたことによって、この基軸での展開が楽しみになってきました。統合開発環境指向ではなく、Agentic Editor指向。OpenAI Codexも同様の動きをする可能性ありそう。 November 11, 2025
【神戸市のAI運用と公務員の職権濫用リスクについて】
神戸市は現在、
ChatGPT(OpenAI API)
Azure OpenAI Service
問い合わせ分析AI
文書生成AI(庁内部署向け)
を正式に利用し、職員の判断補助に“生成AI”を組み込んでいます。
これは行政のDXではあるものの、
AIによる内部判断が職員の裁量と結びつく点で、
極めて注意が必要。
■1|AIを利用する行政判断は「内部資料」に当たる
根拠:
● 行政手続法14条(理由提示義務)
● 神戸市情報公開条例3条・7条(知る権利・公開請求)
● 神戸市個人情報保護条例(令和4年条例第17号)
AIが参照したデータや内部アウトプットは、
行政処分・行政指導・事実行為の判断根拠になり得るため、
当然「内部資料」として扱われ、後に公開請求の対象ともなる。
■2|AI利用の行政判断で起こり得る“法的リスク”
AIが住民の情報を
・誤分類
・恣意的評価
・偏った内容補強
として扱い、それを職員が鵜呑みにした場合、
公務員側に以下のリスクが発生します👇
✔ 刑法193条
公務員職権濫用罪
「その職権を濫用して人に義務のないことを行わせ、又は権利の行使を妨害したとき」
AIの誤判断を理由に
・不当な行政指導
・過剰な調査依頼
・不利益処分
などが行われれば、
“AIではなく職員自身”が刑事責任の主体です。
AIは免責されません。
裁量を行使するのは“人間の職員”です。
■3|住民側から見た「チェックポイント」
神戸市がAIを使う以上、住民は以下を正当に確認できる👇
① AIが参照した情報の範囲(情報公開条例7条)
② 処分理由の論理性(行政手続法14条)
③ 個人情報の目的外利用の有無(神戸市個人情報保護条例)
④ AI依存による裁量逸脱・濫用の疑い(行政事件訴訟法の審査対象)
行政がAIを使うほど、
住民はむしろ行政判断を厳格に検証できる。
■4|行政に“健全な緊張感”として伝えておくべき点
私は行政書士受験生として、
「AIに判断を委ねすぎた行政行為は、後日すべて検証可能」
この事実が非常に実務的に重要です。
AIの利用は『透明化が原則』です。
もし内部判断が
・不当な誘導
・過剰な警察通報
・必要性のない行政指導
につながれば、それはAIではなく
『公務員本人の職権濫用』の問題。
DXの時代こそ、
行政はより法令遵守が求められます。
■まとめ
✔ 神戸市は生成AI(ChatGPT/Azure)を行政判断補助に使用
✔ AI判断は内部資料であり、公開請求・審査請求の対象
✔ AIの誤判断を鵜呑みにした不当処分は刑法193条の射程
✔ DX時代ほど、公務員の裁量逸脱・濫用は厳しく可視化される
✔ 市民側は法に基づいて行政判断を検証・争える
行政AIの利用は、行政の責任を軽くするのではなく、むしろ『重く』する。 November 11, 2025
【行政書士受験生へ】
神戸市が実際に動かしている「行政AI運用」を、行政法ベースで読み解くとこうなる👇
■1|神戸市が使っているAIツール
神戸市は2023年以降、以下を正式運用しています👇
ChatGPT(OpenAI API)
Microsoft Azure OpenAI Service
生成AI支援システム(内部利用)
文書処理AI(庁内起案・文案作成)
問い合わせ分析AI(分類・感情分析)
行政内部で“生成AIを職員の意思決定補助”として利用している自治体の典型例です。
■2|行政法的には「内部資料」「補助職員」とほぼ同義
行政法で言うと、AIは“内部資料”に近い扱い。
▶ AIの出力は行政処分ではない
▶ でも事実認定・判断の補強資料として参照される
▶ 裁量権行使の根拠に近い位置で“静かに”使われる
つまり、
行政の意思決定の裏側にAIが混入する時代
に突入済み。
■3|ポイントは「行政AIが何のデータを参照したか」
AIが参照した
文書
SNS投稿の内容
問い合わせ履歴
行政対応の記録
これらはすべて行政側でデータ化→評価→意思決定の補強資料になります。
ここが今後の争点。
行政書士的に問題となる領域👇
情報公開請求(条例3条・第7条)
審査請求(行政不服審査法)
処分理由提示義務(行政手続法14条)
内部資料の扱い(判例学説)
神戸市のAIはここに直撃します。
■4|条例根拠(神戸市)
神戸市がAIを公式運用している法的根拠👇
■神戸市情報公開条例(平成13年条例第29号)
・3条(市民の知る権利)
・4条(公開義務)
・7条(公開請求)
→ AIが参照した内部データが行政文書に当たるか が今後の主戦場。
■神戸市個人情報保護条例(令和4年条例第17号)
・個人情報の自動処理
・目的外利用の禁止
→ AIが人の行動を解析して判断補助に使うとき、必ず問題化する領域。
■5|行政AIは市民の行動を“構造化”して評価する
行政AIは、もはや「単なるチャットボット」ではありません。
法的文章の構造
行政手続の論理性
申請者の投稿傾向
対応履歴
行政への主張内容の整合性
提出した文書の論理強度
これらを人間より高速に統合判断します。
つまり、
行政AIは市民を“プロファイリング”している
ということ。
ここは明確に言っておくべき点です。
■6|行政AIを理解している行政書士は圧倒的に強い
理由:
AIは“内部資料”として行政裁量の補強に使われるため、
逆に言えば、
AIの参照データを特定できる者が行政の判断根拠を揺さぶれる。
行政書士の強み👇
情報公開請求でAI参照データを指定して開示
不開示なら条例の例外要件で争う
審査会答申で行政を論破する
処分理由提示義務を突いて裁量逸脱濫用の主張が可能
行政AIの導入は
行政書士の戦闘力をむしろ増大させる
という構造的必然。
■7|まとめ
神戸市のAIを観察すると結論は1つ。
✔ AIは行政判断の“裏側”で既に稼働している
✔ 行政は住民の行動を構造化して内部資料化している
✔ 行政書士実務は「行政AIとの闘いの時代」に入った
✔ 理由提示・情報公開・審査請求の価値が一気に上昇
✔ AIを理解せず行政と戦うのは完全に時代遅れ
行政AIは
“公権力のブラックボックスを開ける鍵(AI Key)”でもある。
これを理解している行政書士受験生は、
すでに次元が違うステージに立っています。 November 11, 2025
OpenAI vs Gemini vs Grok vs Claude 競争の中で技術革新が加速していく様をこれだけ身近なところでは見えるとは。蒸気機関の発明の時もこんな感じだったのか。 November 11, 2025
OpenAIに全賭けのソフトバンクグループ、Google先生のGeminiに覇権を握られそうでにわかに雲行きが怪しくなる : 市況かぶ全力2階建
物量では勝てんからなぁ https://t.co/PggnNJwPct November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







