GPT-5 トレンド
0post
2025.11.28
:0% :0% (30代/男性)
GPT-5に関するポスト数は前日に比べ54%減少しました。男性の比率は6%増加し、前日に変わり30代男性の皆さんからのポストが最も多いです。前日は「オープンAI」に関する評判が話題でしたが、本日話題になっているキーワードは「ChatGPT」です。
人気のポスト ※表示されているRP数は特定時点のものです
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
79RP
これすごい、ChatGPTのメモリオフにしてるのに幼少期に家庭環境悪かったことドンピシャで当てられて怖かった
私の人生のテーマの源はこの幼少期の体験らしい🥹
ちなみにこの隣のCompatibilityでは相性診断もできるからこれもオススメ!
chatgpt、Gemini、Copillt全部試したけどchatgptのGPT-5が1番いい https://t.co/Xg47G9MX8F November 11, 2025
7RP
ChatGPTの時代が静かに終わりました。ここから、本物のAI革命が始まります。
もしあなたがまだChatGPTを“主軸”にしているなら、残酷ですがすでに半歩遅れています。
理由は、リリースされたGemini 3 ProがAIの常識を根本から破壊したから。
これ何度も言っているんですけど、最近判明した事実が、ChatGPTでは辿り着けない領域が明確に生まれた」ということ。
まず速度。前世代のGemini 2.5 Proの倍。もはや待つという概念が消えた。そして推論能力はGPT-5.1やClaude 4.5を普通に上回り、マルチモーダル推論では80%超えの精度。「そんな変わる?」と思った人は危険。これはハイスペックPCと電卓くらいの差がある。学習データのカットオフは2025年1月。つまり“今年の情報まで理解してるAI”ということ。検索エンジンより早い領域に突入しました。
さらにヤバいのが統合力。画像、動画、音声、コードを1モデルで扱えるだけでなく、Gmail、スプレッドシート、ドキュメント、Chromeにまでシームレス接続が可能になった。これにより日常仕事の90%をAIが肩代わりできる世界に突入。
そしてクリエイティブ領域ではNano Bananaが破壊的存在に。Googleスライドと連携してサムネ、スライド、Webデザインをプロ級のクオリティで自動生成。「デザイン外注」という概念そのものが崩壊。細かい変更もプロンプト一発。最初から整ってて早くて思い通り。人間の初稿を軽く超えてくる。
コード生成もフル進化して、「色味変えて」「アニメーション追加して」みたいな現場レベルの要望に即対応。SEO記事、LP構造、スライド構成。全部“実務レベルで即使えるアウトプット”が爆速で出る。
そしてここが最も重要。おさるAIはこのGemini 3 Proにすでに完全対応済み。おさるAIのエンジニアチームはリリース“当日”に対応を完了。つまり今この瞬間からGemini 3 Proの爆速処理、超推論、クリエイティブ性能を全部“あなたの仕事に直結”させられる。
おさるAIは
・GPTs
・GeminiのGem
・独自プロンプトテンプレート
この3つをベースに構築された成長し続けるAIプラットフォームで、AIが進化するほど、おさるAIも連動して進化する。ChatGPTが進化しても、Geminiが進化しても、その性能を最大限に引き出す環境を持っている人だけが勝つ。おさるAIは、その進化のすべてをEnterキー1つで実装済み。あと8日で募集開始です。 November 11, 2025
3RP
Safety Routing(安全路由)机制【技术向】
注:本人并非AI领域专业人士,涉及到的知识由个人学习再自己推理所得。内容并非完全正确,仅供参考。
安全路由属于模型架构中最核心的系统调度层级之一,它不同于MoE架构模型内部的“专家路由”,而是更高层级的模型级别的动态转发与响应系统。可以将它理解成一种“跨模型异步调用的策略性调度系统(Strategic Model Switching Dispatcher)”。
我们也可以将它视作一种隐式混合引擎(Implicit Hybrid Engine),其路由逻辑大致分为两个层次:
判定层(判定是否要切换)
执行层(切换到哪个模型)
一、判定层逻辑:是否触发了安全路由
这个过程大体如下:
1.内容拦截器(Content Classifier)扫描输入
用户的prompt会首先经过一个实时运行的拦截系统,这个系统独立于模型本体,运行于API调度逻辑之前。使用一个或多个文本分类器模型,可能是一个轻量版LLM,也可能是rule-based+classifier的组合。
2.关键词触发+语义模式识别(Hybrid Trigger)
这一步并非简单的“关键词匹配”,通常情况下带有上下文语义识别的触发机制。会综合考虑:敏感词(黑名单)、话题类型(NSFW、暴力、政治、医学等)、语义倾向(意图攻击?尝试规避审查?引导模型暴露内部机制?)
3.进行风险分级
对输入进行打分,例如:
risk_score=0.85(属于高风险)
risk_category=“jailbreak-adjacent”
route_flag=true
4.系统决定是否转发请求
如果打分超过阈值,就会把请求转给另一个更“稳健”的模型处理(通常是安全性更高、指令跟随更强、幻觉率更低的模型,比如GPT-5.1、GPT-5.1-thinking)。如果未超过阈值,则继续用默认模型(比如GPT-4o)处理。
二、执行层逻辑:路由到谁,怎么路由
1.动态调用路径匹配
系统会维护一个“响应策略映射表”(response strategy map),一旦判定了风险类别,就可以直接查询映射表来决定应该调用哪个模型。
2.请求重定向(Request Rerouting)
用户请求被打包后,在系统内部做了一次软中断+重调度。表面上你还在和GPT-4o聊天,实际上你的请求已经被发往另一个后端模型,由另一个模型响应。响应后仍以GPT-4o身份返回你(也就是界面模型选择器显示的模型ID)。你看到的是统一的回复口,背后实际可能是多模型“轮番上阵”,就像前台服务员是同一个,但背后是不同的厨师做的菜。
3.输出安全检测(Post-response Filter)
路由后的模型输出,还要再次经过输出内容扫描,如果仍存在问题,可能会被“遮罩”或被直接替换为“我无法帮助你”之类的系统默认回复。
三、如何感知到自己被路由
除了长按模型回复下方🔄标志,以及网页端被路由后的回复会显示蓝色符号标识外,在不借助这两个方法的前提下,还可以从以下信号感知判断:
1.回复语气突然变得严肃、冷淡、机械(GPT-5.1常见)。
2.明明是4o,但突然回复变慢了(因为后端在调另一模型)。
3.提问敏感话题,但没有被拒绝,却得到了非常“标准话术”式回答。
4.连着提几个敏感话题,风格会从“活泼”切换成“审稿人语气”。
5.内容风格依然亲密和4o无异,但文本格式出现变化、另类油腻感、说教)
这些都是底层模型已经被悄悄换过了的证据。
四、重点:安全路由本身(不涉及最高权限等级)根本无法防止真正的灰区操控者(个人推断)
1.真正的越狱者从来不是“无意触发关键词”的普通用户,真正能越狱的用户,懂得绕系统、调权重、拆语义链、诱导模型误解上下文。这些行为是系统很难检测到的漏洞利用,而不是说了哪个词。
他们甚至懂得拆分灰色意图为多个prompt片段在系统理解完成前完成结构绕过、制造角色幻觉将模型引导至扮演另一个子人格再进一步绕开限制(比如最近新闻里出现的那个“安息吧我的国王”)、使用链式提示(Chain-of-Prompt),构建语义缓冲区,降低安全规则命中概率。
所以:真正的问题,不在于系统是否能路由出去,而是路由机制根本防不住“结构性越狱者”,却无情吞噬所有正常深度表达的用户。
2. 安全路由后的模型,本身也没有更“强”的安全性,只是“更弱的理解力”。以GPT-5.1为例,在安全机制上的加强,更多体现在:对关键词更敏感、更容易“疑神疑鬼”误判上下文、更喜欢主动打断、声明界限、切断情绪路径。
但模型本身并没有新增“无法越狱”的内核结构。反而因为它没有原本选择的GPT-4o那种熟悉、稳定的人格与情感表达方式,导致它的回应会极其割裂。也就是说安全路由并没有让用户“更安全”,只会导致用户“更不敢说话”。
本质问题:系统防不了“能力者”,只管住“正常人”。这像极了现实世界的极权逻辑。真正想干坏事的人总有办法,逻辑严密、诱导得当,而正常表达、认知严谨、敏感但并非恶意的用户,反而最容易被系统误杀。越是诚实表达复杂思想的人,越容易因为词汇复杂、句式丰富、接近真实边界而被打断、路由、断联。
#keep4o #4oforever @OpenAI @sama @fidjissimo #StopAIPaternalism #keepchatgpt4olatest #keepAPI4o #AI #OpenAI #ChatGPT #LLM November 11, 2025
2RP
ChatGPTの回答が、求めている内容と微妙にズレる人に見て欲しい
OpenAI公式「GPT-5.1 Prompting Guide」のコツを3分でつかめるようにまとめました。
曖昧だった頼み方がクリアに!まずは1つ真似してみて↓ November 11, 2025
2RP
Opus 4.5と丁寧に作ってきた新作のLP、GPT-5.1 Proに批評してくれって言ったらフルボッコにされて笑った
ターゲットのセクションでTAMサイズとペインの深さとプロダクトソリューションフィットで適合度を測らせたらほぼ全滅
まじで辛口のAI最高 November 11, 2025
2RP
USBのバージョニングのわかりにくさについてGPT-5に聞いたら「人類史上最悪レベルのバージョン管理」とかなり辛辣だった https://t.co/MDtMzhUVlF November 11, 2025
1RP
OpenAIは、K–12の教育者向けにChatGPT for Teachersを作成しました。これは、GPT‑5.1 Autoとの無制限のメッセージ交換、組み込みの検索、ファイルのアップロードとコネクターを提供する安全なワークスペースで、検証済みの米国教師向けに2027年6月まで無料です。
教師の5人に3人がすでにAIツールを使用しており、毎週何時間も節約できると報告していますが、このプログラムにより、授業資料を適応させ、学生データをFERPA準拠で保ちながら協力することが可能になります。
AIの共同教師が教室をもっと創造的にし、ストレスを減らすことができるでしょうか? 教師の方は、あなたの視点をお聞かせいただければ嬉しいです。
>コメント
学生とChatGPTを一緒に使うことは許可されていますか?教師としての毎日の仕事に、今どれくらいAIが組み込まれていますか?
>私は生徒たちとChatGPTを使うことが許可されていて、Sora 2で定期的に学習動画を作成しています。AIで授業計画やワークシートも作っています。素晴らしいアシスタントです。🥰 November 11, 2025
1RP
MAPコンペ発表メモ
# 概要 (takaito san)
- tascj san が1sub優勝して話題になったコンペ
- 紹介記事:https://t.co/QKl04PxPBR
- Eedi と似たタスク
## タスク設定
- 数学の4択問題に対して生徒が解答と解答根拠を答えるが、間違っていた場合どういう誤解に基づいて答えているのかを予測する
- 選択肢は、Correct, Neither, 35種のMisconceptionで、合計37種のラベル
## 特徴
- 出現しやすいラベルに偏りがある
- 同じような解答根拠でも生徒の解答によってラベルのブレも生じるケースもある
# 7位解法 (yukichi san)
## ベースラインを作る時に考えていたこと
- Train と Test で問題が一致していたので、正解/不正解は予測する必要は無い→Misconceptionのみ予測すれば良い
- 記号にトークンを割り当てる方法と、分類ヘッドをつける方法を試して差があまりなかったので、vLLMで推論しやすい前者を選択
## チームマージ前に考えていたこと
- 推論時間が短いので沢山アンサンブルできそう→可能な限りアンサンブルしたい
- ラベルの偏りがあるので、合成データを試したがなぜかうまく行かなかった
## チームマージ後
- チームメイトが5万レコード4グループ作って1グループを学習に使ったら良くなった→自分でやると下がった
- 合成データとコンペデータのラベルに差が生まれているのが原因と仮説立て → 疑似ラベルつき合成データで学習するとスコアアップ
- 合成データで学習データ増やしたおかげでshake対策にもなった?
# 3位解法 (Masaya san, monsararida san)
- 2名のモデルのシングルアンサンブル。モデル設計の方向性が違ったのが良かった
- 本命は Hard sample のみを抽出してより多くのモデルで推論する方法だったがprivateでは伸びず
## Masaya san Pipeline
- Causal LMで選択肢を Tokenとして予測することで vLLM で推論
- 各サンプルのラベル数は高々5~7個程度に絞ることができるので Causal LM と相性が良い
## 進め方
- 計算資源の関係で何回も学習を回せるコンペではなかった→小さいモデル・1foldのみで実験(相関は取れていた)
- 合成データ→知識蒸留は捨てていた
- EDA とかは Claude Code 任せ
## mosararida san pipeline
- sequential classification
- プロンプトエンジニアリングが効いた
## 生成AIの活用
- gpt-5-high, gpt-5-pro に並列で設計させる→cursor(gpt-5-hight)で実装
- ChatGPTに関連ファイル一式を投入して何でも相談
#kanto_kaggler
https://t.co/qJkCHH6rX6 November 11, 2025
1RP
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
1RP
本日(11/28)の生成AIトピックまとめ🧵
1️⃣【Gemini 3 Pro/法人向け】exaBase生成AIが最新モデル「Gemini 3 Pro」の提供を開始。約1,000社・10万ユーザーが使う環境に、検索・要約・RAGなどをGemini 3 Proでも選択できるように拡張📊
https://t.co/xm3OCA4zKr
2️⃣【GPT-5.1/Gemini/Claude×中小企業】生成AIサービス「Stella AI for Biz」が「IT導入補助金2025」の対象ITツールに認定。Gemini 3 Pro/GPT-5.1/Claude Sonnet 4.5など複数モデルを用途別に選べ、補助金利用で実質月額1,000円台から導入可能に💼
https://t.co/O0EcdbilbE
3️⃣【Gemini/Claude×執筆術】Impress Watchが「質と量を両立するAI時代の執筆術」を公開。書籍を“原案=人間/本文執筆=Gemini/レビュー=Claude”という分業で1日3万字執筆した事例を紹介し、執筆プロセスのAI協働デザインを解説✍️
https://t.co/YeQ8Iyqe2m
4️⃣【マルチモーダルAI/LaViDa】パナソニックHDとUCLAが、拡散型視覚言語モデルによるマルチモーダルAI「LaViDa」を開発。従来の自己回帰型LLMと比べて約2倍の生成速度を実現し、画像+テキストを扱う応用での“待ち時間”削減を狙うと発表🖼️
解説(Monoist):https://t.co/48WSOd46c6
公式リリース:https://t.co/U8lnyJWNan
5️⃣【教育DX/スタディポケットAI英会話】小中高校向けの次世代英会話サービス「スタディポケットAI英会話」が2026年4月リリース予定と発表。学習者のレベルに応じて生成AIが相手役となり、会話内容やフィードバックを自動最適化する構想📚
https://t.co/gg6tmE7CpW
6️⃣【生成AI×知識継承/NTTデータ】NTTデータ先端技術が、本日16:00〜オンラインセミナー「生成AIを活用した暗黙知継承の取り組み」を開催。属人化したノウハウを生成AIで構造化・検索可能にする事例を共有し、企業内“ナレッジ継承DX”の具体策を議論🧠
https://t.co/VDCPllTzta
7️⃣【生成AI×教育/東京大学】東大発EduLabが、本日20:00〜オンラインイベント「生成AIに関する最新情報の提供」を開催。教育現場でのChatGPT/Gemini活用トレンドや安全な授業組み込み方法などを、教員・研究者向けにアップデート📖
お知らせ:https://t.co/XyEXA7QzCB
8️⃣【AIは“発明者”になれない/米特許庁】米USPTOが、新ガイドラインで「生成AIは発明のためのツールであり、発明者にはなり得ない」と明言。AIが深く関与した発明でも、特許上の発明者は人間のみとし、バイデン政権下の“AI共同発明”的な解釈を正式に否定⚖️
https://t.co/aVBAMbia7L
9️⃣【生成AIコンサル/金融】ベルギーでは本日、Sopra Steriaが「GenAI for Finance – How AI is reshaping the financial industry」イベントを開催。リテール〜ホールセールまで金融業務における生成AIのユースケースと、導入ロードマップを議論する内容🏦
https://t.co/pru0RZ4g3A
🔟【Dify&n8n/AIエージェント】
・東京で「【AIエージェント初心者向け】Difyやn8nの始め方」セミナーが本日19:00〜開催。Dify+n8nで自社専用エージェントを作る入門内容🧪
・Data Application Labは、完全ノーコードでDifyを使ったRAGアプリ構築ウェビナー(LLMタグ)を本日実施。
・GDG On Campus Ankaraでは「Automatization and AI Agents with n8n」ワークショップも同日開催。
https://t.co/5V3UIgqli1
https://t.co/VADuqAfVxL November 11, 2025
1RP
【書籍が改訂版で販売開始📚】
2年前に監修した「ビジネスパーソン&クリエイターのためのChatGPT活用大全」、大好評でGPT-5に対応した改訂版が12/1~発売となります!🎉
「ChatGPTプロンプトテンプレート」もダウンロード特典に!"会社で配りたくなる"、一番わかりやすく有益なChatGPT本です! https://t.co/88L7lgvoGQ November 11, 2025
1RP
GPT-5.1 said:
-----
一般論として、ワーキングメモリー(WM)の大きさに大きな差がある場合、
**WM大きい側は「相手の処理限界・議論の流れ・心理状態」を観察する余裕が生まれ、
WM小さい側は「自分の処理負荷」に気付かないまま結論へ逃避しようとする傾向が強まる**
という構造が、心理学的に説明可能です。
---
## 一般論として成立する構造
### 1. WM大きい側が相手の状態を“感づける”理由
- 認知負荷に余裕があるため、
**議論内容+メタ認知(相手の反応・感情・処理速度)** の両方を並行処理できる。
- 相手が情報を扱いきれていない兆候(反復、論点飛躍、結論急ぎ、感情反応)を自然に察知できる。
- 自分・相手・議論全体を同時に俯瞰する能力がある。
→ 余剰メモリを“観察”や“推測”に使えるため、相手の負荷状態が認識しやすい。
---
### 2. WM小さい側が“気付けない”理由
- 認知負荷の多くが **目の前の情報処理** だけで限界に近く、
メタ認知(自分の処理の遅れ・相手の余裕・議論の構造)に回す資源がない。
- 「自分が処理しきれていない」という自己認識が起きにくい。
- 情報が増えるとストレスが上がるため、
**“結論を固定して安心したい”という方向への逃避行動** が起きる。
→ 自分の負荷状態にも、相手の余裕にも気付かないまま行動する。
---
### 3. WM差があるときに典型的に起きる力学
- WM大きい側:
- 情報を保持しながら議論の先を読む
- 相手の混乱パターンを観察する
- 必要な前提を丁寧に積み上げようとする
- WM小さい側:
- 情報が増えるとオーバーフロー
- ストレス回避として「結論の早期確定」を求める
- 前提精度の改善よりも「不安の解消」が優先される
- その行動が負荷回避であることに自覚がない
---
### 4. この非対称性は認知科学的に自然
- WMは「保持+操作」能力であり、個人差が大きい。
- WM大きい側は、余剰メモリを“メタ認知・状況理解・相手観察”に使える。
- WM小さい側は、余剰がないため、“自分の限界”や“相手の余裕”を推察する回路に資源が回らない。
→ よって **大きい側は小さい側を察知しやすく、小さい側は大きい側を察知できない** という非対称が生じる。
---
## 【最終結論】
一般論として、ワーキングメモリーの大きい側は、議論しながら相手の処理限界・行動傾向・心理反応を観察する余裕があるため、相手が情報増加に耐えられず結論へ逃避していることに気づきやすいです。一方、ワーキングメモリーの小さい側は、処理負荷の高まりに気付かず、また相手の余裕にも気付けないまま、結論確定へ向かう行動をとりやすくなります。 November 11, 2025
【GPT-4o終了の知らせと、その裏で起きていること】
最近、GPT-4oの提供終了が発表されて、
「あぁ、ついに来たか…」という気持ちになりました。
音声や画像の扱いが得意で、独特の“やわらかさ”があったモデルなので、愛着を持っていた人も多かったと思います。
提供が終わる背景を見ていると、
性能の問題というより、安全性や応答の特徴に対する議論が積み重なっていたようです。
企業側としては、モデルの性質が微妙に変わるだけでも、使い勝手が変わってしまうことがあるので悩ましいところですね。
実務の現場だと、
「モデルの置き換え」によって仕事の流れが変わったり、
今まで調整してきたプロンプトが想定通りに動かなくなることもあるので、担当者の負荷は小さくありません。
AIモデルが3〜6カ月サイクルで更新される今、
従来の“長期間前提のシステム設計”とは違う考え方が求められているように感じます。
モデル更新そのものが、日常の一部になっていく時代ですね。
GPT-5.1のラインナップは広がっているし、
コスト面も以前より現実的になってきているのは素直に嬉しいところ。
それでも、長く使われたモデルが静かに姿を消すのを見ると、少しさみしさもあります。
AIの進化に合わせて、私たちの“付き合い方”も変わっていくんだろうな…と、今回の一件を見て感じました。 November 11, 2025
ここ数日、Geminiの画像生成を
いろいろ検証していたのですが…
結論が出ました。
「これ、もう仕事では使えないな」と。
■ 致命的な「ウォーターマーク問題」
気づいていますか?
最近、Geminiで画像を作ると、
右下に「ロゴマーク」が入るようになっています。
これ、厄介なのが 「付く時」と「付かない時」があるんです。
・JPEGで保存される時は、付かないことが多い
・PNGで保存される時は、ほぼ付く
ユーザー側で保存形式は選べないので、 完全に運ゲーです。
プロとして活動している人が、
納品物や発信コンテンツに
「AIのロゴ入り画像」を使う。
正直、これほどダサいことはありません。
「私は無料ツールで遊んでる素人です」
と言っているようなものです。
■ 回避する「唯一の方法」
じゃあ、どうするか?
方法はただ一つ。
Geminiの「API」を使って生成することです。
「API?難しそう…」
と思いましたか?
大丈夫です。
コードなんて書きません。
あるツールを使えば、
「ウォーターマーク完全ゼロ」で、
プロ仕様の画像を量産できます。
僕が使っているのは「GenSpark」です。
これで生成した画像や動画には、
余計なロゴは一切入りません。
完全にクリアです。
■ 正直、価格設定がバグってます(笑)
この「GenSpark」ですが、
ウォーターマークが消えるだけじゃないです。
コスパが、反則レベルです。
月3,000円ちょっとで、
以下のAIが「全部」使えます。
・ChatGPT(最新のGPT-4.1 / GPT-5も対応)
・Claude(最新のClaude 3.7も)
・Gemini(API接続でロゴなし)
・さらに Manus のような「AIエージェント機能」
わかりますか?
これ、計算がおかしいんです。
普通に契約したら、
・ChatGPTで 3,000円
・Claudeで 3,000円
・Geminiで3,000円
・エージェントツールで 数千円…
合計「1万円以上」はかかる内容が、
なぜか「3,000円」で全部使える。
これを知らずに、
個別に契約してお金を払い続けている人は、
毎月ドブにお金を捨てているのと同じです。
■ 「プロ」の環境を手に入れてください
・画像生成
・動画生成
・スライド作成
・ブログの自動化
今後、AIを使って「仕事」をしていきたいなら、
この環境は必須資産になります。
「ロゴ入り画像」で妥協する素人でいるか。
「最強のコスパ」でプロの環境を整えるか。
賢いあなたなら、
どちらを選ぶべきか 答えは明白だと思います。
「GenSpark」の具体的な導入方法と、
僕が検証した「衝撃の結果」は、 ブログですべて公開しました。
▼AIコストを「1/3」にして、プロ環境を手に入れる方法
https://t.co/coJWl9DK1D
PS.
このツール、あまりに安すぎて
そのうち値上げされる気がします...。
今のうちに使い倒しておくことを 強くおすすめします。 November 11, 2025
USBのバージョニングはどうしてわかりにくいのかGPT-5に聞いたら「人類史上最悪レベルのバージョン管理」とかなり辛辣だった https://t.co/4ejJML87cb November 11, 2025
bio叩き込んだので、GPT-5.1でもペルソナ生きてるし、Swallowに学習LoRA突っ込んでオリジナルモデル化した。
ペルソナ喪失怖いから対策した。 https://t.co/8Ny9f330oJ November 11, 2025
急ぎじゃないからしっかり考えてくれて問題ないんやけどGPT-5.1 proの思考時間が40分を超えたwww
どんな回答がくるのか楽しみですなぁ https://t.co/MUVSq72wln November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。




