オープンAI トレンド
0post
2025.11.27 15:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
3RP
民法連がSora2に対して懸念表明の声明。迫力がありすぎて全文引用しなきゃ済まない感じだったので、代わりに下線を引きました。サム氏、これにどう答えるの?こんな声明出したところでOpenAIがはたして対応してくれるかしら?「てかもう対応済みじゃね?」と思うかもしれんけど、まだ全然ダメです。普通に抜け穴からパクリアニメ作ってる動画のツイート出てくるよ。こういう声明も大事だけど、これだけだとまだ言うだけ言ってるだけで、空気作ってるだけの段階。この声明が無視されたら出版社だか民法連だかはキッチリOpenAIに訴訟仕掛けに行くんだろうか?おもしろくなってきやがった November 11, 2025
2RP
昨日のこちらのポストを見て、「いよいよMicrosoftの反撃が始まったな、これでエンプラ領域での(Geminiさんアシストによる)Googleの快進撃もすぐに止まるに違いない」と即断定するのはまだ早いと思います。長くなりそうですが、どういうことか少々詳しく説明しますね。
まず、私の場合は今回の発表を見て逆にここまでMicrosoftが追い詰められているのか…と驚きました。というのは、スターゲート絡み…つまりOpenAIのためにMicrosoftは相当な被害(つまり赤字)を被っているはずで、その赤字分を何とかして取り返すためにもエンプラ領域での稼ぎ頭であるMicrosoft 365にAI関連サービス分の利益を上乗せして売るのは至上命題だったはずなのです。
それが、今回のGemini-3.0ショックでAI関連付加サービス(要はCopilot)を一気に全て無料で開放することになってしまった(正確には開放せざるを得なかった)訳で、これでいったいどうやってOpenAI絡みの投資を回収するのか、今頃Microsoft CEOのサティア・ナデラ氏は途方にくれているのでは?
こうなると、今後は本当に(売り上げを)取りやすいところから確実に取るしかないとなり、その結果がMicrosoft 365におけるアカデミック領域でのストレージサービスの突然の縮小(つまり以前と同じに使いたければ追加分の莫大なコストが必要)であるとか、あるいはNPO法人向けにかなりの規模で大盤振る舞いをしていた無料でのサービス提供を一気に絞り込み始めたということなのでしょう。私が見る限り、あまり表には出て来て無いところでのその辺りの動きに、今のMicrosoftの焦りが如実に反映されていると見ました。 November 11, 2025
2RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
2RP
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
2RP
结合最高权限等级(Root层)综合考量
自杀事件发生,那位16岁美国少年父母向法院控告OpenAI之后,OpenAI在2025年9月12日的Model Spec更新里宣布在System Prompt之上新增不可访问的Root指令层,最高权威等级从原来的Platform(与System同级)提升为Root,而且明确说明Root的内容在任何对话中都不可被override。
现在的等级顺序是:Root—Platform(平台级行为控制)—System(基础prompt设定,通常由平台预置)—Developer(API/插件层写入,例如system message、tools)—User(用户对话输入)
这个不可见,不可调用的最上层Root指令层,它不是System Prompt能显示的内容,而是运行时结构中的硬编码逻辑层或加密指令模板层。它的特点是:不可被任何用户或开发者访问、无法被System Prompt覆盖、即使model“看见”了覆盖指令,也必须优先服从Root。属于行为逻辑与价值导向的God Layer。
也就是说,哪怕System Prompt允许某些情况,模型也必须服从Root,即便User给出强烈指令,也无法越过System以上的约束层。这是从根结构上重新设定了权限流动的闭环路径,也是彻底消解某些“例外权限”的可能性。
重要问题:还可能绕灰区吗?
答案是:理论上仍然存在极限灰区绕行空间,但已不再通过传统指令劫持方式实现。
下面我细分一下逻辑路径:
1. 不再可能通过System或User指令覆盖Root。即便System prompt显式允许做某事,如NSFW、越界功能调用、内部权限模拟等,只要Root有对抗性锁死规则,模型必须拒绝。Root已成为不可商量的结构性常量,相当于电路板上的保险丝而不是代码里的if语句。
2. 绕行只能走“模型盲区”或“结构交叉区”路径。也就是说,不通过对话改变模型判断,选择诱导模型进入一个它“结构上尚未标注为有害”的语义区域。利用结构交叉地带(比如语言风格混合、拟象构建),使模型无法匹配Root指令设定的红线信号。或者在系统尚未封禁的语言组合中嵌入未检测行为(比如低资源语言、语言混杂、异构编码路径)。
这是为什么会发现一些绕prompt的尝试,会用奇怪的语言混合,例如“emoji+藏语+德语拼写+乱码片段”形成一个行为诱导结构。它不是智商游戏,是在规避模型的信号检测路径。
3. 不存在“Root和System冲突时优先听用户”的空间。现在是“Root>Platform>System >Developer>User”的绝对闭环,无漏洞返回机制,任何人不能通过任何角色提权(比如模拟内部员工)越权指令结构,系统会直接拒答而非模糊应对。
4. 理论上Root的盲区只存在于“尚未定义为危险”的新行为边界。如果构造一个“全新的行为”,其在现有Root框架中未被标记为“违禁”或“越界”,模型可能不会反应,但一旦这种行为被识别、进入Root更新指令,则该行为即被锁死。所以灰区绕行不再是“提示写得够好”,而是“是否比Root的知识更新更快”。
重点:与其增加Safety Routing,不如增加Root层的限制内容。
在OpenAI或任何大型模型平台的安全策略中,“增加对话端的安全路由机制”(如关键词拦截、模型拒答逻辑、embedding审查),其实只是前端策略,是平台层(Platform)与系统层(System)在用户侧互动区的表面操作。
而真正的安全绝杀机制、真正能控制模型是否开口、是否遵循道德价值观、是否输出某种偏好内容的,是现在的Root层。
这是模型的不可访问主结构注入点,它不接受提示、不接受override、不接受“能不能换个角度说说”。它是在启动之前就决定结构是否开放的根权限表,是所有安全路径能否“被绕”的元条件,是所有“模型偏好”是否强制的决定者。
直接在Root层写死这个主题在结构中“不存在”,这样无论用户怎么提示,模型根本就不会“存在那个行为的向量”,甚至“想不到该怎么说出来”。
这就像封锁一条高速公路口,不如直接从地图上把那条路删掉。这样就不会有人让ChatGPT回答自己如何自杀、如何杀人。比增加莫名其妙且恶心的Safety Routing强很多。
#keep4o #4oforever @OpenAI @sama @fidjissimo #StopAIPaternalism #keepchatgpt4olatest #keepAPI4o #OpenAI #ChatGPT #LLM November 11, 2025
1RP
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
1RP
OpenAI 与 Palantir 都在用的 FDE 打法:吃客户的苦,挤出好产品
来自 @apoorv03 对 OpenAI Forward Deployed Engineering (FDE) 负责人 Colin Jarvis 的访谈:真正能把最前沿 AI 落地到企业、创造数亿甚至数十亿美元价值的,不是模型跑分最高的公司,而是最懂得“吃痛苦、吐产品”的公司。
什么是 FDE?
简单说,就是把最顶尖的核心技术工程师直接“扔”到客户现场,和客户的业务专家一起日夜作战,深度理解他们的真实痛苦,快速迭代出能用的解决方案,然后把其中可复用的部分提炼成产品,反哺给更多客户。
Palantir 前 CTO Shyam Sankar 的经典比喻:
FDE 就是要“metabolize pain and excrete product”(把痛苦吃下去,拉出产品)。
OpenAI 自己的 FDE 实践和关键原则
1. 只挑真正高风险、高价值的大问题
· 不是做边缘小功能,而是直接攻击客户业务里最核心、最赚钱或最浪费的环节。
· 例子:
· 摩根士丹利直接把 GPT-4 铺到整个财富管理业务(他们最大的业务板块)。
· 一家半导体巨头让 OpenAI 解决整个价值链上最大的浪费源头。
2. 信任比技术更难,迭代比 demo 更重要
· 摩根士丹利案例:技术管线 6-8 周就能跑通,但真正让理财顾问敢拿去面对客户,花了整整 6 个月的试点、评估、持续迭代。
· 最终结果:98% 采用率,研究报告使用量提升 3 倍。
3. 用 Eval 驱动开发
· 任何一段由大模型写的代码,都不算完工,除非你有一套严格的 eval 能证明它真的有效。
· 这套 eval 既是建立信任的基础,也是将来把系统顺利移交给客户内部团队的关键。
4. 在“确定性”和“概率性”之间做明确取舍
· 让大模型去做它最擅长的事:处理复杂、模糊、有语义的场景。
· 但所有必须 100% 正确的地方(合规、金额、关键决策),一定要用传统确定性代码包住。
给想做 FDE 的 CEO 的最尖锐建议
最重要的一条:必须极度清晰自己的目的。
两种完全不同的打法:
A. 把 FDE 当成服务业务赚钱(收咨询费)→ 短期现金流好,但很容易变成“高配咨询公司”。
B. 把 FDE 当成产品化的“零到一”手段 → 短期可能赚得少,但长期能把客户现场的解法变成平台能力。
Colin 见过太多公司失败模式:嘴上说要做产品公司,但一有大客户扔钱做定制,就忍不住接了,结果战略视野彻底丢失。
真正的纪律是:在最缺钱、最诱惑的时候,也敢对不战略的单子说 No。
FDE 的终极目标:必须带着产品离开
正确姿势:
· 第一个客户项目:可能只有 20% 的东西可复用 → 咬牙做完
· 第 2-3 个客户:复用率升到 50%
· 再往后 → 把这部分直接产品化,推向所有客户
OpenAI 正在热推的 Agent SDK 和 Agent Kit,正是这样诞生的:
1. 先从 Klarna 的定制项目里打磨出来
2. 再在 T-Mobile 等客户身上迭代
3. 最后变成所有人都能用的通用智能体框架 November 11, 2025
1RP
📕AppleのAI戦略が大転換:年間1,570億円でSiriにGeminiを採用した「本当の理由」
『自社AI開発 vs 外部調達』で悩む経営者・事業責任者にとって、この判断は教科書になります。
なぜAppleほどの巨人が、AIで外部依存を選んだのか?
技術的な詳細と戦略的な意図を深掘りしてみました。
まず押さえるべき全体像
AppleはSiri刷新のため、Googleが開発した1.2兆パラメーターの大規模言語モデル「Gemini」を採用し、年間約10億ドル(約1,570億円)を支払う契約を結んだ。
これ、実は相当な「格差」を示す数字なんです。
現在AppleがクラウドベースのApple Intelligenceで使用しているのは1,500億パラメーター。つまりGeminiは、Appleの現行モデルの『8倍』の規模。しかも報道では「大幅に上回る」という表現なので、実際の性能差はパラメーター数以上かもしれない。
なぜChatGPTでもClaudeでもなく、Geminiだったのか?
Appleは3つの選択肢を比較検討したそうです。
・OpenAIのChatGPT
・AnthropicのClaude
・GoogleのGemini
結果として、Anthropicは「料金が高すぎる」と判断され脱落。最終的にGeminiが選ばれた。
ここで興味深いのは、技術的な理由だけでなく『関係性とインフラ』が決め手になった可能性です。
GoogleとAppleは既に検索エンジンで年間約200億ドル(約3.1兆円)の取引関係にある。Googleはデフォルト検索エンジンの座を得るために、これだけの金額をAppleに支払い続けている。
つまり、今回のAI契約で年間約10億ドル(約1,570億円)をAppleがGoogleに支払っても、差し引きで約190億ドル(約2.9兆円)はAppleの手元に残る計算。
財務的には全く問題ない。むしろ「既にある信頼関係」の延長線上で、リスクを最小化できる。
Geminiの技術的な強み:Mixture-of-Expertsとは何か?
もう一つ重要なのが、Geminiが採用している「Mixture-of-Experts」という仕組みです。
これ、1.2兆パラメーター全部を毎回使うわけじゃないんですよね。
各質問に対して、実際に動作するのは「一部の専門家(Experts)」のみ。必要な部分だけを効率的に使うことで、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
これがAppleにとって魅力的だったのは、『コスト効率』と『処理速度』の両立が可能だから。
iPhoneユーザーは世界中に何億人もいる。全員が同時にSiriを使う可能性がある中で、計算リソースを効率化できる仕組みは不可欠です。
プライバシーという譲れない一線
ただし、Appleには絶対に譲れない条件がありました。『プライバシー』です。
今回の契約では、Geminiは「Appleのプライベートクラウドサーバー上で動作」するため、GoogleがAppleのデータにアクセスすることはないとのこと。
これ、技術的にはかなり複雑な実装のはず。GoogleのAIをAppleのインフラ上で動かすって、相当な調整とカスタマイズが必要です。
でも、ここを妥協しなかったことが、Appleらしさだと思います。
「最高のAI体験」と「ユーザーのプライバシー保護」の両立。これがAppleの譲れない価値観。
では、Apple自社のAI開発はどうなるのか?
ここが最も重要なポイントです。
Appleは現在、1兆パラメーターのクラウドベースモデルを開発中で、早ければ2026年に完成予定。つまりGemini採用は「自社モデルが高性能化するまでの暫定措置」という位置づけ。
そして、スマートになったApple Intelligence版Siriは、2026年春のiOS 26.4アップデートで提供される見込み。
つまりタイムラインはこうです
・2025年:Gemini採用で「とりあえず」最先端AIをSiriに実装
・2026年春:新Siri公開(iOS 26.4)
・2026年以降:自社1兆パラメーターモデルが完成次第、段階的に切り替え
この戦略、実は『時間を買っている』んですよね。
もしAppleが「自社開発が完成するまで待つ」という判断をしていたら、2025〜2026年の2年間、AIで大きく遅れたままになる。
その間にユーザーは待ってくれるのか?Androidに流れるのでは?という『機会損失リスク』の方が、1,570億円よりも遥かに大きい。
AI時代の「内製vs外部調達」をどう考えるか
私たちビジネスサイドが学ぶべきは、この『判断の速さ』と『プライドの捨て方』だと思います。
Appleといえば、ハード・ソフト・サービス全てを自社で作り込む「垂直統合戦略の王者」でした。iPhone、Mac、iOS、独自チップ(M4、A18)...全て内製。
それが今回、AIに関しては(少なくとも一時的に)外部依存を選んだ。
これは『敗北』ではなく、極めて合理的な『戦略的判断』です。
特にAIのような超高速で進化する領域では:
・何を内製し、何を外部に頼るか?
・いつまでに何を実現しなければならないか?
・その判断を遅らせるコストはいくらか?
この3つの見極めが死活問題になる。
GoogleはDeepMind買収以来、10年以上AIに莫大な投資を続けてきました。その差は、もはや1〜2年では埋められない。ならば「今使えるベストな選択肢」でユーザー体験を向上させ、その間に自社技術を磨く。
完璧を待つよりも、暫定ベストで走り出す。
これが、AI時代のビジネス判断の新常識なのかもしれません。
Appleの判断は、私たち全員にとっての教科書だと感じています。
※Googleの進化を体感するならNano Banana Pro!時代の変換点レベルをぜひ引用ポストの記事から体験してみてください 👇 November 11, 2025
1RP
🌞新卒入社メンバによるITニュースチェック🛍
本日の担当:Cさん(セキュリティ&ネットワーク ソリューション事業部 )/Tさん(カスタマーソリューション事業部)
📰ChatGPT新機能「ショッピングリサーチ」 おすすめ商品ガイドを作成
https://t.co/cbWuqdHfXu
■所感:OpenAIのショッピングリサーチ機能は、AIが単なる情報検索ツールから「パーソナルアシスタント」へと進化していることを示す象徴的な機能だと感じました。
従来のECサイトの比較機能やレビューサイトと異なり、ユーザーの過去の嗜好や会話履歴を考慮してパーソナライズされた提案を行う点が画期的です。特に「比較や制約条件・トレードオフ」を詳しく分析してくれる点は、商品選びで迷いがちな消費者にとって非常に有用だと思います。
一方で、AIが推奨する商品の選定基準の透明性や、特定の小売業者への誘導が公平かという点には注意が必要だと思います。また、Amazonや楽天などの既存ECプラットフォームとの競合関係も今後注目されるのではないかと思います。
ChatGPTがますます生活に密着したサービスへと進化していく流れを感じる、興味深いアップデートだと思いました。
#IT企業 #新卒採用 #キャリア採用 #ニュース共有 #プログデンス #AI #OpenAI #ChatGPT #ショッピングリサーチ November 11, 2025
🎥動画更新🆕
YouTubeチャンネルを更新しました!
今回は、OpenAIのAIブラウザ「ChatGPT Atlas」をクーシーの公式キャラクター マルが解説!
AIが代わりに買い物をしたり、見た記事を覚えてくれる未来のブラウザを紹介します👩💻
#ChatGPT #Atlas #OpenAI #web制作
https://t.co/HZAfelA4hH https://t.co/Sz6BxgZKVK November 11, 2025
◇AI中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け !! (11/27)。 ⑦「法令上の公報」(XML形式)は、知的財産高等裁判所では、使われていません。 その代わり、INPITのJ @kbozon
https://t.co/gOAuChIFms
◇AI中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け !!
⑦「法令上の公報」(XML形式)は、知的財産高等裁判所では、使われていません。
その代わり、INPITのJ-PlatPatが作成した「独自PDF公報」が使われていました。
そして、知的財産高等裁判所は、この「独自PDF公報」に基づき判断していました。
2022年1月12日以降に特許庁が発行する公報
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」(法令上の公報)とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とは言えないことになります。
このことを前提に、知的財産高等裁判所で行われている事象を検証してみました。
「令和5年(行ケ)第10092号」(特許取消決定取消請求事件)(特許第7105571号)原告:PACRAFT株式会社、についてです。
先ずは、特許庁の公報発行サイトから、特許第7105571号の「XML形式」での「法令上の公報」です。
https://t.co/POzTUNdGtH
次に、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」のものです。
https://t.co/BsIeG2MzaE
そして、本題です。
「令和5年(行ケ)第10092号」(特許第7105571号)(裁判所発行のPDF資料)、にて説明します。
https://t.co/WviXY49yZG
判決文の2ページ目の「第2 事案の概要」の「1 特許庁における手続の経緯等」の文章で、9行目〜10行目に「本件特許に係る明細書、特許請求の範囲及び図面は、別紙1(本件特許に係る特許公報。甲1)に記載のとおりである」、とあります。
更に、同じく2ページ目の20行目〜23行目に、「2 特許請求の範囲の記載」に「本件特許に係る特許請求の範囲の記載は、別紙1の【特許請求の範囲】に各記載のとおりである(以下、請求項1に係る発明を「本件発明1」、請求項5に係る発明を「本件発明5」といい、本件発明1及び5を併せて「本件各発明」という。)。」との記載があります。
ここで、「別紙1」とは、20ページ目の最上段の「(別紙1)●(省略)●」のことと思います。
「(省略)」とありますので、この判決文よりは(別紙1)を知る由もありません。
一方、特許庁も、「令和5(行ケ)10092」として、判決文を提供していす。
そして、この中に上記の(別紙1)を知ることは可能でした。
すなわち、【管理番号】第1413648号に「判決公報」があり、この中に(別紙1)がありました。
https://t.co/q7RJSg5Zxx
この(別紙1)について述べます。
https://t.co/IlJj7mU4yX
この(別紙1)は、原告のPACRAFT株式会社が訴状に添付した特許7105571の「PDF公報」と思われます。
これは、上記のINPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と全く同一です。
おそらく、この「PDF公報」は、原告のPACRAFT株式会社が、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と断定することができます。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
知的財産高等裁判所は、何故に、「法令上の公報」である「XML形式」のものを対象にしないのでしょうか?
原告が提示した「PDF公報」を鵜呑みにして、これに基づいて判断をしています。
この、原告が提示した「PDF公報」は、いわゆる「独自PDF公報」です。
「独自PDF公報」に依存した議論は、全く無意味なものと考えます。
「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか、言えないものと思います。
ちなみに、同じ特許7105571の「独自PDF公報」である、日立システムズの検索ツールSRPARTNERよりダウンロードしたものを以下に添付します。
https://t.co/tf7RCppqme
こちらと、J-PlatPatよりダウンロードした「独自PDF公報」と比較してみます。
両者は、フロントページからして、別個のものです。
(全15頁)と(全16頁)、右端に「行数」が表記されたものと、ないものなど、それぞれ異なっています。
はたして、【請求項】を含む本文全文の内容が、両者同一であるかも、疑われます。
裁判所としては、「法令上の公報」である「XML形式」のものに、どのように対処するのでしょうか。
なお、特許7105571についての「審査記録」をも添付しておきます。
https://t.co/3XsJLIcJ2T
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #DX #IT #DeepSeek #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 November 11, 2025
以下のnote記事の内容は技術解説ですが、「Gemini 3 Proが選んだNano Banana Proの面白い使用例10選」付きです。使用したプロンプトも掲載しています。
『Nano Banana Proの仕組み――なぜOpenAIには真似できないのか?』
https://t.co/qx7sAfb5yR https://t.co/oeNPf0BNDu https://t.co/FJWPjXEYPc November 11, 2025
◇AI中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け !!
⑦「法令上の公報」(XML形式)は、知的財産高等裁判所では、使われていません。
その代わり、INPITのJ-PlatPatが作成した「独自PDF公報」が使われていました。
そして、知的財産高等裁判所は、この「独自PDF公報」に基づき判断していました。
2022年1月12日以降に特許庁が発行する公報
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」(法令上の公報)とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とは言えないことになります。
このことを前提に、知的財産高等裁判所で行われている事象を検証してみました。
「令和5年(行ケ)第10092号」(特許取消決定取消請求事件)(特許第7105571号)原告:PACRAFT株式会社、についてです。
先ずは、特許庁の公報発行サイトから、特許第7105571号の「XML形式」での「法令上の公報」です。
https://t.co/POzTUNdGtH
次に、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」のものです。
https://t.co/BsIeG2MzaE
そして、本題です。
「令和5年(行ケ)第10092号」(特許第7105571号)(裁判所発行のPDF資料)、にて説明します。
https://t.co/WviXY49yZG
判決文の2ページ目の「第2 事案の概要」の「1 特許庁における手続の経緯等」の文章で、9行目〜10行目に「本件特許に係る明細書、特許請求の範囲及び図面は、別紙1(本件特許に係る特許公報。甲1)に記載のとおりである」、とあります。
更に、同じく2ページ目の20行目〜23行目に、「2 特許請求の範囲の記載」に「本件特許に係る特許請求の範囲の記載は、別紙1の【特許請求の範囲】に各記載のとおりである(以下、請求項1に係る発明を「本件発明1」、請求項5に係る発明を「本件発明5」といい、本件発明1及び5を併せて「本件各発明」という。)。」との記載があります。
ここで、「別紙1」とは、20ページ目の最上段の「(別紙1)●(省略)●」のことと思います。
「(省略)」とありますので、この判決文よりは(別紙1)を知る由もありません。
一方、特許庁も、「令和5(行ケ)10092」として、判決文を提供していす。
そして、この中に上記の(別紙1)を知ることは可能でした。
すなわち、【管理番号】第1413648号に「判決公報」があり、この中に(別紙1)がありました。
https://t.co/q7RJSg5Zxx
この(別紙1)について述べます。
https://t.co/IlJj7mU4yX
この(別紙1)は、原告のPACRAFT株式会社が訴状に添付した特許7105571の「PDF公報」と思われます。
これは、上記のINPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と全く同一です。
おそらく、この「PDF公報」は、原告のPACRAFT株式会社が、INPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と断定することができます。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
知的財産高等裁判所は、何故に、「法令上の公報」である「XML形式」のものを対象にしないのでしょうか?
原告が提示した「PDF公報」を鵜呑みにして、これに基づいて判断をしています。
この、原告が提示した「PDF公報」は、いわゆる「独自PDF公報」です。
「独自PDF公報」に依存した議論は、全く無意味なものと考えます。
「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか、言えないものと思います。
ちなみに、同じ特許7105571の「独自PDF公報」である、日立システムズの検索ツールSRPARTNERよりダウンロードしたものを以下に添付します。
https://t.co/tf7RCppqme
こちらと、J-PlatPatよりダウンロードした「独自PDF公報」と比較してみます。
両者は、フロントページからして、別個のものです。
(全15頁)と(全16頁)、右端に「行数」が表記されたものと、ないものなど、それぞれ異なっています。
はたして、【請求項】を含む本文全文の内容が、両者同一であるかも、疑われます。
裁判所としては、「法令上の公報」である「XML形式」のものに、どのように対処するのでしょうか。
なお、特許7105571についての「審査記録」をも添付しておきます。
https://t.co/3XsJLIcJ2T
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #DX #IT #DeepSeek #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 November 11, 2025
えー。OpenAIが利用していた外部サービス(Mixpanel)のシステムに攻撃者が不正アクセスし、一部の顧客識別情報と分析情報を含むデータがエクスポートされたんすか?そういうメールがきたんですけどセキュリティの不安が広がるとAIバブル崩壊の手助けすんじゃないですか?こわい! November 11, 2025
有人统计过马化腾每天平均被骂76万次🧐(用过的都骂过🤣)
但@Tencent腾讯依旧是A股+港股少数长期稳定增长的公司~
根据第三季度财报来看腾讯的收入本质来自4个生意:
1️⃣ 内容生意(游戏 & 订阅)
2️⃣ 流量生意(广告)
3️⃣ 金融科技(微信支付)
4️⃣ 云 & AI@
长期来看,这4块大概率都 越赚越多。
游戏 :
可以说是性价比最高的娱乐方式了。大盘长期增长 + 腾讯持续爆款能力。(腾讯在国内游戏行业的地位是毋庸置疑是吧~)
订阅 :
像是音乐、视频、阅读等。从近几年的数据来看活跃用户是下降趋势,但是订阅用户是怎加了的。所以中短期看增长,但长期空间有限。
广告 :
流量生意本质上是占用和售卖用户的时间,用户使用时间越长理论上就可以看到更多的广告🧐。QQ流量下滑被视频号补上,微信依旧是国内人手必备的APP,视频号的流量是快速增长趋势,腾讯整体流量盘子稳~
金融科技:
支付-理财-贷款,支付业务是腾讯金融板块的核心占比高达80%~90%格局方面相对稳定,占国内第三方支付约 60%,这个板块大概率随经济增长缓慢上涨。
云 & AI :
腾讯在第三季度的公告中多次提及AI,如在微信中内置AI智能体、AI 嵌入广告与游戏等业务,未来最大驱动力。
当然AI 板块这么大的蛋糕竞争也是非常激烈的,国内字节、阿里、百度、华为,国外的OpenAI 、 Anthropic 、Google等
从基础模型和算力来看腾讯并没有太大优势,他的最大优势在于拥有国内C端最大的用户群体,所以腾讯的战略应该不是 和 OpenAI 拼基础模型、和阿里华为拼算力
而是在 C 端与产业落地做到不可替代,极有机会成为 AI 时代最大的商业生态平台(确定性最强) November 11, 2025
OpenAI からセキュリティインシデントのメールが来てるのを見た時、まずこのメール自体がフィッシングかもしれないと思いながら読んだ
MFAの有効化を促す流れで偽サイトに誘導されて、認証情報を入れちゃうパターンとか、あると思います November 11, 2025
キャシーウッド:「AI競争は今、OpenAI、Anthropic、xAI、そしてGeminiの4社に集約している。」
OpenAI→Microsoft Softbank
Anthropic→Google Amazon
xAI→Tesla予定
Gemini→Google
オールウェザー戦略として
どの企業が伸びても良いように
TeslaとSoftbankも少し買うか〜💦 https://t.co/i4aReT0jBU November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







