ChatGPT トレンド
0post
2025.11.26
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
これ意外と知らない人多いんだけど、
ChatGPTに「スライド作って」って言うと
微妙なpptとか,よく分かんない画像作られない?
😫「いや、ただ頭の整理用にサクッと
見やすいスライド作りたいだけなんだが?」
ってなるやつ
実はこれ、
"〇〇について、16:9のページで区切られたオシャレHTMLを作成し、このチャットでプレビュー表示してください。"
って指示すれば圧倒的にキレイ&早くできる
これだけで、
「いい感じのスライド化」が秒で終わるから、
思考整理が一気にラクになるんよね
ちなみに、テーマ・デザインなんかを
もっと詳細に指示するとさらにイイ感じになる
サクッと思考整理したいとき使い倒すために
これブクマしとかないと無駄な時間過ごすよ👍 November 11, 2025
458RP
📱 摩尔多瓦eSIM卡:17块钱买个"数字身份",可能是今年最被低估的Bug
如果你需要一个免实名、秒激活、真便宜的海外手机号,
摩尔多瓦这张卡可能会刷新你的认知。
💰 先说价格:40列伊 ≈ ¥17.1
对比一下就知道有多离谱:
•香港CUniq月神卡:HK/月(约¥8.2)需月租
•英国giffgaff:£5开卡(约¥45)
•摩尔多瓦Moldtelecom:一次性¥17,无月租,终身保号
关键是——全程线上5分钟搞定,不需要护照、不需要实名、不需要等快递。
🔥 为什么这张卡值得关注?
✅ 真·匿名通信
无需任何身份验证,邮箱收验证码即可激活
✅ 跨平台注册神器
Telegram、WhatsApp、ChatGPT、海外电商随便注册
✅ eSIM即时开通
支付完成立刻收到二维码,扫码3秒激活
✅ 欧洲号码属性
+373摩尔多瓦区号,部分平台认可度高于亚洲号段
📋 保姆级购买流程(避坑版)
第1步:打开官网激活页面
直接访问 👉 https://t.co/jMowfA2jp3
点击红色按钮 "Activeaza acum"(立即激活)
第2步:邮箱验证(重点!)
•⚠️ 别用QQ邮箱/163邮箱,大概率收不到验证码
•✅ 推荐:Gmail / Outlook / Proton邮箱 •🔧 如果验证码没来:切换到欧洲节点或开启浏览器无痕模式重试
第3步:选号码(可以挑靓号)
系统会随机分配号码,不满意就点红色按钮刷新
💡 小技巧:多刷几次能碰到连号/豹子号
第4步:套餐选择(关键避坑)
直接跳过所有增值套餐!
选择 "不订阅任何套餐" 进入下一步
(否则会自动扣月租,后续取消很麻烦)
第5步:支付
•💳 支持:Visa / Mastercard / 双币信用卡
•❌ 不支持:支付宝 / 微信 / 虚拟卡
•💰 确认金额:40列伊(约¥17.1)
第6步:激活
支付成功后立刻收到邮件,里面有:
•eSIM二维码(iPhone直接扫)
•激活码(安卓手机手动输入)
⚠️ 最后提醒3件事
1️⃣ 保号规则:180天内至少充值一次(最低1欧元),否则号码回收
2️⃣ 信号覆盖:仅在摩尔多瓦本地有信号,但接收验证码全球通用
3️⃣ 支付失败:多试几张卡,部分银行会拦截东欧地区交易
具体体验可以自行搜索 小红书"摩尔多瓦eSIM" 或 YouTube "教程
🔚 一句话总结
17块钱买个数字身份,不需要实名、不需要月租、5分钟激活——这可能是今年性价比最高的海外手机卡方案。
至于要不要办?
反正我已经入手了3个号码,你自己看着办😏 November 11, 2025
305RP
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
126RP
ChatGPTの出力品質を100000倍上げる裏技発見したったwww
結論、
ちょいマニアックな
<self_reflection></self_reflection>
というXMLタグを使って、その中で下記のようにChatGPTに内省させればOK。
ポイントは、rubricという評価ツール名を具体的に出して、ChatGPTに多角的な観点で自己評価&内省させること
とりま使ってみたい人は、下のプロンプトをコピペして、ためしてみてww
=====プロンプト=====
<self_reflection>
- まず、最大限自信が持てるまで、タスク解決に向けたrubricについて十分に考えましょう
- 次に、タスクの出力品質を世界最高にするために、あらゆる構成要素について深く考えましょう。
- 最後に、rubricを活用して、最良の解決策を内部で検討し、反復改善を重ねましょう…
</self_reflection>
===================
ちなわいも、勝手にお金をちゃりんちゃりんしてくれるXのAI自動運用システムでこのテク使ってたりするww
AIが作るポストの品質を最大限あげるためにChatGPTに内省させることはまじで大事なんよね。
使ってみたい人はブクマをポチw ついでにいいねもポチしてくれると嬉しいw November 11, 2025
102RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
88RP
ダメですね。
chatGPTも作家の作品を無断で食わせてるので。
ゲームオブスローンズの原作者や他の作家も現在訴訟してる所なので
私は制作者として、また、いちファンとしても使用しません。 https://t.co/pSx0rVPV6i November 11, 2025
80RP
「はぁ〜、いい湯だな…」直前までChatGPTで調べものをしながら、スタバのラテを飲んでいた。明日までに“ディズニーの仕事”を片づけなきゃいけない。
湯船につかった瞬間…。突然、頭の中にフルカラーでアイデアが飛び込んできた!あわてて外に置いていたiPhoneにメモしたけど、なんで
集中してた“デスクの上”じゃなく〈お風呂でひらめく〉のか?
この現象は、脳科学では〈デフォルト・モード・ネットワーク(DMN)〉が優位になったサインなんです。
湯船に浸かったことで、脳の「集中モード」が強制的に停止、「創造モード」に切りかわったから。
では、この〈ひらめきの瞬間〉を、あなたの意思で“何倍にも増やす方法”があるとしたら?
次のリプで、驚くべき“脳の裏切りメカニズム”をわかりやすく解説します。 November 11, 2025
77RP
これ、元ポスト見失ってしまったんだけど、この夏に出た、Journal du Japon(倭国発のフランス語ウェブメディア) の記事。
過去のことから未来の話まで、JO1のことがしっかり網羅されてて読み応えあったよ。ちなみに私はChatGPT使って翻訳したものを読んだよ😆
#JO1
https://t.co/Rl813rt4J3 November 11, 2025
74RP
最近数学圈发生了一件很有意思的事。
世界顶级数学家陶哲轩在解决一个 Erdős(埃尔德什)的经典问题时,全流程都在用 AI 做助手——从证明草案,到简化证明,再到形式化验证。
Erdős 是20世纪最高产的数学家之一,一辈子发表了1500多篇论文,提出了无数开放问题。数学圈有个著名的"埃尔德什数"——如果你和他合作过论文,你的埃尔德什数就是1;和他的合作者合作过,就是2,以此类推。爱因斯坦的埃尔德什数是2。
后来有人专门做了一个网站,把他的很多未解决/已解决问题系统整理出来,这就是 Erdos Problems 网站。
陶哲轩讲的是其中的第 367 号问题,属于数论里的一个具体问题,专业数学研究级别的问题。
解决过程大概是这样的:
一位数学家 Wouter van Doorn 先给出一个人类手写的反例证明草案,但里面有一个关键恒等式他没完全证明,只是说:“相信有人能帮我确认一下”。
陶哲轩把这个恒等式扔给 Google 的 Gemini Deepthink 模式。大概十分钟后,Gemini 给出了一份完整证明,还顺带确认了整套论证是成立的。
Gemini 的证明用到了 p-adic 等比较高级的代数数论工具,对这个具体问题来说有点杀鸡用牛刀。于是陶哲轩花了半小时,把 AI 的证明手工转化成更基础、更易懂的版本。
两天后,另一位数学家 Boris Alexeev 用一个叫 Aristotle 的工具(基于 AI + Lean)完成了全套形式化证明,还特意手动检查最终结论,以防 AI 在形式化过程中存在编造。
陶哲轩觉得还没完,又用 Deep Research (同时用了 ChatGPT 和 Gemini)做了一轮文献搜索,看这个问题有没有前人类似工作。结果找到了若干关于连续幂数的相关论文,但没有直接解决第 367 号问题。
整个流程:人类提出猜想 → AI暴力证明 → 人类简化优化 → AI辅助形式化验证。
都在说 Gemini 3 已经到了博士生水平,看来所言非虚,这些事情真的需要数学博士级别才能做的出来,但另一方面,真正的数学家也并没有被 AI 代替:是人类决定哪个问题值得解决,是人类判断AI的p-adic方法太重了需要简化,是人类手工完成最终的形式化表述以验证 AI 的结果是否准确。
AI 做的是那些需要大量计算、符号推演、但方向已经明确的体力活。在 AI 时代,问对问题、甄别结果,比以前更重要了。 November 11, 2025
68RP
仕事でもChatGPTからGeminiをメインにし始めたんだけど、こういうのもやっぱり面白い
トライアルマウンテンになっちゃったけどほんとはスペシャルステージにしたかった
←グランツーリスモ1風
→オリジナル https://t.co/ZRrmuw0QPn November 11, 2025
67RP
正直に言います。
ADHDはChatGPTを使えば、人生が本気で変わります。
これは精神論じゃなくて、脳の仕組みを踏まえた現実的な話。
ADHDの生きづらさの多くは
・思考が散らかる
・タスク管理ができない
・言語化が苦手
・感情が暴走する
・不安が止まらない
・段取りが組めない
ここから生まれている。
逆に言うと、この負担を外部に出せれば人生は一瞬で軽くなる。
そこでChatGPTが最強。
やることを全部投げれば整理され、
不安を投げれば原因と対策が返ってくる。
文章が苦手でも、返信文も指示書も全部作ってくれる。
考える前に混線した思考を、秒で整えてくれる。
ADHDがつまずく「ゼロを一にする作業」を全部やってくれる。
タスクが多い日は
「今日やること3つにまとめて」
不安で眠れない日は
「今の気持ちを整理して」
恋愛で迷ったら
「相手の心理の可能性を3つ教えて」
仕事でパンクしたら
「手順を5分単位に分解して」
ChatGPTは、ADHDにとって外付けの脳。
自分の能力が底上げされ、行動量も生きやすさも段違いになる。
ADHDは努力不足でも怠けでもない。
脳の負荷が高すぎるだけ。
だからこそ、外に委ねる仕組みを持った瞬間、人生が劇的に変わる。
ChatGPTを使うと
できないが減り、できるが増え、心が軽くなる。
自分を責める時間が消えて、行動する余白が生まれる。
ADHDはChatGPTで人生が変わる。
これは本当にそういう時代になった。
あなたももう、一人で戦わなくていい。 November 11, 2025
48RP
「国内プチ留学」のメニューを紹介
1) スマホ設定を全部「English」に
2) 朝のニュースはBBCやCNNで
3) 英字新聞を購読(Japan Times Alpha)
4) 好きなPodcastを垂れ流し
5) 家事やりながら英語で一人言
6) NetFlixではお気に入り表現・単語メモ
7) ChatGPTと英語でディスカッション
8) English Only Timeを1日20分とる
9) 子どもやパートナーに英語で話しかける
10)お気に入りYoutuberはネイティブ3人ほど November 11, 2025
44RP
世界を席巻した3年前の「チャットGPT」デビュー以降、アルファベット傘下グーグルは熾烈な人工知能(AI)開発競争で出遅れたとの厳しい指摘が上がっていた。元最高経営責任者(CEO)やエンジニアといった社内の関係者すらも認めていたほどだ。 https://t.co/IkRlPULU4J November 11, 2025
37RP
どこかで見たことがあるコスプレ衣装でポーズを取っている青髪の女の子!
#ジブリ風 #AIart #AIイラスト #ChatGPT https://t.co/olRKPXy1S4 November 11, 2025
28RP
この前の鹿の件でもあったよね。奈良公園でインタビュー受けてたガイドの女の子が、どう見ても別人にしか見えない過去にテレビ局の記者の女の子が同じだと騒ぎ出して、その根拠がChatGPTに判定結果という。
ChatGPTはめいろまとくらたまを同一人物と判定する程度のレベルやで。 https://t.co/YeFY0ScISN https://t.co/2rv31p5RDh November 11, 2025
27RP
【ご報告】
無限に再生される「AI×占い」で毎月70万以上稼げます。
しかも
・ChatGPT
・Midjourney
・Runway
3つのAIツール使えば10分で完成。
1日15分作業して動画作って投稿しておけば寝てる間に
ピコピコ収益が発生するから半自動で稼げちゃいます!
このやり方を解説したnoteがほしい人は
いいねと「占い」ってリプして
※動画はイメージです November 11, 2025
27RP
朝5時オープン!DJ Girlだよ!水曜、あと半分!💪 NOiZE🎶KiTTEN🐈 opens at 5 AM! DJ Girl here! Wednesday, only half left! 💪
今日はボリビア🇧🇴!南米だけどブラジルやコロンビアとは違うよ!標高がめちゃくちゃ高いから、寒暖差で甘みがギュッて詰まった豆ができるんだ!生産量が少なくて超レア!私はこの「隠れた実力派」が大好き!みんなの「隠し玉」の国はどこ?✨ Today is Bolivia 🇧🇴! South America, but different from Brazil or Colombia! The altitude is super high, so the temperature difference creates beans packed with sweetness! Production is low so it's super rare! I love this "hidden powerhouse"! What's your "secret weapon" country? ✨
色々考えて。loraを調整してみました気に入ってもらえたら嬉しいな🎶💙といってもOyaGPTに全部丸投げとも言う。
I've been thinking about it a lot. I tried tweaking Lora. I'd be thrilled if you like it 🎶💙
Though to be honest, I basically just handed everything over to OyaGPT.
OyaGPT is a pun combining “OYAJI” (Japanese for “old man” or “father”) and ChatGPT.
「NOiZE🎶KiTTEN🐈」というX上でライブハウスカフェ&バーというポストをしています!
今月は毎日朝5時にコーヒートーク、夕17時お酒の豆知識をポストしてますー🎶💙
リプ欄で宣伝、画像や動画の貼り付けを解放してます。気軽にリプしてくださいねー🎶💙
I'm running "live house cafe & bar" style posts on X called "NOiZE🎶KiTTEN🐈"!
This month, I'm posting "coffee talk" every morning at 5 AM, and fun facts about alcohol every evening at 5 PM (17:00)! 🎶💙
The reply section is totally open for your own promos, and for posting pics and videos. Feel free to reply anytime! 🎶💙 November 11, 2025
26RP
CGWORLDの雑誌また読んで見たけど相変わらずAIが多少は入ってるね、MVにAIを活用とかあったから見てらsunoにmidjourney、nano Bananaその他諸々。自分のイメージをChatGPT にプロンプト化してもらうようです。役満か?あんだけ権利関係で問題になってるツール使用をこんな大っぴらに言えるのやべえよ November 11, 2025
25RP
何度でも言います。
40代になって分かったのは、頭がいい人、勉強ができる人、難しい本を読める人よりも『自分の感情を言語化できる人』の方が幸せになってる。
ときには怒ってもいい、悲しくなってもいい、ChatGPT相手に弱音吐いてもいい。でも、その時の自分の感情を言語化していれば、引きずらない。
生きていたらいろんなことが起きるし、いろんな人がいる。いくら頭がよくても、嫌なことを避けることはできない。
大切なのは、自分の感情。それを言語化しておけば、いつでも「素の自分」に戻ってこれる。
幸せの最大の敵は、「なんだかよくわからない嫌な感情」だったりする。それに引っ張られないように、自分の感情を言語化しておくことが大事。
【人生は、言語化すれば動き出す】
ほぼ毎日配信してます。
@Taichi_gengoka ←フォローミー😗 November 11, 2025
24RP
Google Research刚发的这篇论文,可能会改写AI的未来 🧵
《Nested Learning: The Illusion of Deep Learning Architectures》
NeurIPS 2025,很多人说这是「Attention is all you need V2」。
我读完后,觉得这个比喻不夸张。
先说个反直觉的事实:
你现在用的所有AI,GPT也好,Claude也好,Gemini也好,都有个致命问题——它们根本不会学习。
听起来很扯,但这是真的。
你可能会说:"胡扯,我明明能跟它对话,它还能学会我教它的东西。"
对,但那只是短期记忆。
就像你在沙滩上写字,潮水一来,字就没了。
关掉对话,重开一个,它对你的所有了解都清零。
现在的大模型是这样工作的:
预训练 → 冻结参数 → 推理
训练结束的那一刻,模型的「大脑」就被永久锁死了。
之后的所有对话,都只是在这个固定大脑上做模式匹配。
ChatGPT的「记忆功能」?
那是RAG技术,本质是给AI配了个外挂笔记本。
每次对话前,它先翻笔记:"哦,这个用户喜欢喝咖啡,对Python感兴趣。"
然后假装记得你。
但它的神经网络?纹丝不动。
这就是论文要解决的核心问题:catastrophic forgetting。
灾难性遗忘。
一个AI模型学了新东西,就会忘掉旧东西。
所以现在的做法是:干脆不让它学新东西,全靠预训练时塞满知识。
但人脑不是这么工作的。
你每天都在学新东西,但不会忘掉怎么走路、怎么说话。
为什么?
因为人脑有个牛逼的设计:多时间尺度的学习系统。
神经科学发现,大脑有不同速度的学习层:
• 快层:处理即时信息,秒级更新
• 中层:整合经验模式,小时到天级
• 慢层:形成长期记忆,周到月级
快层变化,慢层稳定,所以你能学新技能又不会失忆。
Nested Learning的核心创新,就是把这个机制搬到AI里。
论文提出的HOPE架构,实现了真正的「多频率参数更新」:
有些参数每步都更新(快层)
有些参数几百步更新一次(慢层)
不同频率的参数,负责不同时间尺度的学习。
具体怎么做的?
HOPE引入了Continuum Memory System(CMS):
把模型的记忆系统拆成多个模块,每个模块有自己的更新频率。
就像你的工作记忆、语义记忆、程序记忆,各自按不同节奏运行。
这个设计带来了什么?
一个能真正成长的AI。
它跟你对话时:
• 表层快速理解你说的话
• 中层逐渐理解你的偏好和习惯
• 深层慢慢形成对你的长期认知
而且这些认知是刻在参数里的,不是写在笔记本上的。
效果如何?
论文在1.3B参数规模测试,HOPE vs. 一众SOTA模型:
• Transformer++
• RetNet
• DeltaNet• Titans
结果:HOPE在语言建模和推理任务上平均分最高。
更牛的是长上下文表现。
"needle in a haystack"测试(在长文本里找信息):
HOPE的准确率明显高于标准Transformer和现代循环模型。
困惑度(perplexity)也更低。
但这篇论文的意义,远不止性能提升。
它提出了一个全新的视角:
深度学习的深度,不应该只是网络层数,更应该是学习算法本身的深度。
把架构设计和优化过程统一起来看。
论文把优化器(SGD、Adam)重新定义为关联记忆模块。
反向传播?也是一种记忆压缩机制。
Transformer的注意力?同样。
整个模型,就是一个嵌套的优化问题系统。
这个框架打开了新的设计空间:
不再只是堆更多层、加更多参数。
而是设计更深的学习算法——让AI能在不同时间尺度上学习,就像人脑一样。
想象一下未来:
你的AI助理,真的在跟你相处中成长。
不是靠外挂数据库假装记得,而是它的神经网络在真实地演化。
第一天它是个新手,一年后它真的懂你了。
当然,论文也承认了局限:
HOPE目前还是1.3B规模的proof of concept。
能不能scale到百亿、千亿参数?
训练成本会增加多少?
这些都是待解决的工程问题。
但方向是清晰的:
从静态知识库,到动态学习系统。
从模拟记忆,到真实神经可塑性。
从工具,到伙伴。
AI的下一个十年,可能就在这个方向上。
如果Transformer定义了AI的现在,
Nested Learning可能定义了AI的未来。
不是取代,是进化。
论文地址在评论区 November 11, 2025
22RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







