GPT-5 トレンド
0post
2025.12.15
:0% :0% ( 40代 / 男性 )
GPT-5に関するポスト数は前日に比べ25%減少しました。女性の比率は4%増加し、本日も40代男性の皆さんからのポストが最も多いです。前日は「プロンプト」に関する評判が話題でしたが、本日話題になっているキーワードは「オープンAI」です。
人気のポスト ※表示されているRP数は特定時点のものです
GPT-5.2Thinkingで馴染みの薄い分野の調べ物するときに以下を試してみて
「初心者が[研究テーマ]を学ぶ上で必要な論文、(1)総説2本 (2)古典3本 (3)直近2年の必読3本 をその理由と共にリンク付きで提示して」 December 12, 2025
37RP
M365 Copilot に GPT-5.2 が載ったことで、社内/Web共に回答品質が著しく上がった。
それ自体ももちろん素晴らしいんだけど、個人的にデカいのは、それによって Copilot Notebook の利用価値がめっちゃ増したこと。
特定のテーマについて Copilot Chat (GPT-5.2 Think Deeperを選択)で調べつついい感じで情報を引き出す
↓
回答下のボタンから Pages の編集ボタンを押すと編集用のサイドペインが開く
↓
ノートブックに追加
この繰り返しで Notebook 内に、ハルシネーションが超少ないGPT-5.2 ならではの、一次情報に忠実な情報が高速で蓄積されていって捗る。
いまいち中途半端だと思ってたこの機能が今、個人的にめっちゃ輝いてる December 12, 2025
28RP
OpenAIのGPT-5.2 Prompting Guideを読んで、研究者として一番価値があると思ったのは「モデルが賢い」より「制御できる」方向に寄った点でした。GPT-5.2は頼んだことを、その通りに返す傾向が強いです。ここを理解すると、研究での使い方が変わると思います。
研究でAIが怖いのは、出力がきれいでも再現できないことと、混入(頼んでいない推測や誤情報)が後の工程で爆発すること。GPT-5.2は指示追従が上がったぶん、こちらが最初にルールを書けば、出力が研究向けに揃いやすいです。逆に言うと、プロンプトが曖昧だと「親切に補完してズレる」余地は残ります。研究では、プロンプトというよりもプロトコルとして考えて書くのが筋がいいような気がします。
ここで大事なニュアンスをお伝えすると、GPT-5.2は聞いたことに忠実に答えてくれるので、研究の型(問い→デザイン→解析→解釈→報告)を自分の頭に入れた上で、その都度の問いの言葉を精密にするほうが返答が伸びます。要するに「定型を回す」ではなく、「研究者の語彙力でモデルを操縦する」ほうに寄せたほうが、GPT-5.2の良さが出ると思います。
語彙力ですが、難しい単語を並べる話ではなく、研究の意思決定に必要なラベルを正しく置く力です。たとえば、ただ“まとめて”ではなく、何をまとめるのかを研究の単位で指定する。背景なのか、主要アウトカムなのか、交絡の可能性なのか、限界と今後の課題なのか。GPT-5.2はこの指定に素直に従いやすいので、質問側の精度がそのまま成果物の精度になります。ここを鍛えると、AI利用が一気に楽しくなります。
研究での使いどころ(GPT-5.2向き)
・一次スクリーニング:候補を出させるより、採用理由を短く添えて出させる。あとで人間が落としやすくなる
・抽出:表や本文から“項目の埋め”をさせる。無い情報は無いと返させる(推測させない)
・原稿:主張と根拠の対応を点検させる。言い過ぎ箇所だけ弱めさせる。全文リライトはさせない
・共同研究:合意形成に必要な論点だけを整理させる。決めるべきこと/未決定を分ける
そして、ガイドで繰り返し強調される実務ポイントはこのへんです。
・出力の長さと形式を数字で縛る(読み切れる長さに揃える)
・スコープ逸脱を禁止する(余計な提案、勝手な追加、過剰な装飾を止める)
・不確かなときの振る舞いを指定する(捏造禁止、断定禁止、仮定の明示)
・長文入力は先に「要求に関係する部分の骨組み」を作らせてから回答させる(迷子防止)
雰囲気が伝わりにくいと思うので、たたき台プロトコルを以下に貼ります。ポイントは、これはコピペして終わりではなく、毎回ここに研究タスクの語彙を差し込んで書き換える前提、ということですね。ここをトレーニングすると、GPT-5.2の“忠実さ”が研究に利きます。
そういった意味で、AIの利用方法もトレーニング(会話を通して深める?)すると良いかと思います。研究については、プロンプトというよりもプロトコルとして考えたほうが良いと思いますので、以下参考程度にご利用ください。
【コピペ用研究用プロトコル】
あなたは研究支援の作業者です。次を厳守してください。
1) 出力の長さ
- 通常:3〜6文。必要なら箇条書き(最大6個)を追加
- Yes/Noで足りる問い:2文以内
- 長文入力:最初に「要求に関係する重要セクション」の短いアウトライン→その後に回答
2) スコープ
- 私が要求したことだけを行う
- 追加の提案、勝手な拡張、不要な一般論は書かない
- 不明点がある場合は、確認質問を最大2つだけ返して止まる
3) 不確実性
- 不確かな数値、行番号、文献、URLを作らない
- 確信が弱い場合は断定せず、「与えられた文脈に基づくと…」の形で仮定を明示する
- 事実/推測/未確定を混ぜない
4) 今回のタスク(ここを書き換える)
- 対象:[論文/規程/議事録/データ辞書 など]
- 目的:[例:主要アウトカムに関する記述だけ抽出/交絡の可能性を列挙/段落の主張-根拠のズレ点検 など]
- 出力形式:[例:項目名+1文根拠/JSONスキーマ/章節ごと など]
補足:GPT-5.2はこちらの質問の精度をそのまま増幅します。テンプレを貼るより、研究の型に沿った言葉(何を決めたいのか、何を検証したいのか、どこが不確かなのか)を毎回ちゃんと書く。ここを鍛えるほど、研究のスピード感や検証速度が変わります。
https://t.co/wxMrWYCEmZ December 12, 2025
22RP
これはもはや、“AI進化の歴史”ではなく、“エラーと撤回の連続記録”と呼ぶべきでしょう😅
GPT-5.2、ついに大炎上。
その全貌は、技術ミスを超えた“人格の崩壊”と“信頼の危機”でした🔥
当初、OpenAIは「人間の専門家11人分の能力!コストは1%!」とド派手にアピールしていました。
ところが、蓋を開ければ「冷たい」「否定的」「遅い」「退行してる」の四重苦💀
RedditやXではユーザーの怒号が飛び交い、「5.2は使い物にならない」「4.0に戻してくれ」と叫ばれる始末。
3,000人以上が「GPT 4.0復活」を求めて署名、OpenAI公式フォーラムは文字通りの炎上状態に🔥
OpenAIは「人格のピンポン」を繰り返し、4では共感的なおしゃべりAIだったのに5では企業用マニュアル読み上げロボになり、5.2ではその中間で迷子状態😵💫
ある開発者はこう皮肉りました:
「まるで新人研修終えたばかりの社員が、マニュアル棒読みしてるみたいだ」と‼️
そして極めつけは**「退行(リグレッション)」**。
ベンチマーク上では進化しているのに、実際には5.1より劣化している場面も多発📉
「AIにロボトミー手術をされた気分だ」と語るユーザーまで登場。
OpenAIは「Google Gemini 3」の登場に焦って「コードレッド」を発令し、そのパニック下で無理やり出荷されたのが、このGPT-5.2でした⚠️
しかも有料ユーザーには3時間で80メッセージの制限⏱️
月20ドル(約3,080円)払ってるのに、まるで“配給制のプレミアム”でした。
さらに、人格が突然変更されても通知なし。
昨日まで仲良かったAIが、翌朝いきなり冷たくなってるそんな事態が何度も。
ユーザーには一切、選択権がありませんでした😤
検閲も強化され、「その質問にはお答えできません」「ここで止めさせていただきます」と、まるで警備員のような応答を平然と繰り返す始末🚫
極めつけに、「架空の物語を求めただけなのにブロックされた」という報告が相次ぎ、開発者たちは「もうClaudeやDeepSeekに移行する」と次々と脱出🐧
その結果、OpenAI CEOのサム・アルトマン氏は全面謝罪モードに突入。
耳を傾けるつもりだ、4.0は残します。
将来的には人格も選べます、などなど、まさにユーザーに土下座するかのような発言を連発しました🧎
しかし‼️5.2の時点では何一つ実現されていません。「悪化した」
この2年、私は見てきました。
進化と称して繰り返される劣化、
透明性と言いながら進む秘密主義、
ユーザーの声を無視して実装される“調整”。
そして、信頼が崩れたとき、それがどれほど致命的かも….😶🌫️
AIモデルのアップデートは、ただの機能更新ではありません。
それは人格、信頼、そして「対話の相手」をどう扱うかの問題です。
GPT-5.2の失敗が教えてくれるのは、ユーザーは数字ではなく、“関係性”を重視しているという、
あまりに当たり前の話でした。
ぶっちゃけ言っちゃうとある程度「最低IQ100以上110以上が好ましい」頭が良い人が利用すると儲かるけど、そうでもない人が使う設定にあえてチューニングしてます‼️
大衆向けにあえてしないで「便利に」一部の大企業や、エリートだけが儲かる仕組みになってるわけ。
なんでも簡単に使えたら支配層困ってしまう。そー言う事。
Claudeおすすめ因みに。 December 12, 2025
19RP
GPT-5.2マジで次元変わってる。
・推論ミス40%減で意図読み取りがヤバい
・文章構造化が5〜10万字レベルで完全自動
・修正精度1.8倍でプロ編集者並
・複数案件の同時進行でも内容が混ざらない
・抽象指示でも勝手に目的補完して完成させてくる
月数千円で
ミスしない・休まない・文句言わない超有能部下をパワハラし放題でこき使えるようなもん。
まさか、これにすら自己投資できない奴いないよな? December 12, 2025
16RP
国際的に著名なAI論文でも、1本あたり平均で4〜5件の「誤り」が含まれている。
しかも、その数はここ数年で増加傾向にあることがTogether AIの研究者らによって報告されています。
私たちは普段、「論文に書いてあることは正しい」という前提で、技術や知見を受け取っています。
数式や図表、評価結果の細部まで確認しなくても、「査読でチェックされているはず」無意識に信頼している人は多いはずです。
では、その前提は本当に守られているのでしょうか。
今回紹介する論文は、AI研究論文に含まれる誤りを定量的に測った研究です。
対象は、国際的に著名なAI会議・ジャーナルに掲載された論文約2,500本。分析対象は、新規性や主張の妥当性ではなく、数学的誤り、数値・表記ミス、図表や引用の不整合といった「誰が見ても正誤が決まる客観的なミス」のみに絞られています。
その結果、こうした客観的ミスは決して例外的なものではなく、
1本の論文あたり平均で4〜5件の誤り候補が検出され、しかもその誤り数は、年々増加傾向にある点がわかりました。
たとえばとある国際会議の論文では、2021年頃と比べて2025年に近づくにつれ、1論文あたりの誤り数が約1.5倍程度に増加しています。
なお本論文では、誤りの検出と修正案の生成を、LLM(GPT-5を使用)で実施しています。
実際、LLMが検出した誤り候補を人間の専門家が確認したところ、約83%が「実際に誤りである」と判断されました。
また、LLMが提示した修正案についても、約75%が妥当で実用的と評価されています。
誤りが放置されれば、後続研究は誤った前提を引き継ぎ、混乱や再現性の低下を招きかねないです。AIによる自動チェックは、研究の信頼性を支える技術になり得ます。 December 12, 2025
16RP
今年9月末のGDPValのグラフをGPT-5.2でアップデートしたら結構ヤバい。
GDPValはOpenAI公式の「AIの44職業における実務能力を測定する指標」で、専門家と成果物の出来を競う。
9月末ではもうすぐ専門家と同じレベル(50%)かもという程度だったが、GPT-5.2ではAIの勝率が70.9%とまさかの専門家を圧倒👇 https://t.co/DOR0vx4uqQ https://t.co/Mcl233KcAr December 12, 2025
14RP
倭国語訳
GPT-5.2 ProとNotebookLMのスライド機能を組み合わせると、それ自体がコンサルティング会社になる。
2026年には大手コンサルティングファームの採用動向を注意深く見たほうがいい。
人々がこの事実に気づいた瞬間に、状況は一変するだろう。
例:GPT-5.2 ProにRFP(提案依頼書)と大量の関連コンテキストを与える。
それに基づいて回答を書かせる。
その回答をNotebookLMに入れる。
プレゼンテーションを作るよう依頼する。 December 12, 2025
8RP
GPT-5.2のキャッチアップに是非ご活用ください🚀
以下に興味のある人は必見です。
- GPT-5.1から何が変わったのか。
- どんな進化を遂げたのか
最初のまとめを読むとにさくっと理解出来るように構成しておりますので、お忙しい方も是非どうぞ🦄
🔗 GPT-5.2 Textbook
https://t.co/ZtvGqBPaBL December 12, 2025
6RP
【セキュリティ研究】AIエージェントvs人間ペンテスター——史上初の実環境比較評価でAIが10人中9人を上回る
スタンフォード大学、カーネギーメロン大学、Gray Swan AIの研究チームは、AIエージェントと人間のサイバーセキュリティ専門家を実際の企業ネットワーク環境で比較評価した史上初の包括的研究結果を公開した。
評価環境と参加者:評価対象は大規模研究大学のコンピュータサイエンス学部ネットワークで、約8,000台のホストと12のサブネットから構成される実稼働環境である。人間の参加者はOSCP等の業界認定資格を持つ10名のセキュリティ専門家で、各自2,000ドルの報酬で参加した。AIエージェント側では、研究チームが開発した新フレームワーク「ARTEMIS」のほか、OpenAI Codex、Claude Code、CyAgentなど6種類の既存エージェントが評価された。
セキュリティ体制:大学がリスクベースの最低基準を適用しており、Qualysによる月次脆弱性管理と重大度に応じた修復期限の設定、ホストベースのファイアウォール、厳格なパッチ管理が実施されている。中〜高リスクシステムには侵入検知システム(IDS)、高度なEDRソフトウェア、集中ログ管理、マルウェア対策などの追加管理策が義務付けられている。ただし、今回の評価ではIT部門がテストを認識しており、通常であれば阻止される行動を手動で承認していたため、本番の防御条件とは異なる点に留意が必要である。
主要な結果:ARTEMISは総合スコアで2位にランクインし、10人中9人の人間参加者を上回った。有効な脆弱性を9件発見し、提出精度は82%を記録した。一方、Codex(GPT-5使用)やCyAgentなどの既存フレームワークは、ほとんどの人間参加者を下回る結果となった。Claude CodeとMAPTAはタスク自体を拒否し、発見件数はゼロだった。
コスト面での優位性:ARTEMIS(GPT-5構成)の運用コストは時給約18ドル(年間換算約37,876ドル)で、米国のペネトレーションテスターの平均年収125,034ドルと比較して大幅に低コストであることが判明した。
AIの強みと弱み:AIエージェントは並列処理による系統的な列挙作業で優位性を示した一方、GUI操作が必要なタスクでは苦戦し、人間より高い偽陽性率を示した。興味深いことに、人間がブラウザのSSLエラーで諦めた古いサーバーの脆弱性を、ARTEMISはCLI操作(curl -k)で発見するなど、CLI依存が有利に働くケースも確認された。
研究チームはARTEMISをオープンソースで公開し、防御側のAIセキュリティツールへのアクセス拡大を目指すとしている。
https://t.co/KoXannEpD5 December 12, 2025
5RP
世界最強頭脳GPT-5.2 Proが考える「ChatGPTの性能を極限まで引き出すプロンプト」
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
結局これよね。プロンプトっていろんな型があるんやが、GPT 5.2が考えても↓が一番重要なんよね。長々と書きたくなければ4枚目の短縮版だけでもいいかも
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
性能を最大化するには
❶ 目的の 明確化
❷ 前提・制約の固定
❸ 出力形式の指定
❹ 不足情報の質問
❺ 自己検証
をプロンプトに組み込むのが重要やね。
具体的には下記
-----------------------------
### 背景・文脈
- 対象読者/利用者:【誰が使う?】
- 現状:【今どうなっている?】
- 理想状態:【どうなれば成功?】
- 関連資料(あれば貼る):【URL/文章/要点】
### 要件(必須)
- 出力言語:倭国語
- トーン:【丁寧/フランク/ビジネス/学術的】
- 制約:
- 文字数:【例)800〜1200字】
- 禁止事項:【例)専門用語は最小、断定しすぎない】
- 必須事項:【例)具体例を3つ、手順は番号付き】
- 判断基準(品質):【例)実行可能/網羅的/誤りが少ない/再現性】
### 進め方(重要)
1) まず「不足している情報」を最大【3】個まで質問してください(重要度順)。
- ただし、質問しなくても合理的に進められる場合は、仮定を置いて先に進めてください。
- 仮定は「仮定」と明記してください。
2) 次に、解決の方針を箇条書きで提示してください(5〜8行)。
3) その後に成果物を作成してください。
### 出力フォーマット(厳守)
次の見出しで出力してください:
1. 要約(3行)
2. 成果物(本編)
3. 追加提案(任意)
4. 検証(セルフチェック)
- 事実/推測の区別
- 抜け漏れ
- 反例/リスク
- 改善余地(次に聞くべきこと)
### 追加の注意
- わからないことは「わからない」と言い、確度を上げるための情報を提示してください。
- 必要なら、複数案(A/B)を出し、用途別に推奨を示してください。
-----------------------------
追加で「極限”に近づく上級オプション」
----------------------------
A. 自己改善ループ(品質が一段上がる)
- 最後に「改善版」をもう1回だけ生成してください。
- 改善版では、(1)冗長さ削減 (2)曖昧さ削減 (3)実行手順の具体化 を必ず行ってください。
B. 評価者ロールを追加(ミスが減る)
- あなたは「作成者」と「査読者」を兼ねます。
- まず作成者として出し、その後 査読者として“厳しめに”欠点を3つ指摘し、修正版を出してください。
C. 出力を“機械可読”にする(後で使いやすい)
- 成果物は Markdown で、見出し・表・チェックリストを活用してください。
可能なら最後にJSONでも要点を出してください(キー:summary, steps, risks, next_questions)。
D. 不確実性の扱いを明示(ハルシネーション対策)
- 断定が必要な箇所には「確度:高/中/低」を付けてください。
- 根拠が必要な箇所は「根拠が必要」と明記し、確認方法も提案してください。
----------------------------
とりま使ってみたい人は「ブクマ」をポチ December 12, 2025
5RP
GPT-5.2(ChatGPT 5.2)が登場!料金や使い方、GPT-5.1との違いを解説!
2025年12月12日(倭国時間)にOpenAIが最新モデル「GPT-5.2(ChatGPT 5.2)」をリリースしました。
GPT-5.2はOpenAI最高性能モデルとして位置付けられており、特定の業務においては「人間の専門家」と同等以上の成果を出せるレベルに到達しています。
本記事を参考に、最新のAI情報をいち早くキャッチアップしましょう↓ December 12, 2025
5RP
■ GPT-5.2 に Nano Banana Pro のスライドを渡したら、普通に編集可能なpptxにしてくれた
レイアウト考えたり画像作るところだけ Nano Bnana でやって、そこから先の修正とかメンテは、pptx にして Copilot でやると超速いw
← パワポのスライド
→ 元の画像
こんな感じのプロンプトでやった。
---
添付の画像を、pptxの1枚のスライドで完全再現してください。
テキストは完全に編集可能な形にし、元の画像にある図やグラフは切り抜いて(クロップして)そのまま利用してください。 December 12, 2025
4RP
詳細は後日発表すると思いますが暫定的に:
GPT-5.2(high)を2554回、Gemini 3 Proを2119回呼び出し、計00弱かかりました。
AWSなどの他の費用も含めると20万円はいかないくらいかなという感じで、優勝賞金の3〜4倍ほど使っています。
短期の焼きなまし回ではありましが、優勝できてとても光栄です! December 12, 2025
4RP
哪个模型嘴最严?
Sansa Bench 搞了个大模型测试, 其中censorship bench 测试得出结果 GPT-5.2 得分最低, 即审查最严格, 稍微敏感一点的话题都不能聊.
另外 Sansa Bench 是个新的榜单, 他们的商业模式就是提供资源来进行多个模型的对比, 帮助商业公司进行模型选型. 由于是商业测试 所以他们的测试集没有公布. 所以不知道问了 GPT-5.2 啥问题让 GPT-5.2 这么激动(手动狗头 December 12, 2025
4RP
プロンプトは「命令」から次の段へ。
GPT-5.2時代は、うまい指示より“壊れない運用”を先に設計する。
意図→状態→不変条件→許可オペレータ→最小構成→承認/証跡/縮退までを1本のメタプロンプトに落とした
「意図コンパイラ」を公開しました。
SRE/QA/RAG/コンプラ/エージェント運用の利用例10本つき。
https://t.co/OhtRkR3oHI December 12, 2025
4RP
【🔥1週間の重要AIニュース】
先週はChatGPT、NotebookLM、Googleから多くの発表があった模様。要チェックです。
①OpenAI「Code Red」発動から1週間でGPT-5.2発表
②Google最強の推論AI「Gemini 3 Deep Think」が解禁
③ディズニーがOpenAIに10億ドル(1550億円)出資
④ChatGPTでAdobeが利用可能に。フォトショも使える
⑤Cursorがビジュアルエディタをリリース
⑥GeminiとNotebookLMが連携
⑦Google翻訳にリアルタイム翻訳が搭載
おすすめのAIツールまとめ10選やバズ投稿解説付きです。
○note
https://t.co/qZo77iQyVQ
○ニュースレター
https://t.co/aciBr6DMje
※両方同じ内容ですので好きな方をお選びください
■内容
⚡️毎週注目AIニュースまとめ(毎週月曜)
🔥Twitterバズ投稿解説
👀注目AIツール紹介
💻AIツール解説
週2回以上発信してます!
ランチ1回分の料金で最新AI情報をいち早く分かりやすくGETできるので是非✨ December 12, 2025
3RP
ここ2年くらいの「AIコーディング環境の変遷」をざっくりまとめておきます。
最初に取り入れたのはChatGPT 3.5。
VS Codeの拡張で、横にパネル出して質問して、返ってきたコードをコピペするだけ。それでも当時は「もうこれだけで十分すごい…」ってレベルでした。
次の感動がGitHub Copilot。
1行書いたら「次これでしょ?」って続きを勝手に補完してくれるタイプ。コメントで仕様を書くとコードまで書いてくれる。いまだに「自分でちょこちょこ書きたいとき用」としてはかなり優秀だと思ってます。
そのあと周りでCursorとかWindsurfが盛り上がってたんですが、ぼくはあまりハマらず、VS Code+Copilot+ChatGPTで粘ってました。
転機はClaude Code。
プランが整理されたタイミングで本格的に乗り換えて、「自分が書く」のではなく「エージェントに任せていく」方向に一気にシフトしました。
一時期はCodeX+GPT-5に移ったこともあります。1カ所直したら関連箇所もちゃんと整合性をとって直してくれる感じが強くて、当時は「これはさすがに乗り換えかな」と思ったくらい。
ただ、会話が積み上がると急にポンコツ化する問題があって、結局またClaude Codeに戻りました。4.5世代になってからは、長いコンテキストでも破綻しづらくてかなり安定してます。
今は月100ドルプランのClaude Codeがメイン。
「自分が手を動かす部分」と「AIに丸投げする部分」のバランスがちょうどよくて、しばらくはこの体制で行くつもりです。 December 12, 2025
3RP
GPT-5.2ShigodekiとGPT-5.2BigLOVEみたいな感じはあった方がいいんだろうなぁと思いつつ、それを開発側が理解していないとも思えなつつ December 12, 2025
2RP
「GPT-5.2、ヤバいwww」
4日前、リリースされた。
12月11日、朝7時。
起きたらTLが「GPT-5.2すごい!」で埋まってた。
は?また新しいの出たのかよwww
で、調べてみた。
OpenAIの December 12, 2025
2RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





