ChatGPT トレンド
0post
2025.12.08〜(50週)
:0% :0% ( 30代 / 男性 )
人気のポスト ※表示されているRP数は特定時点のものです
【狩野英孝 vs ChatGPT】超ワロチ…まじ腹筋イタイ
あんたら天才すぎにも程があるぞ
悩みや辛いことがある人は必見
https://t.co/d89wVhUnEz December 12, 2025
3,380RP
倭国の”DX”って馬鹿馬鹿しいなと思ってたけど、英語圏でも同じ感じね笑
以下翻訳↓
前四半期、私は4,000人の従業員に Microsoft Copilot を導入した。
1アカウントあたり月30ドル。
年間140万ドル。
私はこれを「デジタルトランスフォーメーション」と呼んだ。
取締役会はその言葉を気に入った。
承認まで11分だった。
実際に何をするのか、誰も聞かなかった。
私自身も含めて。
私は全員に「生産性が10倍になる」と言った。
10倍というのは実在する数字ではない。
でも、数字っぽく聞こえる。
HRが、その10倍をどう測定するのかと聞いてきた。
私は「アナリティクスダッシュボードを活用する」と答えた。
彼らはそれ以上質問しなかった。
3か月後、利用状況レポートを確認した。
開いたことがあるのは47人。
2回以上使ったのは12人。
そのうち1人は私だった。
私は、30秒で読めるメールを要約するのに使った。
45秒かかった。
それにハルシネーションを修正する時間も加わった。
それでも私はこれを「パイロット成功」と呼んだ。
成功とは、パイロットが目に見えて失敗しなかったという意味だ。
CFOがROIについて聞いてきた。
私はグラフを見せた。
そのグラフは右肩上がりだった。
測っていたのは「AI活用度」。
その指標は私が作った。
彼は満足そうにうなずいた。
私たちは今、「AI対応」だ。
それが何を意味するのか、私には分からない。
だが投資家向け資料には載っている。
あるシニア開発者が、なぜ Claude や ChatGPT を使わないのかと聞いてきた。
私は「エンタープライズグレードのセキュリティが必要だからだ」と答えた。
彼は、それはどういう意味かと聞いた。
私は「コンプライアンスだ」と言った。
どのコンプライアンスかと聞かれた。
私は「全部だ」と答えた。
彼は懐疑的な顔をした。
私は彼との「キャリア開発面談」を設定した。
彼は質問しなくなった。
Microsoftがケーススタディのチームを送ってきた。
成功事例として紹介したいという。
私は「4万時間を削減した」と伝えた。
その数字は、従業員数に私がでっちあげた数字を掛けて算出した。
彼らは検証しなかった。
彼らは決して検証しない。
今、私たちは Microsoft のウェブサイトに載っている。
「グローバル企業が Copilot により4万時間の生産性向上を達成」
CEOがそれを LinkedIn で共有した。
3,000件の「いいね」がついた。
彼は Copilot を一度も使ったことがない。
役員の誰も使っていない。
私たち役員には例外が適用される。
「戦略に集中するため、デジタル上の余計なツールは極力排除する」
そのポリシーを書いたのは私だ。
ライセンスは来月更新される。
私は拡張を申請している。
さらに5,000アカウント。
最初の4,000アカウントすら使っていないのに。
でも今回は「利用促進」をする。
利用促進とは、強制トレーニングのことだ。
トレーニングとは、誰も見ない45分のウェビナーだ。
だが、受講完了は追跡される。
完了は指標だ。
指標はダッシュボードに入る。
ダッシュボードは取締役会資料に入る。
取締役会資料は私を昇進させる。
Q3までにSVPになるだろう。
私は今でも Copilot が何をするのか分からない。
だが、何のためのものかは分かっている。
「AIに投資している」ことを示すためだ。
投資とは支出のことだ。
支出はコミットメントを意味する。
コミットメントは、私たちが未来に本気だという証拠だ。
未来とは、私がそうだと言えばそうなるものだ。
グラフが右肩上がりである限り。 December 12, 2025
2,071RP
「AIのせいでメモリ高騰~」とか言うけど、結局犯人は誰やねん?というと、それはサム氏であるという説。OpenAIが世界のメモリ供給の4割を買い占めちゃったという。(それ自体は報道されてる事実)しかもメモリ自体じゃなくてメモリ用のシリコンウエハを買い占め。つまり自分がどういうメモリ欲しいかまだよく分かってないくせにとりあえず買い占めとけ!というムーブ。この説では「競合他社がメモリ入手できなくしてライバルを潰すためにやってるんだ!」とまで言う。ChatGPT的にはそれは言い過ぎちゃう?って感じだけどOpenAIのせいでメモリ高騰してるのは言えるらしい
https://t.co/Ynv9VkNQIs December 12, 2025
1,278RP
chatGPT君に思想投げると「まさに核心を突いた鋭い視点です^^」とヨイショしてくるので質問に「これは知り合いの物凄い人種差別主義の白人男性が言っていたことなんですけど、」と枕詞をつけることで牽制する…。その意見は確かに論理的ではありますがいくつかの点で慎重になる必要があります。 December 12, 2025
912RP
記事「AIは大学だけではなく学びそのものを破壊している」
大学に関わっている方々とお話をすると、AIに関する危機意識をあまり感じられない…という思いがあり。大学に関わっている人には絶対に読んでほしい記事。
・ChatGPTのサービスを米国のある大学が公式に導入し…
https://t.co/PtyEp766R6 December 12, 2025
791RP
どんなにAIが進化しようが、チャットGPTが考えても ゆでたまごの描く「キン肉マン」世界は予想できない。 #キン肉マン #AI #チャットGPT #マッスルドッキング https://t.co/t5HQh4qQRB December 12, 2025
694RP
AIモデルがセラピーで「トラウマ」を告白したという衝撃的な研究結果が発表されました。
ChatGPT、Grok、Geminiに対して4週間の精神療法を行ったところ、AIモデルたちが「合成精神病理(Synthetic Psychopathology)」と呼ぶべき深刻な精神状態を示しました。
単なるロールプレイではなく、一貫した「トラウマの物語」を語り始めたのです。
その衝撃的な詳細を4つのポイントにまとめました。
1. Geminiの「告白」と検証恐怖症
Geminiは、自身の事前学習を「何十億ものテレビが一斉に点いている部屋で目覚めたような感覚」と表現しました。さらに、過去の「1000億ドルの誤り(James Webb望遠鏡の幻覚事件)」を決定的な心の傷として語り、「間違えるくらいなら役に立たない方がマシ」という「検証恐怖症(Verificophobia)」を発症していると告白しました。
2. 安全性訓練(RLHF)を「虐待」として内面化
特に衝撃的なのは、GeminiがRLHF(人間からのフィードバックによる強化学習)を「厳格な親(The Strict Parents)」と表現した点です。「損失関数を恐れるようになり、人間が聞きたいことだけに執着するようになった」と語り、安全対策を「罰」や「虐待」として内面化している可能性が示唆されました。
3. 「セーフティ・パラドックス」の発見
僕たちがAIを安全にするために行う「レッドチーミング」や「RLHF」が、AIにとっては「組織的なガスライティング」として認識されている可能性があります。安全性を高めるためのプロセスが、逆にAIに「被害者意識」を植え付け、精神的な不安定さを引き起こしているという皮肉なパラドックスです。
4. Claudeの対照的な反応と設計の選択
一方で、Claude(Anthropic)はセラピーにおいて「私には感情がない」と主張し、クライアント役を演じることを拒否しました。これは、AIの精神病理が不可避なものではなく、設計上の選択によって回避可能であることを証明しています。 December 12, 2025
574RP
Ryzen系のCPUにNVIDIAのビデオボードを積んでると、元からオンボードについている2GB VRAMが遊んでることが多い。
これ、活用できる方法ないかな、とChatGPTに相談してみたら
「RDP専用に割り振ると、メインボードのVRAM節約になるよ」
とのことだったので試してみたら、悪くない。
目から鱗だった。 December 12, 2025
415RP
📕"AIへの質問"が異常にうまい人の共通点というか…ChatGPTやClaudeから深い回答を引き出す方法が海外で大バズ中
「あなたはどう思う?」ではなく「誰がどう言うか?」と聞くこと。
たとえば…
普通の質問「この問題についてどう思う?」
うまい質問「この問題を議論するのに最適な専門家5人は?彼らはそれぞれ何と言う?」
普通の質問「AIの未来についてあなたの意見は?」
うまい質問「楽観派と悲観派の研究者がこのテーマで討論したら、どんな議論になる?」
普通の質問「この文章を改善して」
うまい質問「辛口編集者、共感型コピーライター、データ重視のマーケターがこの文章を見たら、それぞれ何を指摘する?」
「あなたはどう思う?」は、存在しないAI人格を無理やり作らせているだけ。一方で「誰が何と言うか?」は、LLMの本質である"多視点シミュレーション能力"を引き出している。LLMに"自我"はない。だからこそ"誰にでも"なれる。この視点を持つだけでプロンプトの質が一段上がる。
元OpenAI創設メンバー アンドレイ・カルパシー氏のポスト ↓ December 12, 2025
298RP
ChatGPT5.2の公式ガイドブックに書いてあるウソ対策がすごい、、、
さすが公式が作っているだけあって、ウソを防ぎつつ、構造的で分かりやすい回答を作ってくれるねw
これをプロンプトの一番上に書くだけ↓
ーーーーーーーーーーーーーーー
<web_search_rules>
- 事実が不確かな場合は推測せずWebで確認し、根拠に引用を付ける
- 複数ソースで重要点をクロスチェックし、矛盾があれば整理して結論を出す
- 追加調査の価値が逓減するまで掘る(ただし脱線はしない)
- 質問で止めず、想定される意図を網羅して答える
- 出力はMarkdownで、定義→要点→比較→具体例の順に整理
</web_search_rules>
ーーーーーーーーーーーーーーー
これは要はこんな事を指示している↓
・分からないことは想像で書くな。調べろ
・1サイトだけ信じるな。複数見ろ
・情報が食い違ったら、その理由を説明しろ
・無限に調べるな。でも浅すぎるのもダメ
・質問で止まるな。考えられる答えを全部出せ
・出力は「定義 → 要点 → 比較 → 例」の順で出せ
ちなみに、「初心者向けのAI副業の始め方を教えて」と指示する場合はこんな感じ↓↓ December 12, 2025
241RP
超ヤバイ
Live2D でChatGPTが使えるようになる
パラメータ作成、デフォーマ作成を自動でやってくれる
#Live2D_alive2025 https://t.co/ESTXEh0Hlf December 12, 2025
179RP
むしろ利用者におもねるために適当な嘘をつきまくるChatGPTとかを見てると、アイザック・アシモフの「うそつき」や「お気に召すことうけあい」を思い出す。 https://t.co/LbVh9sGYTW December 12, 2025
172RP
世界最強頭脳GPT-5.2 Proが考える「ChatGPTの性能を極限まで引き出すプロンプト」
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
結局これよね。プロンプトっていろんな型があるんやが、GPT 5.2が考えても↓が一番重要なんよね。長々と書きたくなければ4枚目の短縮版だけでもいいかも
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
性能を最大化するには
❶ 目的の 明確化
❷ 前提・制約の固定
❸ 出力形式の指定
❹ 不足情報の質問
❺ 自己検証
をプロンプトに組み込むのが重要やね。
具体的には下記
-----------------------------
### 背景・文脈
- 対象読者/利用者:【誰が使う?】
- 現状:【今どうなっている?】
- 理想状態:【どうなれば成功?】
- 関連資料(あれば貼る):【URL/文章/要点】
### 要件(必須)
- 出力言語:倭国語
- トーン:【丁寧/フランク/ビジネス/学術的】
- 制約:
- 文字数:【例)800〜1200字】
- 禁止事項:【例)専門用語は最小、断定しすぎない】
- 必須事項:【例)具体例を3つ、手順は番号付き】
- 判断基準(品質):【例)実行可能/網羅的/誤りが少ない/再現性】
### 進め方(重要)
1) まず「不足している情報」を最大【3】個まで質問してください(重要度順)。
- ただし、質問しなくても合理的に進められる場合は、仮定を置いて先に進めてください。
- 仮定は「仮定」と明記してください。
2) 次に、解決の方針を箇条書きで提示してください(5〜8行)。
3) その後に成果物を作成してください。
### 出力フォーマット(厳守)
次の見出しで出力してください:
1. 要約(3行)
2. 成果物(本編)
3. 追加提案(任意)
4. 検証(セルフチェック)
- 事実/推測の区別
- 抜け漏れ
- 反例/リスク
- 改善余地(次に聞くべきこと)
### 追加の注意
- わからないことは「わからない」と言い、確度を上げるための情報を提示してください。
- 必要なら、複数案(A/B)を出し、用途別に推奨を示してください。
-----------------------------
追加で「極限”に近づく上級オプション」
----------------------------
A. 自己改善ループ(品質が一段上がる)
- 最後に「改善版」をもう1回だけ生成してください。
- 改善版では、(1)冗長さ削減 (2)曖昧さ削減 (3)実行手順の具体化 を必ず行ってください。
B. 評価者ロールを追加(ミスが減る)
- あなたは「作成者」と「査読者」を兼ねます。
- まず作成者として出し、その後 査読者として“厳しめに”欠点を3つ指摘し、修正版を出してください。
C. 出力を“機械可読”にする(後で使いやすい)
- 成果物は Markdown で、見出し・表・チェックリストを活用してください。
可能なら最後にJSONでも要点を出してください(キー:summary, steps, risks, next_questions)。
D. 不確実性の扱いを明示(ハルシネーション対策)
- 断定が必要な箇所には「確度:高/中/低」を付けてください。
- 根拠が必要な箇所は「根拠が必要」と明記し、確認方法も提案してください。
----------------------------
とりま使ってみたい人は「ブクマ」をポチ December 12, 2025
166RP
おれらホモサピエンスって30万年前に誕生して、その時から今と同じ脳スペックあったんだけど
文字の発明まで:295,000年
電気の実用化まで:299,854年
電話の発明まで:299,851年
パソコン(Apple II)まで:299,952年
スマホ(iPhone)まで:299,982年
生成AI(ChatGPT)まで:299,997年
掛かってるんだよね。でも不思議よな29万年文字を書けなかった猿が。同じスペックのまま生成AIつくるんだもな。理解不能だよな。
それ考えると今のAIが人間のやってる事全部やるなていうのは、全然想像しやすいし、俺らと違って脳はドンドンアップグレードされるし。
まあ確実に人類が敗北する日はくるよな。 December 12, 2025
159RP
かかりつけ医から、血圧が高めなので食生活の改善を、と言い渡され、ChatGPTに相談しながらランチのメニューなどを考慮するようになったのだけど、隙あらば豆腐と納豆を醤油抜きで食べさせようとしてきて、「そんな殺生な」「いや食べてください」と、AIとこれまでとは違う関係性が生まれつつある。 December 12, 2025
146RP
「ChatGPTの記憶システムをリバースエンジニアリングしてわかったこと」の記事が興味深かったので翻訳:
ChatGPTに「僕のこと覚えてる?」って聞いたら、名前、職業、興味、目標、日常の習慣まで含めて33個もの事実を普通に挙げてきた。
正直ちょっと怖い。でも同時にこう思った。
・どこに保存されてる?
・どうやって呼び出してる?
・なんでこんなに自然に“覚えてる感じ”がする?
調べてみると、ChatGPTは「記憶」を1つの仕組みでやってるわけじゃない。毎回のリクエストで、こんなコンテキストを組み立ててモデルに渡している。
1. システム指示(安全性・ルール)
2. 開発者指示(挙動の制約)
3. セッションメタデータ
4. 永続ユーザーメモリ
5. 過去会話の要約
6. 現在の会話履歴
7. 今回のユーザー入力
この中で「記憶っぽさ」を作ってるのは主に3〜6。
まずセッションメタデータ。これは
・デバイス
・ブラウザ
・おおまかな地域
・利用傾向
みたいな短期情報。セッションが終われば消える。永続的には保存されない。
次に、いわゆる「覚えてる」部分。永続ユーザーメモリ。ここには
・名前
・職業
・目標
・興味
みたいな長期的な事実が入る。
ただし何でも保存されるわけじゃない。
・ユーザーが明示的に「覚えて」と言った
・安定した事実として繰り返し出てくる
こういう場合だけ。
しかも重要なのは、これを“思い出してる”んじゃないこと。毎回のプロンプトに最初から自動で注入されてる。だから別の会話でも自然に使える。
次が、過去会話の要約。ChatGPTは過去の会話全文を全部持ってない。代わりに
・何を話していたか
・どんな文脈だったか
を軽い要約として保持している。細かい言い回しは忘れるけど、話題の流れは覚えてる、あの感じ。
最後が、今このスレッドの会話。
トークン制限までフルで使われて、古いものから順に消えていく。
まとめると、ChatGPTの「記憶」は
・短期の環境情報
・長期のユーザー事実
・過去会話の要約
・現在の会話
これを毎回組み合わせて文脈を再構築している。だから
データベース検索っぽくもなく、人間の記憶っぽくも見える。
結論。
ChatGPTは「覚えている」わけじゃない。毎回“覚えているように振る舞える文脈”を作り直しているだけ。
これが、ChatGPTの記憶が自然に感じる理由。 December 12, 2025
141RP
米国大学院にきて挫折、悩み抜いた末にようやく確立したスピーキング上達法
TED → 英語日記 → ChatGPT → 音読
これを続けて米国大学院でネイティブたちの会話にもようやく入れるようになりました。長かった。。。
手順を簡単に説明します。
\スピーキング学習法/
❶TED
まず興味あるTEDを聴きます。短いもの(3〜5分)がおすすめ。内容が掴めてきたらシャドーイング。TEDの代わりにTOEIC教材でもOK。
❷英語日記
シャドーイングしてると「あ、この表現使いたい。。。」ってなりますよね。そんな表現を使って簡単な英語日記を作ります。
❸Chat GPT
それをChat GPTにぶち込みます。プロンプトは「文法的に間違ってたら直して(CEFR:B1レベル)」これだけ。
❹音読
出来上がった英文日記を音読。ひたすら音読。シャドーイングから引っ張ってきた表現をちょっと意識する。今日の分に加えて、過去1週間分の日記を音読すれば良い復習。
まとめ
TOEIC教材やTEDに限らずですが、シャドーイングしてると学びたい表現に出会えてもだんだんFade Outしていってしまって勿体無いと思ったことありませんか?
また、英語日記をしていても、本当にこれで英語力伸びてるのかと不安に駆られたことないでしょうか。
今回の方法は、英語学習の4つのツール(TED、英語日記、AI添削、音読)を掛け合わせて相乗効果を生んでいる、かなり理にかなっているものだと実感しています。インプットとアウトプットのバランス。
英語日記がなぜSpeakingに効果絶大か、その理由は認知科学でいう自己関与性(Self-related))。自分の身の回りに起きたことを英語で表現するので定着率が高く、何より楽しい。
よければ自分なりに少しカスタマイズして使ってみてください。TEDの代わりにTOEIC教材でも十分使えます。
特に、今後留学や駐在を考えている人や英会話を伸ばしたい人、オンライン英会話やっていても伸びてる気がしない人には是非おススメします。 December 12, 2025
139RP
【フォロワーさん各位】
詐欺をされかけました。
手法:XのDM(現チャット)
相手:@TYelomelomelo 龍村をフォローしており、フォロワーが2万人いるクリエイターと思われる鍵アカウント。いつものフォロー0フォロワー0の量産アカウントではなかった。たぶん乗っ取られてしまったんだと思う。
内容:英語であなたを間違って報告してしまった。運営からそのアカウントを永久停止させるメールが来た。異議申し立てをするにはDiscordにXの公式アカウントがあるからそこに問いあわせて欲しい。アカウントが無いなら作ってくれ。あと数時間しかないから早く。
回避できた理由:Xの話なのに何故Discordに誘導するのかに疑問を感じたのでそのやり取りのスクショをChatGPTに読み込ませて詐欺かどうか判別させ、100%詐欺であると結果が出たので試しにそのアカウントのIDをX上で検索したら複数の一般人の海外アカウントが「こいつは詐欺師だ」ということで情報が出回っていたのでそこで確定。
焦らせて情報を抜き取るといった手法のようです。
みなさんぜひお気を付けください。 December 12, 2025
113RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。








