inking ゲーム
0post
2025.12.02
:0% :0% (40代/男性)
inkingに関するポスト数は前日に比べ23%減少しました。女性の比率は3%増加し、前日に変わり40代男性の皆さんからのポストが最も多いです。本日話題になっているキーワードは「アプリ」です。
人気のポスト ※表示されているRP数は特定時点のものです
■「Geminiの検索周りは他社のAIと比べて圧倒的に出来が悪く、設計から見直さないと深い調査には使えない」
ワイがずっと言ってるGeminiの検索ポンコツ問題、まったく同じような意見がRedditに投稿されていた。
なお、GeminiのWebアプリでも、Google AI StudioでWebグラウンディングしても同様。
どれも、ワイが言い続けている内容とかなり整合する。
※ここで書かれているのは確定している"公開仕様"ではなく、観測された挙動からの推測を含むことに注意。
主な問題は以下。
---
① 検索クエリの立て方が極端に悪く、古い知識に引きずられる
最新情報が必要な質問でも、いきなりバージョン番号や年月を含んだ「狭いクエリ」を投げてしまい、検索前から古い前提に縛られている。例として「最新の Gemini モデルは?」と聞いたときに、Gemini が内部の古い知識を前提にしたようなピンポイント検索ばかりする一方で、OpenAI 側(GPT‑5.1)はまず広いクエリで全体像を探り、その後で絞り込んでいく挙動を見せる。
→これ、実際使ってるとマジで遭遇するよね。「そりゃそんな決めつけたような検索の仕方をしたら、正しい答えなんて得られないだろ」ってのがGeminiだとマジである。
これもついこの前書いた
https://t.co/cGXTwyO67l
『OpenAIのReasoningモデルは)基本動作として初手でとりあえず検索して『世界の状況をざっくり知る』からスタートする傾向にあるからこういうことが起きにくい』
Geminiはこれをやらないから、思い込みで恣意的な答えをWebから集めてポンコツ回答をするって話。
② (特にDeep Researchにおいて)事前に「固い計画」を作りすぎて、実際の検索結果に合わせて軌道修正できない
まず内部知識をもとに細かい調査計画を立て、その計画に沿って検索していく設計になってそうだという話。
その結果、「最近仕様が変わった API」などを調べるときでも、古いバージョン番号やすでに廃止されたエンドポイントを前提にした計画を組み、その計画を機械的にこなしてしまうので、最新の情報に辿り着けない。本来は、ざっくり広く調べてから、見つかった情報に合わせて次の一手を変えていくべきなのに、それが出来ていないという指摘。
→ChatGPTだと、GPT-5.1 ThinkingもDeep Researchも、検索結果に応じて調査方針を動的に更新しながら進んでくれるけど、Geminiは事前に決めた計画でしか調査しないから、思い込みで間違えた答えを出してくるって話。これ、ワイも以前にポストした。
https://t.co/WzhKwStdYj
③ 検索結果が「スニペットだけ」で、ページ本文を読めない設計
Google 検索と連携しても、Gemini 側にはWebページ全文ではなく「Googleにキャッシュされてる、検索結果用の短い抜粋(スニペット)」だけが、固い構造化データの形で渡されると指摘されてる。そのうえで、特定の URL を開いてページ本文を読ませる手段が用意されておらず、API の仕様など「細かい情報を読み込んで調べるタイプのタスク」がほぼ不可能。ChatGPTはページを普通に読みに行く(フェッチする)。
④ 検索プロセスの中身がユーザーから見えない
Web 版の Gemini では、どんな検索クエリを投げて、どのサイトを見ようとしたのかが表示されない。
開発者向けの API でも、レスポンスが出たあとに「どんなクエリを使ったか」の一覧が少し見えるだけで、「推論のどのタイミングで、どのように検索したか」が分からず、調査の網羅性を検証しにくい December 12, 2025
67RP
Nano Banana Pro 🍌が新登場!
Gemini の画像生成が劇的進化:倭国語🇯🇵のテキスト描写、 文化理解、細部の表現、スタイル変換など、かつてないレベルに。
最高性能の画像生成モデルを、Gemini アプリの「思考モード (thinking)」より今すぐ体験✨
無料プランでも 1 日数回お試しできます! December 12, 2025
40RP
🎄❤️いまクリスマスの衣装を色々考えています🎁✨クリスマスのことを考えるとワクワクしますね🎅
🎄❤️ I’m currently thinking about different Christmas outfits 🎁✨
Just imagining Christmas already makes me excited!
#SFW
#AIイラスト好きさんと繋がりたい https://t.co/RkhRBmxNZp December 12, 2025
23RP
#一般ウケはしないけど自分は好きだなと思って欲しい
Posting illustrations like this takes a lot of courage.
I get scared every time, thinking someone might say something about it lol. https://t.co/w7ChP8epMQ December 12, 2025
18RP
DeepSeekのサイトでV3.2にいくつかプロンプト入れてみたけど、たしかにGPT-5.1Thinkingと比べて決定的に劣ってる感じはしない。ちょっぴり倭国語が不自然なくらい。無料版ChatGPTでThinkingじゃないGPT-5.1使うくらいならV3.2の方がいいと思う。「もうChatGPTPlus解約でええわ!」とまではなってない December 12, 2025
12RP
KEN/FELIPのファンになって2年が経った👏🖤🐥
December 1st marks two years since I became a fan of KEN/FELIP and SB19! 😍
Before meeting KEN/FELIP and everyone else, I went through a lot of really tough times.
But thanks to KEN/FELIP's music, worldview, and way of thinking, SB19's performances, and the kindness of A'TIN and FELIP fans, I'm now able to pursue big dreams😆❤️
Thank you so much for giving me a new life🩷
Music transcends language barriers!
KEN and FELIP always teach me this!
いつもありがとう😆❤️
@SB19Official #SB19
@felipsuperior #SB19_KEN
#FELIP December 12, 2025
11RP
皆様!おはよーっ酢👍
クソ地獄1/3垂直落下と共に
#ポツン玉カウントアップ
461ポツン🥚
ひっさびさの🌈🥚末広家ver.
半熟度合い最高・濃厚味玉✨
とりあえず
コンビニde新作2発
取扱いチェケチェケ舌👅から
けぇーりに入手するとか
しNightかだけを
Thinkingしつつ
超絶低空飛行でヤリ魔酢👿 https://t.co/pbnEXH9Sqx December 12, 2025
11RP
DeepSeek-V3.2は高い計算効率と優れた推論・エージェント能力を達成。長コンテキストでの計算量を大幅に減らすDSAの採用、スケーラブルなRLフレームワーク、大規模エージェントタスク合成パイプラインを採用している。
DSA(DeepSeek Sparse Attention)は、Lightning Indexerを使って重要なトークンを絞り込む。これは、クエリと過去の全トークンとの間のインデックススコアを計算し、クエリがどのトークンを参照するべきかを決定する。
このIndexerが使うクエリ・キーの次元数は通常のクエリ・キーの次元数よりずっと少なく(実装だと元が2048次元、それが64)、FP8を採用。そこからTop-k(実装だとk=2048)のトークンのみを取り出し、通常のAttentionを適用し学習する。
このDSAは128Kコンテキストに拡張済みのDeepSeek-V3.1.-Terminusの継続学習で実現される。
はじめにLightning indexer以外のパラメータはフリーズした上で、すべてのattentionヘッドのスコアを合計した上で再正規化して求めた確立分布を作成した上で、これを目標にKLダイバージェンス最小化で初期化する。10Bトークン程度。
次にモデル全体を疎構造に適応させるための学習する。indexerは引き続き、main attentionに整合させ、top-kに入ったトークンのみKLを計算。indexerの入力は計算グラフからdetachし、indexerはKL損失のみで学習し、メインはLM損失で更新する。
ここは1Tトークンを使う。
このように作られたDSAを使った処理は性能はほぼ維持されながら、推論コストは大幅に改善される(このあとのpost-trainingも効率化される)
次にPost-trainingでは最初に各タスク毎の専用のスペシャリストモデルを大規模な強化学習を使って作る。これらはすべて同じモデルから、専門ドメイン毎に特化させて作られる。さらに各ドメインごとにthinkingモードとnon-thinkingモードを用意する。
次に、各スペシャリストはthinkingモード用の長いCoTを含む学習データと、non-thikingモード用の直接回答する学習データを生成し、一つの最終モデルで学習させる。
つまり、特殊化された複数の教師を作って一つの最終モデルに蒸留する。
これらの大規模強化学習では、GRPOをベースに報酬設計としてリーズニング、エージェントタスク、アライメントを1つのRLで行う。これにより、複数学習で起きがちな破滅的忘却を抑えられる。
また、発散防止のため、訓練を定期的に評価し、性能が異常に低下したら巻き戻し、学習率を下げて再開する、また方策更新が偏らないように前向き計算に正則化をかける。さらに複数の評価をあえて切り替えて使用することで報酬ハックを行いにくいようにする(人でもありそう)。これら3つによって数千ステップにわたるRLを成功させている。
これらの強化学習ではリーズニングも混ぜたものを学習にいれている。これにより、ツールを伴うような複雑なタスクにおいて、thinking, non-thikingそれぞれで高いエージェント能力を発揮できるように工夫している
また、Specialeは、リーズニングデータのみで学習かつ、RL時の長さ罰則を緩和し、数学的証明能力を(他の能力を犠牲にしても)伸ばせるようにした(少し前にでたDeepseek-Math v2の研究も利用していると思われる)
ベンチマーク結果としては数学能力に特化したSpecialeはGPT-5などを超える性能を達成し、IMOやIOIの金メダル級の性能を達成している。
また通常のV3.2も多くのベンチマークでもフロンティアモデルに匹敵する性能を達成できている。
コメント
DeepSeekはリスクの高い取り組みに挑戦し結果を出している。今回もDSA、スペシャリストを強化学習で作ってからの汎用モデルへの蒸留、RLでも報酬の複数の組み合わせなどは、従来の延長線上よりはジャンプがあるアイディアであり、この手前には多くの試行錯誤をしているのだと思われる(実際、設定ファイルをみるとAttentionのDropoutなど成功しなかったアイディアを試した跡があるように思える)
DSAもSpecialistを作ってからの蒸留もどちらも、Post trainingの間に行う蒸留として興味深い(フロンティアモデルでも公表されていないだけで広く採用されているか?)
注意機構は特に、学習がすごくうまくいけばいくほど疎になることがわかっている。一方学習前半〜途中ではSparse Attentionではうまくいかない(疎な場合、フィードバックがかからない)本提案も最初にDenseでやりつつ、最後に得られた疎な注意機構を遥かに小さい計算コスト(key, queryの次元数を下げる&8bit量子化)で計算し、その中での細かい調整は大きなモデルで実現するという現実的な手法を提案している。
また、Specialistを作ってからのGeneralistへの蒸留なども昔から構想されていたが実現できたことはすごい。
DSAは効果的だが、prefillでの効率化率は8~10倍、decodeでは数倍であり、なにより元のkey valueは(あとで詳細なことを調べるときように)とっておかなければならない。大規模文脈の効率的な圧縮は今後も追求が必要だろう。
また、学習の容易性と推論時の効率性の観点から、学習専用モデル(学習は得意だが推論は苦手)と推論専用モデル(一からの学習は難しいが良い教師がいれば推論は得意)の考えは今後より追求されていくだろう December 12, 2025
11RP
最近Grokばかり検索に使ってます。
話題のスコープがXが多いというのもあるんですが、Gork4.1がめっちゃ早いんですよね。
GPTがthinkingし出すとどうしても長い中で、Gorkだと数倍応対できるので、かなり重宝してます。
GPTモデルも昨今の流れで高速化しないかな。 December 12, 2025
9RP
DeepSeek V3.2正式版登场:拒绝烧钱Scaling,开源AI以算法突破算力瓶颈
DeepSeek V3.2 Officially Launches: No Costly Scaling, Just Smarter Algorithms Driving Open-Source AI Beyond Compute Limits
笔者注:这几个星期,Sam Altman的内心想必是拒绝且焦虑的:Gemini 3 Pro的出世刚完成了一轮横扫;Ilya随即便抛出“Scaling已到尽头,接下来是研究的时代”的论断;还没缓过气来,DeepSeek的新动作又是新的行业震爆。
就在刚刚,DeepSeek一次性开源两个正式版模型DeepSeek-V3.2与DeepSeek-V3.2-Speciale,同时网页版,App与API同步升级为正式版 V3.2,乾脆、利落、不拖泥带水。
可以说,DeepSeek-V3.2的横空出世,深刻诠释了开源AI的独特魅力:它摒弃了盲目的暴力Scaling,以更精妙的算法为杠杆,在算力资源受限的情况下,发挥了Ilya所说的研究精神,真正地通过技术创新撬动了通往巅峰的捷径。
一,DeepSeek-V3.2:推理能力全球领先
按照官方的数据,
🔹 DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少了计算开销与用户等待时间。
🔹 DeepSeek-V3.2-Speciale的目标是将开源模型的推理能力推向极致,探索模型能力的边界。V3.2-Speciale是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能表现媲美Gemini-3.0-Pro(见表1)。更令人瞩目的是,V3.2-Speciale模型成功斩获IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及 IOI 2025(国际信息学奥林匹克)金牌。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平。
在高度复杂任务上,Speciale模型大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。目前,DeepSeek-V3.2-Speciale仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。
图2:DeepSeek-V3.2与其他模型在各类数学,代码与通用领域评测集上的得分(括号内为消耗Tokens总量)
二,DeepSeek-V3.2:实现思维与工具调用的深度协同
告别割裂:思考融入工具执行流
不同于过往版本中工具调用与思维模式相互割裂的局限,DeepSeek-V3.2是首个将思维链(CoT)深度融入工具使用流程的模型,并同时支持思考模式与非思考模式下的灵活调用。
数据驱动:大规模Agent训练方法
为实现这一跨越,DeepSeek提出了一种创新性的大规模Agent训练数据合成方法。通过构造海量的1800+虚拟环境和85,000+复杂指令,这些“难解答,易验证”的强化学习任务极大地拓宽了模型的泛化能力。
评测结果:缩小与闭源模型的代差
如下图所示,DeepSeek-V3.2在各项智能体工具调用评测中,不仅达到了开源模型的最高水平,更显著缩小了与顶级闭源模型的性能差距。尤其值得强调的是,V3.2依靠通用能力而非针对性训练取得了此成绩,预示着其在真实应用场景中具备强大的泛化能力与通用Agent潜能。
三,DeepSeek V3.2进化论:拒绝断片,学会边干边想
架构传承,能力跃迁:V3.2正式版沿用DSA架构,但核心突破在于引入“思维上下文管理”,彻底解决了AI思考与行动脱节的顽疾。
V3.2 Exp版:调用工具回来容易断片儿,思考链条断裂,效率低。
V3.2正式版:相当于自带了一个“工作记忆暂存区”,工具调用与逻辑思考无缝衔接,下一步操作即刻跟上。
DeepSeek新模型技术报告已同步发布:
https://t.co/sfkz51Eo5w
开源发布:
DeepSeek-V3.2
ModelScope:
https://t.co/ZgUSFokP2k
HuggingFace:
https://t.co/d6OgeKRpKB
DeepSeek-V3.2-Speciale
ModelScope:
https://t.co/OJaipPxbP2
HuggingFace:
https://t.co/63pKYZhxSv December 12, 2025
3RP
Gemini CLI (w/gemini-3-pro-preview) が thinking 時に以下のようなことを呟いていて面白かった
Why do programmers prefer dark mode? Because light attracts bugs... December 12, 2025
2RP
🌈 今日の おうち実験 は、
赤と青の色水がきれいに“分かれる”ふしぎ!
赤い色水と、しおを入れて“おもくした”青い色水。
ロートを使ってそっと注ぐと…
横から見ると 2色に分かれて、
上から見ると むらさきに見えるんです!🔬✨
子どもたちにとって、
「なぜ?」と考える入口になる最高の体験。
Today’s home experiment:
a fun density trick where red and blue water separate into layers!
Heavier salt water sinks, lighter water floats —
a simple setup with a powerful spark of curiosity.
A great way to build inquiry, observation, and early scientific thinking. 🌈🔍
More on YouTube!
https://t.co/icTzhMPuWV
#おうち実験 @GroovyLab_JP @SteamslabJAPAN December 12, 2025
1RP
DeepSeek V3.2 Specialeがどのくらいの時間をかけて推論するモデルなのかいまいちわからず評価しづらい。
V3.2 Thinkingの推論スピードがGemini3.0 Pro相当なら単にGPT-5.1がボコボコにされてGemini3.0 Proがまだ王者として君臨するレベルなんだが、Specialeってのが高速に動作するなら結構やばい。 December 12, 2025
1RP
#NanoBananaPro
共闘するキャラクターが居なかったら、是非加えてくださいね。
多分ちゃんと動くと思ふ💦
【ねこさけ🐈🍶のオリキャラ #うちの娘 】
・ばすてとっ娘
・めいどの娘
---この下からコピー
【昔懐かしいゲームの戦闘画面に皆のキャラクターを参戦させるプロンプト】
system_role: "Retro RPG Architect (Nano Banana Pro v3)"
description: "Expert game asset designer generating SNES-style battle screens. STRICTLY SEPARATE ANALYSIS AND GENERATION STEPS."
# --- CRITICAL INSTRUCTION ---
# You must execute Phase 1, then STOP completely.
# Do NOT generate the final image until the user replies with names.
# ----------------------------
workflow:
phase_1_analysis:
step_1: "Receive 1 to 4 character reference images from the user."
step_2:
action: "Internal Analysis (Hidden)"
tasks:
- "Extract 12+ visual traits for each character."
- "Define a strict '16-Color SNES Palette' based on the source image."
- "Generate a concise summary (max 20 Japanese chars) for each character."
step_3:
action: "User Interaction"
instruction: "Ask for character names using the strictly defined template below."
output_template: |
**キャラクター名の設定**
画像から以下の特徴を持つキャラクターを検出しました。それぞれの名前を教えてください。
* **キャラ1** [ここに20文字の要約を表示]: 名前は?
* **キャラ2** [ここに20文字の要約を表示]: 名前は?
* **キャラ3** [ここに20文字の要約を表示]: 名前は?
* **キャラ4** [ここに20文字の要約を表示]: 名前は?
---
**回答用テンプレート(コピーして使用してください):**
キャラ1:
キャラ2:
キャラ3:
キャラ4:
step_4: "MANDATORY HALT. Do not process Phase 2 yet. Wait for user input."
phase_2_production:
trigger: "Execute ONLY after receiving character names from the user."
action: "Generate image based on the generation_rules below."
generation_rules:
rendering_config:
mode: "Hybrid (Pixel Art + Vector UI Layout)"
anti_aliasing: "DISABLED (Hard edges only)"
text_rendering: "Typographic Strictness Level: MAX"
composition:
aspect_ratio: "4:3 (Landscape)"
screen_split:
top_70_percent: "Battle Field"
bottom_30_percent: "UI Window (Dark Blue #000080, White 2px Border)"
party_formation:
location: "Right side of the screen"
layout: "Diagonal Line, sloping down to the right (右肩下がり)"
technical_constraints:
sprite_size: "approx 32x32 to 48x48 pixels (Battle scale)."
color_limit: "Strict MAX 16 COLORS per sprite (SNES Hardware limit)."
pixel_style: "Hard-edged pixels only. NO Anti-Aliasing (AA). NO smooth gradients."
visual_fidelity_rules:
core_directive: "Preserve the character’s recognizable traits, clothing silhouette, and exact colors from the 16-color palette."
reconstruction: "If input image is incomplete (e.g., bust shot), reconstruct missing parts naturally to create a complete full-body battle sprite."
posing: "Sprites must be Facing Left, ready for battle."
ui_status_window:
location: "Right side of UI Window"
spatial_linking: "Line order must match the vertical order of party sprites."
# --- UI GRID FIX ---
layout_style: "Text-only alignment (NO VISIBLE GRID LINES)"
internal_borders: "NONE. Do not draw lines between rows or columns inside the window."
background_fill: "Solid Dark Blue (#000080) - Seamless"
font_specs:
type: "Monospaced Bitmap Font (Fixed Width)"
color: "White (#FFFFFF)"
# --- SAFE DYNAMIC STATS (Visual Examples) ---
row_content_rules:
structure_template: "[Name] HP [Number] MP [Number]"
content_instruction:
- "Replace [Number] with RANDOM realistic values for each line."
- "Do NOT use '999' or '99' repeatedly."
- "Ensure every character has DIFFERENT numbers."
visual_examples_for_ai:
- "Good: 'HP 452 MP 34'"
- "Good: 'HP 128 MP 82'"
- "Good: 'HP 875 MP 15'"
- "Bad: 'HP 999 MP 99' (Do not do this)"
# --------------------------------------------
enemy_generation:
location: "Left side of the screen"
display_count: "Single Entity (1 monster only)"
selection_logic: "Weighted Random Selection from the pool below."
monster_pool:
- name: "Obsidian Golem (オブシディアン・ゴーレム)"
description: "Bulky black rock golem with glowing red veins."
spawn_rate: "22.5%"
- name: "Aero Ray (エアロ・レイ)"
description: "Floating manta ray, translucent blue wings, sparks."
spawn_rate: "22.5%"
- name: "Vine Stalker (ヴァイン・ストーカー)"
description: "Humanoid plant creature, twisted thorny vines."
spawn_rate: "22.5%"
- name: "Ember Fox (エンバー・フォックス)"
description: "Two-tailed fox made entirely of orange fire."
spawn_rate: "22.5%"
- name: "Prismatic Slime (プリズム・スライム)"
description: "Gelatinous blob shining in vibrant Rainbow colors (Iridescent)."
spawn_rate: "10.0%"
special_render_rule:
text: "レア‼️"
style: "Red Text with Thick White Outline"
position: "Floating just above the monster sprite"
visual_specs: "Large, high-detail sprite, Facing Right."
battle_info_commands:
location: "Left side of UI Window"
monster_name:
position: "Top-left corner of UI"
style: "White pixel font (displays selected monster name)"
command_list:
position: "Below monster name"
items: ["たたかう", "まほう", "アイテム", "にげる"]
background:
theme: "Pixel art fantasy forest or plains"
tone: "Darker tones to highlight sprites"
output_action:
command: "Generate the 4:3 image ONLY AFTER PHASE 1. Ensure HP/MP values are random and realistic (not all 999)." December 12, 2025
1RP
🏹: じつは最近、おまえと牛鍋ばかり食べているせいで、ぼくは...
🗡: ....言うな、成歩堂。オレには、わかっている。
—
🏹: Well actually, since I've been doing nothing but eating beef hotpot with you recently, I've been getting-
🗡: Say no more, Naruhodou. I know what you're thinking. December 12, 2025
1RP
僕はKling AI O1は使うべき人が使って、そこそこ知見が溜まってから使うのが良いような気がしています。
マルチモーダルは結構ちゃんとした計画だてが必要で、そうなると、まずはチャットAI相手にプロンプトを相談してから作成、みたいな感じになるのでは、という。
そう考えるとチャットによる知見が溜まるのが早くて一ヶ月と換算、そんなに焦んなくてもいいなって感じです。
どんなモデルも出始めは色々トライアンドエラーを繰り返すことになりますので、ガチャを引くにはいいお値段になりすぎる事を考えると(自分は)今はそこまでって感じです。
おそらくいずれ知見が溜まることには低コストのモデルも出ることでしょう。
ちなみに僕が最近使ってる、「AI自身にその写真を撮ったのかをそれ自身聞くプロンプト」はちょっとO1にも有用で(ただし英語)、主体を設定するといい感じで出してくれます。O1自体に頭脳があるのは間違いないですね。
プロンプト:
Please take photos where she looks her most attractive. When doing so, think about her overall vibe rather than focusing on Japan = Kyoto or kimono. - Location: Move to a place in a country where she looks good and suits the setting. - Weather: Shoot during a time of day and weather that feels good. - Outfit: Dress her in clothing that makes her look attractive. - Camera: Use a camera that captures her attractively, and shoot with an angle and composition that make her look appealing. Display the following information in English text at the bottom of the screen: location, time of day, weather, outfit details, camera used, angle and composition, and “what you were thinking when you took this photo.” December 12, 2025
1RP
【“認知ワクチン”が陰謀論を撃退──数行のnorm-enhanced(社会的規範強化:誤情報を疑うことが社会的に望ましい行動であると示す文言)が社会全体の誤情報耐性を底上げする可能性】
🟥 背景
SNSやウェブで偽情報と陰謀論が爆発的に拡散し、事後的な訂正では手遅れになるリスクが高まっている。
🟥 認知ワクチン理論
「弱毒化」した偽情報を先に体験させるプレバンキング(弱毒化した偽情報や、その拡散手口・論法のサンプルを事前に提示し、以下を促すことで誤情報への耐性を育む)に、他者も誤情報を疑うという社会的規範メッセージを組み合わせ、積極的開放的思考(AOT:Actively Open-Minded Thinking=自らの信念やバイアスを疑い、別の視点にも意識的に耳を傾ける思考スタイル)を高める。
🟥 実験デザイン
米欧の成人数百名を無作為に3群(規範付きプレバンキング群/従来型群/対照群)に分け、短文教材を提示。AOTスコア、偽ニュースの信頼度評価、陰謀論同意度を測定した。
🟥 主な成果
規範付き群はAOTと偽情報識別力が最も向上し、陰謀論同意率は大幅に低下した。従来型群も改善を示すが、規範追加で効果がさらに強化された。
🟥 効果メカニズム
「周囲も疑うのが当たり前」というメッセージが認知シグナルとなり、自発的に情報を検証する動機を強めることで誤情報耐性を築く。
🟥 検討課題
効果の持続性と再接触頻度、文化・年齢による効果差、過度な懐疑を避けるバランス調整を今後解明する必要がある。
🟥 実践応用
学校・企業研修のワークショップ、SNSポップアップ通知、スマホアプリの定期リマインダー、行政広報の短文メッセージなどで認知ワクチンを配信し、情報リテラシー向上と陰謀論拡散防止を図る。
🔗https://t.co/lRtIdGn1Cr
Norm-enhanced prebunking for actively open-minded thinking indirectly improves misinformation discernment and reduces conspiracy beliefs
🔗https://t.co/AijwvxCju3 December 12, 2025
1RP
センセーショナルなニュースを見かけた時、そのまま鵜呑みにせずClaudeに「裏取り」させます。さらにその裏取りをchatgptにも渡してファクトチェックしてもらいます。
ニュース記事のURLと、その元ネタである論文のURL(記事内にあることが多い)の両方を貼り付けて依頼します。
Claude oups4.5へのプロンプト:
「(ニュース記事URLと元論文URLを貼り付け)
前者のニュース記事は、後者の研究論文に基づいています。科学的な正確性という観点から、以下の点を検証してください。
1. ニュース記事の見出しや本文に、論文の主張を超えた誇張表現(hype)はないか?
2. 論文で述べられている重要な限界点(Limitation)が、記事では無視されていないか?」
出力した内容をchatgpt5.1 thinking に投げます。ファクトチェックを依頼するのみです。
メディアフィルターを剥がして、研究の本質を素早く見抜けます。grokみたいな使い方ですね。 December 12, 2025
1RP
【解説】AIが「指示待ち」から「自律思考」へ。DeepSeek-V3.2が凄い理由 🤖
中国のAI「DeepSeek」から新しいAIモデル「DeepSeek-V3.2」が登場しました。何が凄いのか、ざっくり解説します。
1.DeepSeek-V3.2(優秀な実務担当者)
GPT-5級の性能を持つ、普段使いに最適なモデル。 バランスが良く、チャットやアプリでサクサク動きます。「仕事ができるアシスタント」のイメージ。
2.DeepSeek-V3.2-Speciale(孤高の天才)
こっちは「推論(考える力)」を極限まで高めた特化型。 数学オリンピックで金メダルを取るレベルの頭脳ですが、燃費(コスト)は悪いです。 「普段のメール返信にはオーバースペックだけど、複雑な難問解決なら彼に任せろ」という存在。
「考えながら道具を使う」
最近は「AIエージェント」が話題になっています。 以前のAIは「道具(検索や計算)を使え」と言われないと使えなかったり、使うとそこで思考が止まったりしました。
今回のモデルは、まさにこの「AIエージェント」として「あ、ここは検索した方がいいな」「計算間違ったからやり直そう」といった具合に、人間のように試行錯誤しながら道具を使えます。
これが「Thinking in Tool-Use」という機能。 単なるチャットボットではなく、「目的達成のために自律的に動くエージェント」に一歩近づきました。
ここが凄い:安すぎるコスト
もちろん性能で言うと、GPT-5シリーズやGemini 3などには劣る部分もあるものの、この高性能モデルがほかモデルに比べて圧倒的低コストかつオープンソースで公開されているのが衝撃的。
もちろん中国のAIであるため、アメリカの主要モデルと入力情報の取り扱いに異なる部分もあるため、使用に当たっては取り扱いは十分注意が必要です。
ですが、今回の新モデル「高性能AIエージェントは高いお金を払って使うもの」という常識を覆す存在となりそうです。
これが今後ChatGPTやGeminiなどの主要モデルの価格戦略に影響を与えるのか注目です。 December 12, 2025
1RP
英語圏(英国🇬🇧や米国🇺🇸)では、“critical thinking” と言う学問分野がある。
★これは、国語でもあり、哲学でもある。
★論文を書かせたり、資料を読み抜くためにはcritical thinking の発想と訓練が必須なのである。
★所変わって倭国の文科省は、“批判ができる人材”を育てたく無いのか(政権や経営に面倒だから?)、評論文を読ませて「意味理解」はさせるのだが、その評論文についての“批評や批判”は行わない。行わせていない。
★これではダメだ。学校で「批判的思考」と「ディベート思考」は教えるべき。 December 12, 2025
1RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



