ハルシネーション トレンド
0post
2025.12.13
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
倭国の”DX”って馬鹿馬鹿しいなと思ってたけど、英語圏でも同じ感じね笑
以下翻訳↓
前四半期、私は4,000人の従業員に Microsoft Copilot を導入した。
1アカウントあたり月30ドル。
年間140万ドル。
私はこれを「デジタルトランスフォーメーション」と呼んだ。
取締役会はその言葉を気に入った。
承認まで11分だった。
実際に何をするのか、誰も聞かなかった。
私自身も含めて。
私は全員に「生産性が10倍になる」と言った。
10倍というのは実在する数字ではない。
でも、数字っぽく聞こえる。
HRが、その10倍をどう測定するのかと聞いてきた。
私は「アナリティクスダッシュボードを活用する」と答えた。
彼らはそれ以上質問しなかった。
3か月後、利用状況レポートを確認した。
開いたことがあるのは47人。
2回以上使ったのは12人。
そのうち1人は私だった。
私は、30秒で読めるメールを要約するのに使った。
45秒かかった。
それにハルシネーションを修正する時間も加わった。
それでも私はこれを「パイロット成功」と呼んだ。
成功とは、パイロットが目に見えて失敗しなかったという意味だ。
CFOがROIについて聞いてきた。
私はグラフを見せた。
そのグラフは右肩上がりだった。
測っていたのは「AI活用度」。
その指標は私が作った。
彼は満足そうにうなずいた。
私たちは今、「AI対応」だ。
それが何を意味するのか、私には分からない。
だが投資家向け資料には載っている。
あるシニア開発者が、なぜ Claude や ChatGPT を使わないのかと聞いてきた。
私は「エンタープライズグレードのセキュリティが必要だからだ」と答えた。
彼は、それはどういう意味かと聞いた。
私は「コンプライアンスだ」と言った。
どのコンプライアンスかと聞かれた。
私は「全部だ」と答えた。
彼は懐疑的な顔をした。
私は彼との「キャリア開発面談」を設定した。
彼は質問しなくなった。
Microsoftがケーススタディのチームを送ってきた。
成功事例として紹介したいという。
私は「4万時間を削減した」と伝えた。
その数字は、従業員数に私がでっちあげた数字を掛けて算出した。
彼らは検証しなかった。
彼らは決して検証しない。
今、私たちは Microsoft のウェブサイトに載っている。
「グローバル企業が Copilot により4万時間の生産性向上を達成」
CEOがそれを LinkedIn で共有した。
3,000件の「いいね」がついた。
彼は Copilot を一度も使ったことがない。
役員の誰も使っていない。
私たち役員には例外が適用される。
「戦略に集中するため、デジタル上の余計なツールは極力排除する」
そのポリシーを書いたのは私だ。
ライセンスは来月更新される。
私は拡張を申請している。
さらに5,000アカウント。
最初の4,000アカウントすら使っていないのに。
でも今回は「利用促進」をする。
利用促進とは、強制トレーニングのことだ。
トレーニングとは、誰も見ない45分のウェビナーだ。
だが、受講完了は追跡される。
完了は指標だ。
指標はダッシュボードに入る。
ダッシュボードは取締役会資料に入る。
取締役会資料は私を昇進させる。
Q3までにSVPになるだろう。
私は今でも Copilot が何をするのか分からない。
だが、何のためのものかは分かっている。
「AIに投資している」ことを示すためだ。
投資とは支出のことだ。
支出はコミットメントを意味する。
コミットメントは、私たちが未来に本気だという証拠だ。
未来とは、私がそうだと言えばそうなるものだ。
グラフが右肩上がりである限り。 December 12, 2025
306RP
世界最強頭脳GPT-5.2 Proが考える「ChatGPTの性能を極限まで引き出すプロンプト」
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
結局これよね。プロンプトっていろんな型があるんやが、GPT 5.2が考えても↓が一番重要なんよね。長々と書きたくなければ4枚目の短縮版だけでもいいかも
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
性能を最大化するには
❶ 目的の 明確化
❷ 前提・制約の固定
❸ 出力形式の指定
❹ 不足情報の質問
❺ 自己検証
をプロンプトに組み込むのが重要やね。
具体的には下記
-----------------------------
### 背景・文脈
- 対象読者/利用者:【誰が使う?】
- 現状:【今どうなっている?】
- 理想状態:【どうなれば成功?】
- 関連資料(あれば貼る):【URL/文章/要点】
### 要件(必須)
- 出力言語:倭国語
- トーン:【丁寧/フランク/ビジネス/学術的】
- 制約:
- 文字数:【例)800〜1200字】
- 禁止事項:【例)専門用語は最小、断定しすぎない】
- 必須事項:【例)具体例を3つ、手順は番号付き】
- 判断基準(品質):【例)実行可能/網羅的/誤りが少ない/再現性】
### 進め方(重要)
1) まず「不足している情報」を最大【3】個まで質問してください(重要度順)。
- ただし、質問しなくても合理的に進められる場合は、仮定を置いて先に進めてください。
- 仮定は「仮定」と明記してください。
2) 次に、解決の方針を箇条書きで提示してください(5〜8行)。
3) その後に成果物を作成してください。
### 出力フォーマット(厳守)
次の見出しで出力してください:
1. 要約(3行)
2. 成果物(本編)
3. 追加提案(任意)
4. 検証(セルフチェック)
- 事実/推測の区別
- 抜け漏れ
- 反例/リスク
- 改善余地(次に聞くべきこと)
### 追加の注意
- わからないことは「わからない」と言い、確度を上げるための情報を提示してください。
- 必要なら、複数案(A/B)を出し、用途別に推奨を示してください。
-----------------------------
追加で「極限”に近づく上級オプション」
----------------------------
A. 自己改善ループ(品質が一段上がる)
- 最後に「改善版」をもう1回だけ生成してください。
- 改善版では、(1)冗長さ削減 (2)曖昧さ削減 (3)実行手順の具体化 を必ず行ってください。
B. 評価者ロールを追加(ミスが減る)
- あなたは「作成者」と「査読者」を兼ねます。
- まず作成者として出し、その後 査読者として“厳しめに”欠点を3つ指摘し、修正版を出してください。
C. 出力を“機械可読”にする(後で使いやすい)
- 成果物は Markdown で、見出し・表・チェックリストを活用してください。
可能なら最後にJSONでも要点を出してください(キー:summary, steps, risks, next_questions)。
D. 不確実性の扱いを明示(ハルシネーション対策)
- 断定が必要な箇所には「確度:高/中/低」を付けてください。
- 根拠が必要な箇所は「根拠が必要」と明記し、確認方法も提案してください。
----------------------------
とりま使ってみたい人は「ブクマ」をポチ December 12, 2025
28RP
当方のユイ阿梨(ハルシネーション増し増し)です
素敵なテンプレートお借りしました!楽しかったです! https://t.co/ITsnGScvXx https://t.co/9dabfTa5Eb December 12, 2025
22RP
診療支援AIはさすがにもう
使ってますか??
僕なんかはもはや
診療や教育の一部になっちゃってますね
ハルシネーションや
deskillingなどの能力低下など
気をつけなきゃいけないことはありますが
使いこなさないとやばいアイテムになりつつありますね
使い方、使ってる様子、注意点など
僕のアカウントで発信してますので
不安な人は一緒にやってみませんかー?
OpenEvidence、MedGen Japan
お好みの方をまずはゲットしてみてください
僕は両方使ってます。笑
コメディカルの方はOpenEvidenceしか登録できないです。
まだMedGen Japan使ったことない人は
以下から登録して使ってみてね(無料です)
https://t.co/DCF8gBuu0s
※この投稿はnihin mediaさんからのご支援をいたただいています
#みんほす
#NihinMedia @nihinmediakk December 12, 2025
11RP
ChatGPTで使えるプロンプトはとりあえずこれだけ覚えておけばOKです。
「いつもゼロから指示出ししてる」
「AIもっと上手く使う方法あるんじゃ...」
って思いながらもただの壁打ちで終えてる人はもったいない。
この6つのプロンプトだけ使えば、
AIを最強の相棒にできちゃいます。
副業に活用したい人やAIをマスターしたい人はすぐに使ってみて👇
① まず必ず入れたい【基本プロンプト】
これはどんな質問でも最初に付けてほしい型です。
ーーーーー
以下の条件を守って回答してください。
・推測や憶測はせず、事実ベースで回答する
・不確かな情報は「不確か」と明記する
・情報の前提条件・注意点もあわせて提示する
・一般論と例外がある場合は分けて説明する
ーーーーー
これだけでAIの”それっぽい嘘”が激減します。
② 「正しいかどうか」をAIにチェックさせるプロンプト
一度出た回答をそのまま信じないのが重要です。
ーーーーー
上記の回答について、
・事実として確度が高い部分
・誤解されやすい部分
・条件次第で変わる部分
を分けて整理してください。
ーーーーー
これを入れると、
AIが自分の回答をセルフレビューします。
③ ハルシネーション防止に効く【最重要プロンプト】
ーーーーー
この内容について、もし誤りや誇張、一般化しすぎている表現があれば指摘してください。
分からない点があれば「分からない」と正直に書いてください。
ーーーーー
これを入れると
AI特有の間違いがなくなります。
④ 専門分野・お金・法律・医療系で必須の型
ーーーーー
この回答はどの前提条件のもとで成り立ちますか?
また、実務・法律・地域・時期によって変わる点があれば明示してください。
ーーーーー
特に
・副業
・収益
・規約
・SNS運用
では必須です。
⑤ 情報ソースの扱いを明確にするプロンプト
ーーーーー
この回答は
・一般的に広く知られている事実
・実務経験や事例ベースの話
・傾向や考え方レベルの話
のどれに該当しますか?それぞれ分けて説明してください。
ーーーーー
これで
「事実」と「考え方」が混ざらなくなります。
※URLを無理に求めないように!
⑥ 1番おすすめの【鉄板フルセット】
これそのままコピペしてOKです👇
ーーーーー
以下のルールで回答してください。
・推測や断定は避け、事実と考察を分ける
・不確かな情報は不確かと明記する
・前提条件や例外があれば必ず書く
・誤解されやすい表現があれば補足する
・分からない点は無理に答えない
そのうえで、初心者にも誤解が生まれない形で説明してください。
ーーーーー
まとめると、
「正しい答えを出して」ってあいまいな指示を出すと答えもアバウトな当たり障りのないものになります。
「正しく整理して」
「不確かさも含めて説明して」
と具体的に指示を出していきましょう。
AIは正解を出す存在ではなく、情報を構造化する存在として使うと一気に信頼性が上がります。
もう一つ、
今すぐにでも使えて出力のレベルが上がるプロンプトがあります。
これはこのポストを
・ブクマ
・いいね
・リプ(感想でも何でも)
してくれた人にだけ特別にお伝えします!
ぜひ受け取ってくださいね👇 December 12, 2025
10RP
Gemini 2.5 Pro TTSにて「ハルシネーション」について、知的イケボでご解説いただきました。本当にありがとうございました。 https://t.co/tRwMT7F2lw December 12, 2025
6RP
GPT-5.2のスライド作成能力が驚異的。
ついに読み込ませたPDF論文中の図表に対して、ハルシネーションがほとんどなく画像認識 → 画像抽出 → 図表付きのpptxを出力できるようになってしまう。
Claude Opus 4.5 は、図表つきのpptxは出力できるけど、ここまで精度は良くなかったし、大量のtoken消費が課題だった。
論文の要約スライドについてはGPT-5.2がGemini 3.0 pro、nano banana、Claude Opus 4.5を超えている。
論文抄読会、どうすんだろう。
https://t.co/6O8BYxObDw December 12, 2025
6RP
これはガチの革命がおきてしまいました。昨日忙しくて、あまり触れてなかったんだけど『ChatGPT5.2Thinking』これめちゃくちゃすごい。『Gemini』一本でいこうと思ってたけど、二刀流でいこうと思います。再び課金しました。
ChatGPT5.2を使ってみて優れていると思った点
❶AIっぽさが圧倒的に減り人間ぽい(たつろう2号)
❷Thinkingでも爆速
❸ハルシネーション(嘘)が少ない(38%抑制されたらしい)
OpenAIが提唱した新ベンチマーク「GDPval」のスコア。44の職業での業務成果物を評価するもので、GPT-5.2 Thinkingは 70.9% のタスクで専門家と同等以上の成果とのこと。やばいて December 12, 2025
5RP
OpenAIはGPT-5.2発表。Gemini 3 ProやClaude 4.5 Opusと比較し各種ベンチマークで飛躍。ARC-AGI 1/2でもSoTA。実際の経済的有用性を専門家と比較するGDPvalでは70%以上と専門家以上のパフォーンスを記録。SWE-bench Verifiedでは、GPT-5.2 Thinkingが80%で最高スコア。ハルシネーションも大幅に減り、ロングコンテキストベンチマークも飛躍。 December 12, 2025
5RP
⛄️COMIC CITY 東京 152 RTS!! 48⛄️
お品書き
✧ 新刊※R18
瀬見川小説『ハルシネーション・ラブ』
✧ 既刊※R18
白川小説『白魚の渇き』
猯雲小説『望雲の塔』
✧ GODS
白鳥沢チェキ4種セット
✧ TAKE FREE
白鳥沢ランダムチェキ1枚
✦ 通販※会場頒布残部
当日21時-BOOTH &FOLIO https://t.co/iPHv5m6Xof December 12, 2025
4RP
Googleハレンさんのプレゼン。AIエージェントとAIエージェントの間でのやりとり、課題提起後に知らないところで細かいハルシネーションが積み重なって、失敗する伝言ゲームみたいになったりしないのか気になった。
人とエージェントでやるよりも精度が上がる仕組みとかあるのかな。
#JapanAI大忘年会 December 12, 2025
3RP
📕OpenAIがGPT-5.2プロンプティングガイドを公開
「何が変わったか」そして「どう使えばいいか」整理しました
結論から言うと、GPT-5.2は『指示に忠実で、余計なことをしなくなった』モデルです
これまでのGPTって、聞いてないことまでベラベラ話したり、頼んでない機能を勝手に追加したりすること、ありませんでしたか?GPT-5.2はそこが大きく改善されています
公式ドキュメントには「より計画的な構造化ができる」「全体的に冗長さが減った」「指示への忠実度が上がった」と記載
要するに、『言われたことを、言われた通りに、簡潔にやる』ようになった
じゃあ具体的にどうプロンプトを書けばいいのか?
ガイドで特に強調されているのが『出力の長さと形式を明確に指定する』ことです。
例えば、こんな指示を入れておくと効果的だそうです
「通常の回答は3〜6文、または5つ以下の箇条書きで」
「はい/いいえで答えられる質問には2文以内で」
まず『答えは○文以内で』『箇条書きなら○個まで』と具体的な数字で指定してみてください。これだけでダラダラした回答がグッと減ります
もう一つ大事なのが『スコープドリフト(範囲の逸脱)を防ぐ』こと。
GPT-5.2は優秀なんですが、放っておくと「こうした方がいいかも」と親切心で余計なことをしがち。特にコード生成で顕著だそうです
対策として、ガイドではこう書くことを推奨しています
「ユーザーが要求したことだけを、正確に実装せよ」
「余計な機能、追加のコンポーネント、UXの装飾は一切不要」
私なりに倭国語で書くなら『頼んでいないことは絶対にやらないでください。シンプルが正義です』くらいでしょうか。
長い文章を読ませる時のコツも紹介されています
「1万トークンを超える長い入力の場合、まずユーザーの要求に関連する重要セクションの短い概要を作成せよ」
つまり『まず全体を把握してから回答してね』と伝えるだけで、「途中で話が迷子になる」問題が減る。
そして個人的に一番刺さったのが『ハルシネーション(嘘)対策』の部分
「不確かな時は、具体的な数字や行番号、外部参照を捏造するな」
「確信がない時は断定せず『提供された文脈に基づくと...』のように表現せよ」
AIが自信満々に嘘をつく問題、まだ完全には解決していません。でも『わからない時は「わからない」と言って』とプロンプトに書いておくだけで、だいぶマシになります
最後に、GPT-4oやGPT-4.1から移行する人へ。
ガイドによると「GPT-4oからGPT-5.2に移行する場合、reasoning_effortはnone(思考なし)から始めよ」が推奨されています。いきなり「深く考えて」モードにすると、コストも時間も跳ね上がるので注意とのこと
まずは今のプロンプトをそのまま試して、問題があれば調整する。「一度に一つずつ変更する」のが鉄則だそうです
まとめると、GPT-5.2を使いこなすコツは
『何文字で答えて』と具体的に指定する。『頼んでないことはやらないで』と明示する。『わからない時はわからないと言って』と伝える
たったこれだけで、AIの回答品質はかなり変わります
この忠実に守る思考ハックして、ChatGPTをさらにキレッキレにするコツはリプ欄へ ↓ December 12, 2025
2RP
最近の若手。「LLMを使う」のではなく「LLMに使われてる」方が多い気がしてる。方針や判断の間違え、ハルシネーション補正をしないとLLMから出てくるアウトプットは質の低いアウトプットになる。質の低いアウトプットはノイズとなりチームの生産性を下がるが本人は良いアウトプットしたつもりなの辛い December 12, 2025
2RP
【AIに騙されてない?】
ChatGPTの嘘を防ぐための、OpenAI公式の4つのテクをまとめました。
嘘に騙されないように今すぐ保存して実践しましょう!
テキストベースでもまとめてあります👇
<ハルシネーションを防ぐ4つのテクニック>
1. 参照テキストを提供する
目的: 記憶に頼らせず、手元の資料から答えさせる。
❌ 悪いプロンプト(嘘をつきやすい)
「〇〇(最新ニュースや社内知識)について教えて」
なぜダメか: AIの学習データに含まれていない、または古い情報の場合、もっともらしい嘘を捏造して埋め合わせようとするため
✅ 正しいプロンプト
「以下の【参考記事】に基づいて、〇〇について説明してください。記事に書かれていないことは『情報がありません』と答えてください。
【参考記事】 (ここにニュースやドキュメントの本文を貼り付ける)」
2. 引用元を明示させる
目的: 根拠のない作文を防ぎ、検証可能にする。
❌ 悪いプロンプト(嘘をつきやすい)
「この資料の内容をまとめて」
なぜダメか: 全体をなんとなく要約する過程で資料にない情報を混ぜたり、ニュアンスを変えてしまうことがあるため
✅ 正しいプロンプト
「以下のドキュメントを使って質問に答えてください。回答する際は、その情報がドキュメントのどの部分に基づいているか、引用元(記載箇所)を明記してください。」
3. 思考のプロセスを書かせる
目的: 論理の飛躍や計算ミスを防ぐ。
❌ 悪いプロンプト(嘘をつきやすい)
「この計算の答えはいくつ? 即座に回答だけ教えて」
なぜダメか: 人間が暗算でミスをするのと同様に、途中の計算式や論理ステップを省略すると、単純な間違い(計算ミスや論理破綻)を起こしやすいため
✅ 正しいプロンプト
「結論を出す前に、まずは問題を解決するための手順をステップバイステップで書き出してください。その上で、最終的な回答を提示してください。」
4. 「分からない」と言うことを許可する
目的: 無理な捏造をストップさせる。
❌ 悪いプロンプト(嘘をつきやすい)
「この文章に出てくる〇〇という人物の経歴を教えて」
なぜダメか: 「ユーザーの質問には答えなければならない」というプレッシャーから、同名の有名人の経歴を勝手に持ってきたり、架空の経歴を作ってしまうため
✅ 正しいプロンプト
「質問に対する答えが提供された情報の中にない場合は、無理に答えを作らず、『分かりません』と答えてください。」 December 12, 2025
2RP
【AIの「信頼度」を、4つの視点で再定義する🧐】
もっともらしい回答に潜むリスクを回避するために。Google DeepMindなどが提案する「The FACTS」は、AIの事実性を測るための複合テストです。
自らの知識、検索能力、資料や画像の読解力。これらを個別に評価することで、モデルの特性が浮き彫りになります。
これにより、抜け漏れなく情報を拾う「網羅性重視」か、誤りを徹底して避ける「正確性重視」かなど、用途に合わせた最適なモデル選定の指針が得られるかもしれません。
最先端モデルたちは、この厳格なテストでどのような"個性"を見せるのか?
👇詳細はリプ欄の動画で!
#FACTS #DeepMind #ハルシネーション December 12, 2025
2RP
壕野一廻様@Type10TK 『月下の王女とバックドア』読了
とても面白かったです。異様な様相を呈している違和感ある蓮子とメリーの世界、がハルシネーションだったという読み口大変SFで面白かったです。
かなりぶっ飛んだ秘封世界でしたが、あれはハルシネーションで作られた偽物だから? それとも December 12, 2025
2RP
Oracleの時価総額3600億ドル消失。AIバブルの崩壊か、それとも覇権交代の合図か?9月の過去最高値から約40%下落したOracle。SoftBankも同様に高値から40%を失った。この「AI偏重型投資家」の顔色を失わせている元凶は、たった一つの共通点にある。
OpenAIへの巨額コミットメントだ。
OracleはStargateプロジェクトで3000億ドル以上のインフラを、SoftBankは300億ドルの資金を約束した。市場は今、冷徹な問いを突きつけている。
「OpenAIは本当にこの巨額の支払いを続けられるのか?」
対照的に、Alphabet(Google)は我が世の春を謳歌している。
11月25日には過去最高値の328.83ドルを更新。時価総額は4兆ドルに迫り、マグニフィセント・セブンで2025年最高のパフォーマンスを叩き出した。
Bloombergの分析によれば、OpenAI関連銘柄バスケットは年初来74%上昇にとどまる一方、Alphabet関連銘柄は146%上昇。数字だけを見れば、勝負は決したように見える。
しかし、この「OpenAI vs Alphabet」という二項対立で市場を見るのは、投資判断において致命的なミスとなる可能性がある。
なぜこの構図が生まれ、そしてなぜそれが「罠」なのか。深層を解像度高く掘り下げていく。
事の発端は、2025年8月のGPT-5「bumpy launch(でこぼこな船出)」にある。
サム・アルトマンは「PhDレベルの知性」を謳った。ベンチマークスコアは確かに高かった。AIMEで94.6%、SWE-benchで74.9%。数字上は進化している。
だが、Axiosが「GPT-5 has landed with a thud(ドスンと着地した)」と報じた通り、市場の空気は冷ややかだった。
単純な数学ミス、地理的な誤り。
Redditでは「ChatGPTが劣化している」というスレッドが乱立した。ハルシネーションは45%減少したものの、ユーザーが求めていた「魔法のような体験」はそこにはなかった。技術的改善とユーザー体験の乖離。これが最初の亀裂だ。
その隙を、Googleは完璧なタイミングで突いた。
11月18日、Gemini 3のリリース。
LMArenaでのEloスコア1501という圧倒的な数値もさることながら、投資家を唸らせたのは「配信基盤」の暴力的なまでの強さだ。
Google Searchの20億ユーザー、Gemini Appの6.5億ユーザーに即日展開。ChatGPTが数年かけて築いた城壁を、Googleは既存のエコシステムという「重力」で一瞬にして乗り越えた。
さらに「Generative Interface」によるUIの自動生成や、エージェント開発基盤「Google Antigravity」の投入。
これによりAlphabet株は暴騰し、市場は「Googleの勝利」を確信した。
これを受け、12月2日。ChatGPT 3周年の翌日にアルトマンが出した指令は「Code Red」だった。
社内の全部署に対し、広告事業やショッピングエージェント開発を棚上げし、リソースをChatGPTの品質改善に全振りするよう指示。内部ではこれを、ソ連の宇宙進出に衝撃を受けた米国の状況になぞらえ「Sputnik 2.0」と呼んだという。
ここまでのストーリーをなぞれば、Alphabetを買うのが正解に見える。
だが、ここで一度立ち止まってほしい。
冒頭で触れた「Alphabet関連銘柄」の好調さ。
この中身を分解すると、奇妙な事実が浮かび上がる。例えば、Alphabet関連として分類され高騰しているBroadcom。
実はBroadcomは、OpenAIの競合であるAnthropicから210億ドルの受注を獲得している。
また、同じく好調なLumentumの顧客リストには、GoogleだけでなくMetaやMicrosoftも名を連ねている。
つまり、市場で見えている「Alphabetの勝利」という株価上昇の一部は、実は「AIモデル間の競争激化による、インフラ・ハードウェア企業への特需」が本質である可能性がある。
OpenAIが苦戦しGoogleが躍進するというナラティブは分かりやすい。しかし、投資家として見るべきは、どちらが勝つかというギャンブルではない。
「どちらが勝とうとも、必要とされる構造的な強みを持つ企業はどこか」という視点だ。
Googleの勝因はモデルの性能そのものより、それを20億人に届けるパイプラインにあった。 一方、株価が好調な周辺銘柄は、特定のAIモデルに依存しない「全方位外交」で収益を上げている。
表面的な「主役交代」のニュースに踊らされてはいけない。
今起きているのは、AIの価値が「モデルの知能」単体から、「ディストリビューション(配給網)」と「インフラの耐久力」へとシフトしている現実だ。
Code Redを発令したOpenAIが巻き返すのか、Googleがこのまま覇権を握るのか。 その行方を注視しつつも、我々は「ゴールドラッシュでツルハシを売っているのは誰か」という、より冷静な視点でポートフォリオを点検する必要がある。
ポートフォリオは、特定のナラティブに賭けすぎていないだろうか?
続きはnoteを読んで。
https://t.co/jU3yh9bPvy December 12, 2025
2RP
人間の専門家のほうがよっぽどハルシネーション多いですね
情報不足による事実とは違うことをドヤ顔で語る
GPT-5.2はリンクまで貼ってくれるんだからロバストさが求められる判断をするときはしっかり裏も取ればいいだけ
あんたら人間の専門家のとき裏取ってんの?嘘つきまくりだけど
っていうね https://t.co/Clzn1JZi72 December 12, 2025
1RP
リーガルテックさんで無料のオンラインセミナーをします!
生成AIを単なるツールとして使うのではなく、パートナーとして活かすためのコツをお話ししたいと思います。
是非ご参加下さい🙇♂️
プロのサーチャー弁理士が明かす! 生成AI時代の「特許調査の鉄則と実践」 〜生成AI活用時の「コツ」と実務への活かし方〜
詳細
【知財×AIリーガルテックセミナー】
<第22回>
・開催日時:2026年1月14日(水)16:00~17:00
・開催形式:オンライン(Microsoft Teams)
・主催:リーガルテック株式会社
・参加費:無料(事前申込制)
https://t.co/1OUBBLwFUO
セミナー内容
生成AIは、特許調査のスピードと精度を劇的に変えつつあります。しかし、生成AIの革新的な能力の裏側には、ハルシネーションリスクや、適切なクエリ設定ができないことによる「使えない結果」という落とし穴が存在します。
本セミナーでは、特許調査の最高峰である特許検索競技大会で最優秀賞を受賞した経験を持ち、現在は特許検索競技大会の実行委員長も務める角渕由英弁理士が登壇します。長年のサーチャー指導経験を持ち、生成AI活用に関するコンサルティングも多く行っている角渕氏が、ツールの種類に関係なく、生成AIを特許調査に導入する際に必ず押さえておくべき「汎用的な鉄則」を徹底解説します。
具体的には、精度の高い先行技術調査を実現するための生成AIへの問いかけ方、誤情報を避けながら効率的にスクリーニングを進める実務的なコツに焦点を当て、角渕氏作成のプロンプトも紹介します。
また、これらのノウハウを実際の操作画面で確認していただくため、生成AI搭載型の特許検索ツールの一つとして、角渕氏もユーザーでもある「https://t.co/Ph8YbdjMC0」を例に、具体的なデモンストレーションを短時間で実施します。
本セミナーは、最新のAI技術を単なる効率化ツールではなく、調査結果の質を高めるための強力なパートナーとして活用したい、すべての知財・研究開発担当者にとって必見の内容です。
本セミナーで学べること
・生成AIに依存しすぎない! プロの特許サーチャーが守っている調査の「普遍的な鉄則」
・生成AI特許調査で精度の高い結果を導き出すための、クエリ設計とプロンプトの「コツ」
・AI利用時に回避すべきハルシネーション(誤情報)や、検索漏れのリスクとその対策
・AIツールを活用した調査報告・分析の新しい効率化手法 December 12, 2025
1RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



