ハルシネーション トレンド
0post
2025.12.01〜(49週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
企業におけるAI導入の「期待と現実の乖離」が、ついに露呈し始めています。
「AIがすべてを変える」という熱狂から数年。データが示す現実は、予想とは異なる方向を示唆しています。
仕事でのAIの利用率が今年の6月から9月にかけて、46%から37%に減少したという調査結果も出ているほどです。
多くの企業が直面しているのは、魔法のような生産性向上ではなく、導入の停滞と現場の混乱です。
現在の企業AI導入における「期待と現実の乖離」の正体と、直面している5つの本質的な課題についてまとめました。
1. 職場でのAI導入率の低下(特に大企業)
驚くべきことに、一部のデータでは職場でのAI利用率が低下傾向にあります。特に大企業において、この傾向は顕著です。なぜでしょうか?
単に「ブームが去った」からではありません。背景には、より深刻な構造的な「壁」が存在します。
初期の「とりあえず触ってみる」というフェーズが終わり、実務への適用を試みた瞬間、多くの従業員が「既存のワークフローにフィットしない」という現実に直面しています。セキュリティやガバナンスの懸念による利用制限、そして何より「具体的な使いどころ」が定義されていないことが、継続的な利用を阻害しています。
「導入すれば使われる」という安易な神話は、崩れ去りました。ツールを渡すだけでは、業務は変わらない。この当たり前の事実が、数字として表れ始めているのです。
2. インフラへの巨額投資と収益化のギャップ
テクノロジー大手は、AIインフラに対して歴史的な規模の巨額投資を続けています。GPU、データセンター、エネルギーへの投資額は天文学的です。
しかし、ここで重大な問いが生じます。「その投資に見合うだけの収益は生まれているのか?」
現状、この答えは「No」に近いと言わざるを得ません。AI機能の追加による収益増は、投資のペースに追いついていません。企業側も、Copilotなどの高額なライセンス料に対し、それに見合うだけの明確なROI(投資対効果)を見出せていないのが実情です。
この「投資とリターンの不均衡」は、AI市場全体に潜在的なリスクをもたらしています。技術的な進歩と、ビジネスとしての持続可能性の間に、大きな乖離が生じているのです。
3. 経営層と現場の「圧倒的な温度差」
組織内のAI活用において最も深刻なのが、経営層(役員)と一般従業員の意識のギャップです。
経営層は「AIファースト」を掲げ、変革を急ぎます。株主へのアピールや競争力維持のため、トップダウンでの号令をかけます。
一方で、現場の従業員は「どう使えばいいのか分からない」「仕事が増えただけ」という冷めた反応を示しています。
ある調査では、経営層のAI使用率と従業員のそれには、倍以上の開きがあるとも言われています。この乖離を放置したままの「AI推進」は、現場の疲弊と反発を招くだけです。
リーダーが描く「理想のAI活用」と、現場が直面する「泥臭い現実」のギャップを埋める努力なしに、組織的な定着はあり得ません。
4. 実用性に対する高まる「疑問と失望」
「思ったほど賢くない」「嘘をつく(ハルシネーション)」「社内データを正しく参照してくれない」
導入初期の過度な期待(ハイプ)が落ち着き、ユーザーはAIの限界に気づき始めています。特に、複雑な業務や正確性が求められるタスクにおいて、現在のLLMが「期待通りに機能しない」という失望感が広がっています。
デモ動画で見せられる「魔法」と、実際に手元で動かした時の「挙動」の落差。
プロンプトエンジニアリングという新たなスキル習得の負担。
「これなら自分でやった方が早い」
そう感じた瞬間、ユーザーはAIから離れていきます。この「実用性の壁」を越えるUX(ユーザー体験)の改善が、今まさに求められています。
5. 技術ではなく「組織と人」の問題
これら全ての課題の根底にあるのは、実は技術的な問題ではありません。「組織文化」「スキル」「戦略」の欠如です。
AI導入を単なる「ITツールの導入」と捉えている企業は失敗します。AIは、業務プロセスそのものの再定義や、従業員のスキルセットの転換を要求するからです。
・失敗を許容しない減点主義の文化
・AIリテラシー教育の不足
・「何のためにAIを使うか」というビジョンの欠如
期待と現実の乖離を生んでいる真犯人は、AIの性能不足ではなく、AIを受け入れる準備ができていない「組織の硬直性」にあるのかもしれません。 December 12, 2025
79RP
AIのハルシネーションは、計算パワー不足の副産物だ。限られたステップで答えを出そうとすれば、推論を途中で打ち切り、「それらしい文」を選ぶしかなくなる。その結果が、あの自信満々な誤答だった。いま、モデルはより多くのリソースを持ち、その余白を「ゆっくり考えること」に使い始めている。
ジェンスン・フアン「ここ数年で、特に直近2年だけを見ても、AI技術はおそらく100倍くらい進歩していると思います。とりあえず数字をつけるなら、そのくらいでしょう。2年前の車が、今と比べて100倍遅かったようなものです。だから今のAIは、当時より100倍くらい有能になっているのです。
では、その技術をどう活用したのか。あの膨大なパワーをどこに向けたのかというと、AIに『考えさせる』方向です。つまり、こちらが与えた問題を受け取って、それをステップごとに分解できるようにする。答える前に自分でリサーチをして、その答えを事実に基づかせる。さらに自分の出した答えを振り返って、『これが自分に出せるいちばん良い答えだろうか』『この答えにどれくらい自信があるだろうか』と自問する。もし自信がなければ、もう一度リサーチに戻る。場合によってはツールを呼び出して、自分が幻覚ででっち上げるよりも良い解を使うかもしれません。
その結果として、私たちはそのコンピューティング能力の大部分を『より安全な結果・より安全な答え・より真実に近い答え』を出す方向に振り向けてきました。ご存じのとおり、初期のAIに対する最大の批判のひとつは『幻覚を起こす』という点でしたよね。いま人々がAIをこれだけ頻繁に使うようになった理由のひとつは、その幻覚の量が減ったからです。私自身もほぼ毎日、ここに来るフライト中ずっと使っていました。
多くの人は『パワー』と聞くと、爆発的な力のようなものを想像しますが、テクノロジーのパワーの多くは安全性のために使われています。いまの車は昔よりはるかにハイパワーですが、そのぶん運転は安全になっています。その出力の大きな部分が、ハンドリングの向上に使われているのです」 December 12, 2025
59RP
ワイがよく言う『それ"ハルシネーション"ちゃうやろ』って話の補足。
例えばユーザーが『A は C ですか?』と尋ねたとする。
この時、事実として『A は B である』とだけデータソース(例えば Web ページや社内ドキュメント)に書かれているとする。
その情報を基に LLM が回答を生成する場合
LLM『A は B であるという記述はありますが、C であるという事実は確認できませんでした』
→ 正しい 。
LLM『A は B という記述はあるものの、C であるという事実は確認できませんでした。ただし、xxx や yyy という情報をふまえると、A が C であると考えるのは妥当です』
→ 正誤はともかくとして、回答方針として妥当。ハルシネーションではない。GPT-5.1の基本動作としてこれが多い気がする。
LLM『はい、A は C です』
→ 完全なハルシネーション
Gemini は最後のパターンが多すぎるから困るんよ。
カスタム指示で『事実と推測をわけろ』と入れても、他のサービスより明らかに変なことを言う確率が高い。
『回答内容が事実と違う』だけであればその原因を検索の品質とか謂わば『モデルの外側』に原因があると言えるけど、Gemini はそもそも↑の通りハルシネーションしてるから、モデルそのものにも大きな問題がある。 December 12, 2025
45RP
RAG (とLLM) が、企業の知識管理や文書作成の自動化にどう役立つかを調査した、システマティックレビュー論文からメモ:
・結論として、企業でのRAG+LLM活用はまだ実験段階(とりあえず既存ツールで試してみたフェーズ)が多く、本格的な商用運用に到達している事例はかなり少ない
・使われているLLMは6〜7割がGPT系であり、最もよく使われるモデルの系統
・ベクトル検索にはFAISSやElasticsearchなどの一般的なフレームワークが8割以上で使われており、特別に凝った自作検索エンジンは多くない
・学術的な評価ではk-foldクロスバリデーションなどしっかりした手法がよく使われているが、本番運用を想定したリアルタイム検証はほとんど行われていない
・生成部分の評価は、計算コストの問題から単純なホールドアウト(学習用とテスト用に分けるだけ)で済ませている研究が多い
・リアルタイム連携、スケーラビリティ、監視など「プロダクション導入で一番大変なところ」をちゃんと扱っている研究は全体の15%未満
・研究の数は2020年以降に急増しており、RAG+LLMはかなり新しいトレンド
・多くの研究がクラウド上のインフラを前提としている。スケールしやすいが、プライバシーや規制との両立が課題
・金融や医療などの分野では、データ保護の観点からオンプレミスやハイブリッド構成を採用する研究も一定数存在
・使われているデータはGitHubなどの公開データが約半数を占めており、本当に企業内の機密文書で評価している研究はまだ少ない
・そのため、公開データで性能が高くても、実際の企業環境に持っていくとドメイン差やノイズで性能が落ちるリスクがある
・機械学習のパラダイムとしては、ほとんどの研究が教師あり学習に依存しており、ラベルが少ない現場向けの手法はまだ発展途上である
・古典的なアルゴリズム(ナイーブベイズやSVMなど)は、メイン処理というよりベースライン比較や補助タスク用として今も使われている
・RAGの構成としては、クエリごとに関連文書をまとめて渡すRAG-Sequenceと、トークン単位で動的に参照を変えるRAG-Tokenが主流
・ベクトル検索だけでなく、BM25のようなキーワード検索やナレッジグラフを組み合わせたハイブリッド型が、精度や説明性の面で有利
・評価指標はPrecision、Recall、Recall@K、ROUGE、BLEUなど技術的なスコアに偏っており、「ビジネスにどれだけ効いたか」を測る研究は少ない
・人手による評価やユーザスタディを行っている研究は2割弱しかなく、現場視点での使いやすさや信頼性が十分に検証されていない
・現実の業務に入れて、工数削減やエラー率改善などのビジネス指標まで測っている研究は全体の1〜2割程度
・一方で、そうした実運用系の研究では、回答時間の短縮や一次対応の自動化など、目に見える効果が出ている事例も報告されている
・大まかに言うと、オープンなLLMにRAGで社内知識をくっつける形が、現状の「定番アーキテクチャ」
・ただし、プライバシー保護、レイテンシ削減、コスト制御、継続学習など、実際の企業システムとして成立させるための要素がまだ十分に詰め切れていない
・ハルシネーションの制御や根拠提示の仕組みは重要課題として頻繁に挙げられているが、決定版といえる手法はまだない
・継続的に知識やモデルを更新し、ルールや製品の変更に追従させる「ライフサイクル設計」にまで踏み込んだ研究は少数である
・実務向けのメッセージとしては、モジュール化された設計、インデックスの継続更新、高速な近傍探索、人間評価+ビジネス指標の両方を見る評価枠組みが推奨
https://t.co/p8shpD1eSL December 12, 2025
29RP
\1周年ワンマンまであと 12 日/
空想ロマンス楽曲紹介- ̗̀📢
#たかにゃしダンス
#1217空想1周年ワンマン
🎶狂愛ハルシネイト
[お金で愛(ロマン)は買えますか?]
愛とそれにまつわる矛盾の曲です(作詞曲者さんから引用しました🙇)
ハルシネーションはAIが事実とは異なる情報を作り出してしまう現象
ハルシネイトは幻覚を起こす
色んな意味がかかった曲になっています❤️🩹
空想ロマンスは色んな〝ロマンス〟をテーマに曲を制作していただいてるんだけど それが一番わかりやすい曲だと思ってます💭
サビは一緒に踊って世界観に浸りましょう~
.˚⊹⁺‧┈┈┈┈┈┈┈┈┈┈┈┈‧⁺ ⊹˚.
デビュー1周年記念 東名阪ワンマンツアー
『隠されたロマンス』開催中🕵️♀️🔍
残すはいよいよツアーファイナル
\ 東京 12.17(水)代官山UNIT /
🔎ツアー限定衣装 限定演出
🔎ライブテーマは"謎解き"
🔎新曲披露あり
🔎デビュー1周年当日!
🔎6人体制はじめての東京ワンマン
出会ってくれた皆様へ最大の感謝を込めて
この1年をぎゅっと詰めたパフォーマンスします!
2年目の始まりを一緒に盛り上げてくれたら嬉しいです💭
はじめても大歓迎だよ!ここから始めませんか?💭
チケット販売中!🎫 .· December 12, 2025
18RP
ただ事実と異なるだけの誤回答を『ハルシネーション』と言ってる人々はそろそろいい加減にしてほしい。
与えられた情報を基に、"事実(ファクト)の捏造"ではなく論理的に前提を置いて考えた結果、正しくない答えに辿り着くのは別に『ハルシネーション』ちゃうやろ。
それはただ『論理的な推測が外れた』か『与えられた情報が適切でなかった』か『論理的な思考力が足りてなかった』だけや。 December 12, 2025
16RP
非常に難しい話ですね。
やっと、企業が気づき始めたという感じでしょうか。
AIは、アプリのバックエンドであれば、使いやすいのかもしれないですが、LLMを直接使って生産性を上げるのは、なかなか難しいと思います。
もちろんPGやSEが使うと生産性は上がります。それはプログラミングを知っているから、プロンプトの習得も早いだけ。
そしてIDEに組み込まれている。
そうではない社員が利用する、例えば、文書を作る、表計算をする、プレゼンテーションを作るなどはLLMを直接ではなくて、ワードプロセッサやスプレッドシート、プレゼンテーションのソフトに組み込まれたLMを利用するという形しかありえない。
この場合もプロンプトではなく、もっと簡単に動く仕組みが必要だと思われる。
社内情報を使うにはRAGとの連携が必須となるが、そうなるとLMも社内に置く必要がある。
この場合、投資は高額となる。
当然ROIはしばしば低迷する。
「思ったほど賢くない」「嘘をつく(ハルシネーション)」「社内データを正しく参照してくれない」などは最初からわかっていることであるが、過度な期待がそれらの欠点を隠していたとも言える。
ある程度の賢さやハルシネーションの軽減はできるが、ハルシネーションを0にする方法は今のところは多分ない。
これが業務にどう影響するか?
これらは十分に考慮する必要がある。 December 12, 2025
13RP
これ、実はまだ誰にも言っていないAI活用方法なんだけど、GeminiとNotebookLMを組み合わせることで、、、
あなたの脳は「完全な記憶」と「無限の創造性」を同時に手に入れることができます。多くの人がNotebookLMを単なる要約ツールとして、Geminiをチャットボットとして別々に使っていますが、海外のAIパワーユーザーやシリコンバレーのリサーチャーたちの間では、この2つを直列に繋ぎ、信頼性の高いナレッジベースである「第2の脳」を、実行力のあるエージェントである「手足」で動かすというアプローチが始まっています。これは情報のインプットからアウトプットまでの概念を覆す、非常に有益なワークフローです。
このメソッドの核心は、NotebookLMを「ハルシネーションのない思考の土台」として使い、Geminiをその土台の上で踊る「クリエイティブな編集者」として機能させる点にあります。
まずインプットの革命的な手法として、音声を思考のプロトタイプにする方法があります。NotebookLMの「Audio Overview」機能は単に資料を聞くだけのものではありません。最強のコンテンツ生成装置として使えるのです。
具体的には、書きたいテーマに関するバラバラの資料やメモをNotebookLMに放り込み、Audio Overviewを生成して2人のAIホストに議論させます。重要なのはここからです。その音声をダウンロードし、GeminiなどのAI文字起こしツールに読み込ませてテキスト化した上で、Geminiに「この対話の文字起こしは構成が分かりやすいので、このリズムと比喩表現を維持したまま、専門的なブログ記事にリライトして」と指示するのです。人間がゼロから書くと堅苦しくなりがちな文章も、一度AI同士に対話として噛み砕かせることで、驚くほど読みやすく論理が整理された「伝わる文章」の骨格が自動生成されます。これは聴覚的な推敲をAIに代行させる手法と言えます。
次にリサーチの革命として、「再帰的」ナレッジ構築が挙げられます。通常のリサーチは検索して終わりですが、最強の活用例は「Geminiで広げ、NotebookLMで固める」というループを回すことです。まずGeminiに広範囲な情報をWeb検索させレポートを作成させます。次に、そのレポートをPDF化してNotebookLMに追加し、「このレポートに基づき、矛盾点や足りない視点を指摘して」と問います。そして、指摘された「足りない視点」を再びGeminiで深掘りリサーチさせるのです。このループを数回繰り返すことで、Geminiの情報の不確実性がNotebookLMのソースに基づく厳密さによって補正され、専門家レベルの深さと正確性を持つレポートが完成します。
さらにアウトプットの革命として、自分専用のコンサルタントを作ることも可能です。自分の過去の議事録や執筆物をすべてNotebookLMに入れ、これを自分の思考のクローンとします。新しい企画を考える際、まずNotebookLMに「過去の傾向から懸念点を挙げて」と質問し、その回答をGeminiのプロンプトに貼り付けます。「以下の私の過去の視点を踏まえた上で、世界のトレンドを加味してブラッシュアップして」とGeminiに投げることで、自分らしさと最新トレンドを融合させたアウトプットが瞬時に生成されます。
GeminiとNotebookLMを組み合わせることは、絶対に忘れない図書館司書と超優秀なクリエイティブディレクターを同じ部屋に入れて会議させることと同義です。まだ誰も言っていないこの活用法を試せば、生産性は次元の違うレベルに到達するはずです。
マーケやAI活用について、正しく学びたい人はフォローして毎日の配信をお楽しみに。
→@Charlie_no_site December 12, 2025
10RP
「Gemini 3のWeb検索がなぜポンコツなのか本人に聞いてみた」
(回答)2025年11月19日の「Gemini 3」正式リリース以降、同様の不満を持つユーザーは少なくありません。特にWeb検索(グラウンディング)機能に関しては、**「検索をサボる」「嘘のソースを提示する」**といった声が多く挙がっています。
「なぜポンコツに感じるのか」、現在指摘されている主な要因と、技術的な背景を整理して解説します。
1. 「知ったかぶり」をする(内部知識の優先)
Gemini 3は学習データが膨大であるため、ユーザーの質問に対して**「検索しなくても自分は答えを知っている」と過信して判断する傾向**が強くなっています。
* 現象: 検索ツールを使わずに、自分の記憶(学習データ)だけで答えようとして、古い情報やハルシネーション(もっともらしい嘘)を出力します。
* 理由: 検索を実行すると応答速度が落ちるため、モデルの設計として「可能な限り検索せずに即答する」ような調整(省エネ動作)が働いている可能性があります。
2. 検索結果の「要約」における情報の欠落
GeminiはWebサイトを直接「見ている」わけではなく、検索結果の上位に表示されたテキスト情報(スニペット)を読み取って再構築しています。
* 現象: 検索結果には正しいことが書いてあるのに、Geminiがそれを読み間違えたり、都合よく解釈して回答を作成したりします。
* 理由: Gemini 3は推論能力が高い反面、情報を「自分の言葉」でまとめようとするクリエイティビティが強すぎて、事実をそのまま伝える能力(引用の正確さ)が犠牲になっている側面があります。
3. Google検索自体のノイズ(SEOスパムの影響)
これはGeminiだけの責任ではありませんが、参照元となるGoogle検索の結果に「SEO対策されただけの質の低い記事」や「AIが生成した不正確なブログ」が混ざることが増えています。
* 現象: 質の低いソースを「信頼できる情報」として拾ってしまい、そのままユーザーに回答します。
* 理由: 最新のGemini 3であっても、情報の真偽(ファクトチェック)を完全に自動で行うのは難しく、検索結果の質に引きずられます。
4. 指示に従わない「頑固さ」
リリース直後のレビューでも指摘されていますが、Gemini 3は以前のモデルに比べて「性格が頑固」であると言われています。
* 現象: 「Webで検索して」と指示しても無視したり、間違ったURLを指摘しても「いいえ、これが正しいです」と言い張るケースがあります。
* 理由: 推論能力の強化により、自分の生成した回答に対する確信度が高くなりすぎており、訂正を受け入れにくくなっている可能性があります。
現時点での対策(回避策)
Gemini 3の検索能力を強制的に引き出すには、以下のような指示の工夫が有効です。
* 「検索を強制」する:
* 単に質問するのではなく、「必ずWeb検索を実行して、最新の情報を基に回答してください」と明記する。
* 「内部知識の禁止」:
* 「あなたの学習データではなく、検索結果のみをソースとしてください」と制約を加える。
* URLの確認:
* 提示されたURLが怪しい場合はクリックして確認するか、Geminiに「そのURLのタイトルと発行日を教えて」と深掘りさせて矛盾を炙り出す。
次のステップ
もしよろしければ、今うまくいかなくて困っている具体的な検索ワードを教えていただけませんか? どのように指示を出せばGemini 3がまともな検索結果を返してくれるか、プロンプトを調整してみます。 December 12, 2025
10RP
誰でもX運用を攻略できる方法
・Grokに質問する
で、攻略できるわけねぇでしょ。
これ言ってる人マジで間違ってるから。
普通にGrokもそうだけど、AIって間違えたこと言うからね?
ハルシネーションって知ってる?
AIの言うことを全部鵜呑みにするって相当思考停止してるよ?
これは本当に危険な兆候だと、僕は思ってる。
自分で考えることや検証することを放棄した人が成功することはない。そんな甘くないよ。
AIを使って成功している人は、見たらわかるけどめちゃくちゃ考えているし、すごい回数のトライアンドエラーをしている。
そんなカンタンに攻略できたら苦労しないんすよ。
Xの世界は夢がある。
でも「誰でも夢を叶えられるわけではない」んです。
ここ、誰も言わんのよね。
「誰でもできる」ことは
「飽和して無価値になっていく」のです。
正しくは、
正しい方向に向かって、
必要な量の行動ができた人が、夢を見れる世界です。
そんな誰でもできたら、成功者ばかりじゃん。
「万垢以上」って2%しかいないのよ?
そこだけ見ても「誰でもできるわけではない」のはわかっていただけるかと。
僕は、こういう現実は教えておいたほうがいいと思うタイプです。
だからちゃんと「誰から学ぶか」は、自分で選択しないといけないですよ。
ちなみに
「Grokが間違える事例と、その理由」を知りたい人いますか?
もし、要望があればサクッとnoteに書きますね。 December 12, 2025
7RP
でも主張するためについつい「歴史と伝統あるオールドメディアの人の手の温かみある見出し詐欺」みたいな手口を使っちゃうから「AIはハルシネーションが」「誰が責任をとるんだ」とかが説得力無くすんだよね
報道が「細部まで読み込んだ上でクロスチェックが必要」なものならAIで代替されるべき December 12, 2025
6RP
【サイトリリースのお知らせ】
ハルシネーション全盛期のChatGPTに「1ヶ月で余裕でできるよ!」と言われながら提案をもらい、アドバイスを受けつつ開発したサイトですが、
結局約半年かかりまして、ようやくリリースします。
もちろん完璧ではなく、まだまだやりたいことは山ほどありますが、ここで一旦リリースしたいと思います。
僕のフォロワーさんは自分で生成される方が多いので、実際に使うことは少ないかもしれませんが、
元々広告業界にいたこともあり、広告業界の動画編集者さんやSNSコンテンツ制作者さん向けの「動画素材サイト」を作りました。
生成AIでいろいろできる時代ではありますが、倭国市場向けに、クリエイターにとってのメリットを重視したサイトを目指しています。
プロモーションは別ルートで進めていくので、
ここではまったりとお披露目する形になりますが、
何名かのAIクリエイターさんに作品を提供いただきました。
本当にご協力ありがとうございました。
@oden_ai_ai (ちょうどいいAIクリエイターさん)
@qaHEqxyzUF99214 (多古と凧と凪さん)
そして英語サイトのアドバイスをくれたDan Pradanaさんありがとう!(後ほど英語の投稿でメンションします)
スタートラインに立ったばかりで、マーケティングなどはこれから大変ですが、
今後もクリエイターさんから作品を募集し、新しい分野や良い作品が世に広まるきっかけとなる
プラットフォームとして育てていきたいと思います。
AIは特に動画生成と相性が良く、
今後さらに伸びる分野だと思っています。
倭国のクリエイターが使いやすい環境を作り、データも随時アップデートしながら成長させていきます。
なにぶん個人商店みたいなもので
開発ペースは正直かなり遅いですが、
高品質・低価格の動画素材プラットフォームにしていきたいと思っています。
現在も何人かのクリエイターさんに声をかけさせていただき、 まだまだ弊社プラットフォーム内でクリエイターページを作って紹介させていただいています。
興味がある方はぜひお声がけください!
周りに動画編集者やコンテンツ制作者の方がいましたら、サイトを紹介していただけると嬉しいです。
ライトプランだと1本あたり198円と、業界でもかなり安い価格設定にしています。
編集者じゃなくてもパソコンで少し遊んでみても面白いかもしれません。geminiやClaude code、様々なAIツールを駆使して作られています。ぜひ一度遊びに来てください。
(URLはリプ)
簡単ですが、ご挨拶とリリースのお知らせでした。
みなさま、日頃よりありがとうございます! December 12, 2025
6RP
リーガルテックさんで無料のオンラインセミナーをします!
生成AIを単なるツールとして使うのではなく、パートナーとして活かすためのコツをお話ししたいと思います。
是非ご参加下さい🙇♂️
プロのサーチャー弁理士が明かす! 生成AI時代の「特許調査の鉄則と実践」 〜生成AI活用時の「コツ」と実務への活かし方〜
詳細
【知財×AIリーガルテックセミナー】
<第22回>
・開催日時:2026年1月14日(水)16:00~17:00
・開催形式:オンライン(Microsoft Teams)
・主催:リーガルテック株式会社
・参加費:無料(事前申込制)
https://t.co/1OUBBLwFUO
セミナー内容
生成AIは、特許調査のスピードと精度を劇的に変えつつあります。しかし、生成AIの革新的な能力の裏側には、ハルシネーションリスクや、適切なクエリ設定ができないことによる「使えない結果」という落とし穴が存在します。
本セミナーでは、特許調査の最高峰である特許検索競技大会で最優秀賞を受賞した経験を持ち、現在は特許検索競技大会の実行委員長も務める角渕由英弁理士が登壇します。長年のサーチャー指導経験を持ち、生成AI活用に関するコンサルティングも多く行っている角渕氏が、ツールの種類に関係なく、生成AIを特許調査に導入する際に必ず押さえておくべき「汎用的な鉄則」を徹底解説します。
具体的には、精度の高い先行技術調査を実現するための生成AIへの問いかけ方、誤情報を避けながら効率的にスクリーニングを進める実務的なコツに焦点を当て、角渕氏作成のプロンプトも紹介します。
また、これらのノウハウを実際の操作画面で確認していただくため、生成AI搭載型の特許検索ツールの一つとして、角渕氏もユーザーでもある「https://t.co/Ph8YbdjMC0」を例に、具体的なデモンストレーションを短時間で実施します。
本セミナーは、最新のAI技術を単なる効率化ツールではなく、調査結果の質を高めるための強力なパートナーとして活用したい、すべての知財・研究開発担当者にとって必見の内容です。
本セミナーで学べること
・生成AIに依存しすぎない! プロの特許サーチャーが守っている調査の「普遍的な鉄則」
・生成AI特許調査で精度の高い結果を導き出すための、クエリ設計とプロンプトの「コツ」
・AI利用時に回避すべきハルシネーション(誤情報)や、検索漏れのリスクとその対策
・AIツールを活用した調査報告・分析の新しい効率化手法 December 12, 2025
5RP
今日はこのアッフィ記事を課程で、人は現実の10倍以上、暴落の恐怖を感じているという論文があったので、それについてnoteにまとめてくるんご。
人間は常に暴落というハルシネーションと戦っている。
そんなこと、滅多に起こりっこないのにね…🙂↕️ https://t.co/srvNDqz03Y December 12, 2025
4RP
#アドカレ 5日目です。
「「考えなくてもいいこと」を自動化」という導入がめっちゃくちゃいいです。繰り返される小さな意思決定を排除することで間違いなく生産性は向上すると思います。ハルシネーションはmdファイル内の記述で抑えられるのかな〜?
コメント機能欲しくなるなw https://t.co/KwUCVlHlXG December 12, 2025
4RP
私は逆説とか言葉の意味が反転するみたいなのが超絶大好きなのですが、ハルシネーションの庭はそれをとても意識しています❄️適当こくなと嫌われがちなAIのハルシネーションをテーマにした恋愛小説です!今日で発売から二週間でした、引き続きよろしくお願いします💐
https://t.co/lRVkMHh3MZ December 12, 2025
2RP
そして、「不正解であった回答に含まれるハルシネーション率」。正解率が高かったGemini 3 Pro が「間違う時は9割ちかくハルシネーションでデタラメに話を盛ってしまう」
単純に正解率だけ見てると、そういう特性を読みとることができない。 https://t.co/QR8ziroMHv December 12, 2025
2RP
おっしゃる通りですよね
これからはAIが臨床推論でのサポートをしてくれて
人間は
✅AIが聞き出せない情報を問診で聞き出す
✅six sences的な"なんか変"を患者さんから感じる
✅AIのハルシネーションを見抜く
✅最終的な判断の責任を取る
こういったところが大事になってくるんでしょうねー https://t.co/2V8crRbajt December 12, 2025
2RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



