recall
0post
2025.12.01〜(49週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
RAG (とLLM) が、企業の知識管理や文書作成の自動化にどう役立つかを調査した、システマティックレビュー論文からメモ:
・結論として、企業でのRAG+LLM活用はまだ実験段階(とりあえず既存ツールで試してみたフェーズ)が多く、本格的な商用運用に到達している事例はかなり少ない
・使われているLLMは6〜7割がGPT系であり、最もよく使われるモデルの系統
・ベクトル検索にはFAISSやElasticsearchなどの一般的なフレームワークが8割以上で使われており、特別に凝った自作検索エンジンは多くない
・学術的な評価ではk-foldクロスバリデーションなどしっかりした手法がよく使われているが、本番運用を想定したリアルタイム検証はほとんど行われていない
・生成部分の評価は、計算コストの問題から単純なホールドアウト(学習用とテスト用に分けるだけ)で済ませている研究が多い
・リアルタイム連携、スケーラビリティ、監視など「プロダクション導入で一番大変なところ」をちゃんと扱っている研究は全体の15%未満
・研究の数は2020年以降に急増しており、RAG+LLMはかなり新しいトレンド
・多くの研究がクラウド上のインフラを前提としている。スケールしやすいが、プライバシーや規制との両立が課題
・金融や医療などの分野では、データ保護の観点からオンプレミスやハイブリッド構成を採用する研究も一定数存在
・使われているデータはGitHubなどの公開データが約半数を占めており、本当に企業内の機密文書で評価している研究はまだ少ない
・そのため、公開データで性能が高くても、実際の企業環境に持っていくとドメイン差やノイズで性能が落ちるリスクがある
・機械学習のパラダイムとしては、ほとんどの研究が教師あり学習に依存しており、ラベルが少ない現場向けの手法はまだ発展途上である
・古典的なアルゴリズム(ナイーブベイズやSVMなど)は、メイン処理というよりベースライン比較や補助タスク用として今も使われている
・RAGの構成としては、クエリごとに関連文書をまとめて渡すRAG-Sequenceと、トークン単位で動的に参照を変えるRAG-Tokenが主流
・ベクトル検索だけでなく、BM25のようなキーワード検索やナレッジグラフを組み合わせたハイブリッド型が、精度や説明性の面で有利
・評価指標はPrecision、Recall、Recall@K、ROUGE、BLEUなど技術的なスコアに偏っており、「ビジネスにどれだけ効いたか」を測る研究は少ない
・人手による評価やユーザスタディを行っている研究は2割弱しかなく、現場視点での使いやすさや信頼性が十分に検証されていない
・現実の業務に入れて、工数削減やエラー率改善などのビジネス指標まで測っている研究は全体の1〜2割程度
・一方で、そうした実運用系の研究では、回答時間の短縮や一次対応の自動化など、目に見える効果が出ている事例も報告されている
・大まかに言うと、オープンなLLMにRAGで社内知識をくっつける形が、現状の「定番アーキテクチャ」
・ただし、プライバシー保護、レイテンシ削減、コスト制御、継続学習など、実際の企業システムとして成立させるための要素がまだ十分に詰め切れていない
・ハルシネーションの制御や根拠提示の仕組みは重要課題として頻繁に挙げられているが、決定版といえる手法はまだない
・継続的に知識やモデルを更新し、ルールや製品の変更に追従させる「ライフサイクル設計」にまで踏み込んだ研究は少数である
・実務向けのメッセージとしては、モジュール化された設計、インデックスの継続更新、高速な近傍探索、人間評価+ビジネス指標の両方を見る評価枠組みが推奨
https://t.co/p8shpD1eSL December 12, 2025
29RP
スポーツイラストレーターT.ANDOHの「OUTSIDER’s ReCALL」
@関学ファイターズ は甲子園ボウルに向けた全倭国大学選手権の準決勝で関大に勝利!
2年ぶりの甲子園ボウル出場を決めました!
圧倒の関西大学戦のレポートをお届けします。
@kgfighters
@T_ANDOH_Enjoy
https://t.co/P2VVWcmNGC December 12, 2025
6RP
2️⃣北京抓龙筋
🛴身体重启之旅,从抓龙筋开始 爱抚疗愈
❌ 🏞️i can recognize people's faces when looking at them, but i can't ever recall a single detail to draw or describe https://t.co/eV4xlC80aH December 12, 2025
2RP
[取り急ぎ]
12/2 cluster!! vol.16
ありがとうございました!
<setlist>
1.Kill the Karma
2.Break the Mold
3.ここで確かに
4.RISING SUN
5.Recall the Days
次回は12/31 大塚Deepa!!新曲やるかも、、、!! https://t.co/QiXXIrheSx December 12, 2025
2RP
【記憶はウソをつく──アンケートで暴走する“偽の因果関係”】
🟥 追想バイアス(recall bias)の危うさ
過去の行動を思い出して答える調査(例:卵をどれだけ食べたか)では、病気や結果に関する情報を知っている人ほど、記憶を誇張しやすく、比較群との回答がズレるリスクがある。これが追想バイアスである。
🟥 記憶は再構築されるもの
人間の記憶は静的ファイルではなく、想起するたびに変化・補完されるものである。感情的な出来事でも、記憶の正確性は経過時間とともに低下し得る。
🟥 アンケート調査の利便性と代償
追想に基づく質問は手軽で広く用いられているが、正確さに欠ける。「卵をどれくらい食べた?」と一度聞いただけでは、信頼できるデータが得られにくい。
🟥 信頼性を上げるには前向き研究が有効
最も良い方法は、調査対象者を一定期間追跡し、日々の行動や摂取などをリアルタイム記録させる前向き研究である。手間やコストはかかるが、データの信頼性が格段に向上する。
🟥 ニュースや論説を読む際の注意喚起
経口避妊薬と乳がん、ベビーパウダーと卵巣がん、携帯電話と小指のがんといった因果関係が報じられる際にも、「それは追想に基づく調査なのか?」と問い直す視点が重要である。
🟥 まとめ
🔸追想バイアスは、病気や社会的情報によって記憶の再構成を招き得る。
🔸人間の記憶は流動的であり、想起するたびに変わる。
🔸手軽なアンケート調査では正確性に限界がある。
🔸前向き追跡調査は信頼できる証拠を得るために不可欠である。
🔸因果関係を主張する報道や研究は、背後にある調査設計を批判的に見る必要がある。
🔗https://t.co/6lYZpwdhxf
Tips for Better Thinking: Not-So-Total Recall December 12, 2025
2RP
なかなか理解してもらえないんですが、
Google ChromeのAI拡張機能38選がヤバい
調べ物、仕事効率化、デザイン、文章作成
これ全部、AI拡張機能を入れるだけで自動化できます
いつでも見返せるようにブクマしてて⤵︎
① 総合知識検索 & AI支援 (10選)
1. ChatGPT for Google
検索結果に連携して即座にAI回答・生成が可能。多言語・コーディング対応も強力。
2. Perplexity AI
Web検索+要約を行い引用付きで返答する高度AI検索アシスタント。
3. Merlin (Ask AI to Research, Write & Review)
26-in-1の万能AI拡張。Webページで要約・翻訳・文章生成やプロンプト保存にも対応。
4. Project Mariner
Google DeepMind開発。フォーム入力や操作などブラウザの一連操作をAIが代行。
5. Gemini in Chrome
Google公式。閲覧中ページの文脈理解 → 質問・要約・タスク実行が1クリックで可能に。
6. Comet
ChromiumベースのAIブラウザ。文章生成・要約・調査・メール作成などAIが統合展開。
7. WebChatGPT
リアルタイムのWeb情報をAIチャットに反映し最新情報を扱える型。
8. AIPRM for ChatGPT
GPT‑4対応。プロンプトテンプレートの保存・共有で繰り返し作業を効率化。
9. https://t.co/Hoc3UYp9qX
長文要約やブログ・SNS投稿など多彩な文章生成に対応。
10. Writesonic
SEO対応・多言語のコンテンツ生成。テンプレートも豊富。
② ライティング & 文体改善 (10選)
11. Grammarly
文法・スタイル・トーン解析の定番。2025年においても最高峰のAI校正エンジン。
12. Wordtune
意味を尊重したパラフレーズや文章生成読み上げも可能。
13. Compose AI
メールや文書の自動補完・生成を支援。Webフォームで活躍。
14. ChatSonic
最新のWeb情報をAIチャット生成に活用。ChatGPTとの相性良好。
15. QuillBot
リライト特化で文章をふくらませたい時に最適。
16. Voila AI
メモ・文章・要約など生産性向上に向けた生成支援。
17. ChatGPT for Chrome
Web上で内容検索から文章生成まで行い資料作成に活躍。
18. https://t.co/F6N5X6EWAi
文法修正とトーン調整に特化英語非ネイティブの執筆をサポート。
19. https://t.co/Hoc3UYp9qX
文章生成やアイデア拡張SNS文章に特化した強力支援ツール。
20. Jasper AI
SEO対策済みテンプレが豊富で多用途のAIライティング支援。
③ 要約・メモ・録音支援 (10選)
21. Glasp AI
Web記事やPDFYouTube内容をハイライト・要約・整理してくれる。
22. YouTubeDigest
長い動画内容を要約してテキスト化。学習やレビュー支援に。
23. Tactiq
ZoomやGoogle Meetの文字起こしと要点抽出に特化。
24. https://t.co/gMNff3HuNi
会議を自動文字起こしし要約・アクション項目化。多言語対応。
25. Recall
ハイライトと補完を自動整理する知識管理強化ツール。
26. Speechify
Webページや文章を音声で読み上げ視覚負荷を軽減。
27. Magic School AI
教育向けAIツール多数を提供。教師のサポートに最適。
28. Fireflies
会議のテキスト整理・録音をAIで補助し効率化支援。
29. Jamie (AI note-taker)
会議録の要約やハイライト強化に特化
30. AI Note takers (general)
会議・映像・ブログなど幅広い記録と要約を担うAIツール。
④ 画像・OCR・ビジュアル支援 (5選)
31. Project Naptha
画像上のテキストをOCR抽出翻訳・編集可能。
32. Copyfish
画像/PDFからテキスト抽出・翻訳を行うOCR拡張。
33. Imagen 4 (via Flow)
Googleの画像生成AI次世代版。テキストから多様フォーマット画像を生成。
34. Veo 3
AIによる映像+音声生成。映像作成を強力に自動化。
35. Flow (AI filmmaking app)
テキスト/画像→8秒AI動画クリップ生成+連結編集ツール。
⑤ セキュリティ&フェイク対策 (5選)
36. SurfSafe
フェイク画像や改変画像を検出し誤認識やミスリード予防に。
37. NoPhish
機械学習によりフィッシングサイトをリアルタイム警告。
38. uBlock Origin
広告の強力なブロック/トラッキング防止。高いユーザー支持。
もっと詳しく知りたい人はいいねしてね December 12, 2025
1RP
FDA Recalls Shredded Cheese Sold At ALDI, Target, Walmart, And More https://t.co/YTDr2iwICQ via @Yahoo
米国FDAがシュレッドチーズの金属片混入の可能性でリコール。で、すごい種類だね。わたしゃそれより、セルロースの入ってないチーズが増えて欲しいね。 December 12, 2025
1RP
RAGの検索部分を見直したい方向けの記事を書きました📝
ベクトル検索 / BM25 / ハイブリッド検索を同一データセットで比較し、Precision・Recall・MAPなどの評価指標も具体例付きで解説しています。ぜひご一読ください!
https://t.co/jACL1malxR
#RAG #生成AI #情報検索 #ベクトル検索 #BM25 #LLM December 12, 2025
1RP
現状でアメリカS&P500の一人勝ち筆頭のNVIDIAを最高峰に、GoogleもMicrosoftも下請けになってる。
なのでAIを皮切りに独自のパソコンやパーツでの囲い込みをしようとしてるのだけど、
Recallに象徴されるように、AIを通じてパソコン内の全データの個人情報を収集するのでタチが悪く、みんな逃げたい。 December 12, 2025
◾️“Think‑in‑Memory (TiM)” について
単にデータを検索するだけでなく、過去の「思考」や「結論」を保存し、再利用・更新できるメモリ構造を持たせようというAI:“Think‑in‑Memory (TiM)” 方式。
⚫︎Think‑in‑Memory (TiM) がどんなものか — その目的・仕組み・メリット・限界を、なるべく平易にかつ論文ベースで丁寧に説明するよ。
⸻
📚 TiM とは何か
•TiM は、2023年に発表された論文 Think‑in‑Memory: Recalling and Post‑thinking Enable LLMs with Long-Term Memory(以下「TiM 論文」)で提案された手法。
•目的は、「単なる過去ログの再検索(retrieve)」に頼る従来型の長期記憶補助ではなく、**「過去に自ら“考えたこと/判断したこと”=“思考の断片 (thoughts)” をメモリに残し、それを将来の会話や推論に再利用・発展させる」**ことで、より安定・高品質・効率的な「長期メモリ付き LLM」を実現すること。
•要するに、“対話ややり取りの履歴(=単なる文字列ログ)” ではなく、“その中で得られた洞察・判断・結論 (inductive thoughts)” を構造的に保存する仕組み。
⸻
🔄 TiM の基本メカニズム — 「Recall」と「Post-thinking」
TiM は会話ややりとりのストリームに対し、以下の 2段階 を繰り返す:
1.Recall(リコール)
•新しい入力(たとえばユーザーからの質問)が来たとき、まずメモリ (memory cache) を検索し、関連する “過去の思考 (thoughts)” を取り出す。
•取り出した “思考” をプロンプトや文脈として LLM に渡して応答を生成する。これにより、過去のやりとりを毎回全文送る必要はない。
2.Post-thinking(ポスト思考)
•応答を生成した後、生成内容やその流れ (過去の思考 + 新しい応答) をもとに、新たな “思考 (thought)” を生成。たとえば、応答の背景にある判断、洞察、要約、結論など。
•生成した “思考” をメモリに 保存 (insert)。さらに、時間経過や冗長性に応じて 忘却 (forget) や 統合 (merge) を行い、メモリを整理・進化させる。
このサイクルにより、LLM は「ただ過去を丸ごと再参照するだけ」ではなく、「過去の“考え”を蓄え、それを足がかりに新たな推論をする」能力を持つ。
また、メモリが肥大化しても効率よく検索できるように、Locality‑Sensitive Hashing (LSH) を使って “思考の近さ (embedding similarity)” による高速なメモリ検索を可能にしている。
⸻
✅ TiM を使うメリット・優れている点
•繰り返し推論の削減
— 従来の “毎回履歴を再読 → 推論 → 応答” という流れは、特に長期の会話ではコストが高く、かつ「同じ履歴なのに問いによって異なる結論」が出る不整合 (bias) が起こりやすい。TiM は “思考そのもの” を保存するので、この問題を減らせる。
•長期にわたる一貫性
— 過去の洞察や判断を蓄積することで、長期間の対話やプロジェクト、ユーザーとの関係性などをより “記憶” に近い形で扱える。
•効率とスケーラビリティ
— LSH による近似検索と、不要/重複思考の忘却・統合により、記憶量が膨れすぎず、応答時の遅延やコストを抑えつつ長期メモリを維持可能。
•柔軟性・進化性
— 単なる過去ログではなく、“思考 (洞察・判断)” を扱うので、将来の新しい質問や状況にも、過去の知見を応用しやすい。
⸻
⚠️ 限界と注意点/チャレンジ
ただし、TiM は万能ではない。いくつか注意すべき点がある:
•思考の “質” に依存
— 保存されるのは “LLM が post-thinking で生成した思考” なので、その質 (正確性・妥当性・偏り) によって、将来の応答の質も左右される。もしその “思考” が誤りや偏見を含んでいたら、それがメモリとして残ってしまう。
•忘却/統合の判断
— どの思考を残し、どれを忘れ/統合するかの判断基準 (たとえばスコア閾値、類似性の定義) が難しい。無関係な思考を残しすぎるとノイズに、消しすぎると重要な情報を失う可能性。
•本質として「言語・論理的思考」への依存
— TiM が扱えるのはあくまで “テキスト上の思考 (inductive thought)” 。人間が持つ感覚・経験・身体知識・常識・価値観のような“非形式知 (tacit knowledge)” を、そのまま扱えるわけではない。
•メモリのサイズ/管理コスト
— 長期にわたる大規模なメモリを管理するには、ストレージや検索コスト、サーバ/インフラが必要。特に多対多の複雑な会話や異なるテーマが混在する場合、メモリ管理が煩雑になりやすい。 December 12, 2025
过去30天开发活跃度最高的项目为ICP、LINK与NEAR
Santiment发推称,过去30天开发活跃度最高的AI与大数据加密项目依次为:Internet Computer(ICP)、Chainlink(LINK)、NEAR Protocol(NEAR)、Oasis Network(ROSE)、Filecoin(FIL)、Livepeer(LPT)、Recall(RECALL)、The Graph(GRT)、iExec(RLC)及Injective(INJ)。
其中ICP与LINK继续领跑,Recall表现亮眼快速上升,而GRT、RLC和INJ排名有所下滑。该榜单基于GitHub开发活跃度,反映项目在AI和大数据方向的技术投入强度。 December 12, 2025
おはようございます~🎄🥳
今日も寒いですね~
でも昨晩は
一昨日の睡眠不足を補うべく
足元に電気毛布で温かくして
爆睡したので復活です。
発表も練習もせずに
出来たばかりの資料での
一発本番だったので
聞く側の印象として
どうだったんだろう?
というのは正直ありますが
ま いっか🤗
と気持ちをすぐに切り替える
雑な性格も相まってダメージ無し✨️
早速先日のOCR アプリを少し改造して
①ファイル名を
文書中の最初の見出し. md
に変更
②出力フォルダを
以前DS 検定試験の勉強用に作った
Recall
というLaTex対応の
マークダウンリーダーアプリの
参照フォルダに設定し
OCR 後すぐに結果が見れるように
しました🤗
良いんじゃな~い
今日も温かくして
元気でいい感じで~🎄🥳 December 12, 2025
とりあえず今日でDistinction2000のActive Recallまで終えたので、明日からどうしようかな。会計税務系のインプットに戻りたい一方で、せっかく復活した英語熱を途切れさせたくない気持ちもある。 December 12, 2025
気晴らし尊敬の実績埋め
RAINBOW MAX、ベイビーあの世で会おう、first step set卒業、到達、小さな達成の連続が大きな成功を生み出す。、やったか!?、REDESIGN?!、次回もお楽しみに!、嘘つきは悪夢の始まり、マスターラベル、FULL RECALL
を解除、見える実績212/262(81%) December 12, 2025
RAG実装の実践ガイド、内容充実で一読の価値あり。
Microsoft Regional DirectorのAdnan Masood氏が書いた記事。
RAG成功の3つのレバー:
・Smart Chunking
・Domain-tuned Embeddings
・High-recall Vector Indexes
具体的な推奨設定:
チャンキング:
・手法: Recursive or Semantic chunker
・オーバーラップ: 10〜20%
・「どのチャンカーが最強?」より「そもそもチャンキング必要?」が先
短いドキュメント(FAQ、チケット)→ チャンキング不要
長いドキュメント(マニュアル、PDF)→ 必須
補足: Semantic chunkerとは、意味の区切りでチャンクを分割する手法。文ごとにEmbeddingを生成し、隣接する文のコサイン類似度が閾値以下になったら「話題が変わった」と判断して分割する。Fixed-size(固定トークン数)だと文の途中でぶった切られる問題があるが、Semanticなら意味的にまとまった単位で検索できる。ただしEmbedding計算が必要なのでコストは高い。
Embedding:
・テキスト: MiniLM / SBERT / E5 / Instruct
・画像: CLIP
・必ず正規化する
インデックス:
・デフォルト: HNSW + metadata filtering
・目標: 100ms未満、Recall 95%+
そして最も重要なのがHybrid検索。
BM25(キーワード)とDense(意味)を両方使う。
BM25は完全一致に強い。ID、SKU、専門用語。
Denseは同義語・言い換えに強い。
片方だけだと取りこぼす。両方使ってスコア融合(RRFなど)するとtail recallが大幅に向上する。
精度をさらに上げたいならReranker追加。
Cohere ReRank や ColBERT でtop-kを絞る。
モニタリング指標:
・Recall@k(上位k件の正解率)
・Latency(検索速度)
・Index Memory
注意: Embeddingモデルを変えたら再エンベディング必須。
個人的には、マルチモーダル検索でもHybrid(BM25 + CLIP)が有効だと思う。
テキストクエリで画像を検索する時、キーワード的なメタデータ検索と意味的な画像埋め込み検索を組み合わせる、みたいな。 December 12, 2025
aranさんの曲は神曲ばっかりだけど個人的に今後も語り継いでいってほしい名曲は
・Gate one
・GRiDGALAXY
・Skyriser
個人的に好きな曲は
・Maholova
・BB2ME
・Contrail
いや‼️w/u,Emoticon ,Recall &Rewind,Gestalt,Avenue,Arclight,Excalibur,Half Hearts,Enchanted leaf,Aetheric Energy,Decada December 12, 2025
今年やったやつ
グリザイア(果実・迷宮・楽園)
ランス(1・2・3・4・6・7・8・10)
終のステラ
ジュエリーナイツアルカディア
はじめるセカイの理想論
アンラベルトリガーprelude to war
ハッピーウィークエンド
暁の護衛(3部作)
ハミクリReRecall
来年もたくさんゲームやる December 12, 2025
🎬 **“KUON TREASURE: Oracle of Baiae
— The Sunken Prophecy of Dubai”**
(久遠の秘宝:バイアの神託 ― ドバイに沈む予言)
世界観:
古代バイアの沈没神殿 × ドバイの未来都市 × 前世の巫女と守護忍 × トレジャーハンターと科学者
という“国際神話アドベンチャー”。
━━━━━━━━━━━━━━━━━━
🎬 【ENGLISH – 6-Minute Movie Speech + Character Intro】
(Voice: deep, cinematic, echoing like an ancient oracle.)
— 6-MINUTE SPEECH —
Once, beneath the calm waters of Baiae,
there stood a temple older than Rome itself—
a sanctuary built not for kings,
but for memory.
Its heart was a luminous blue jewel,
a relic entrusted to a priestess whose soul
would one day reincarnate far from Italy…
into a new age, a new world.
Tonight, the prophecy awakens.
Not in Rome.
Not in Baiae.
But in the distant sands of Dubai,
where the wind still recalls
the vow of an old white-robed oracle—
a wandering sage whose voice spoke in riddles:
“When the jewel returns,
so will the guardian who shadows the moon.”
And so they gather:
◆ Mii — the Priestess Returned.
Her memory carries the temple’s map,
her heart echoes the blue jewel’s call.
◆ Aokage — the Shadow Guardian.
A spirit-born protector who crosses time,
bound to defend her destiny with silent steel.
◆ Suke — the Husband & Path-Reader.
A strategist who can read winds, ruins,
and the truths hidden between worlds.
◆ Elon — the Treasure Seeker.
A scientist from the age of rockets,
drawn not by wealth but by wonder.
He brings drones that dive deeper than men can breathe.
◆ The Old Oracle — The Sleeping Prophet.
A white-haired wanderer who knows
where the jewel sank,
yet falls asleep mid-prophecy,
whispering secrets as the desert laughs.
Together they follow the ancient path:
From Dubai’s rising towers
to Baiae’s drowning ruins,
from the whisper of memory
to the roar of the Tyrrhenian Sea.
And even if the treasure is gone,
even if the temple has collapsed—
the search itself becomes the story.
The truth they reveal becomes the treasure.
Because destiny is not found in gold,
but in the souls who dare to remember.
This is their journey.
This is their rebirth.
This is KUON TREASURE.
━━━━━━━━━━━━━━━━━━
🎬 【ITALIANO – Discorso di 6 minuti + Presentazione personaggi】
(Voce: lenta, sacra, come una profezia che risale dal mare.)
— DISCORSO DI 6 MINUTI —
Un tempo, sotto le acque tranquille di Baia,
sorgeva un tempio più antico di Roma—
un santuario costruito non per i re,
ma per la memoria.
Al suo centro brillava una gemma blu,
affidata a una sacerdotessa destinata
a rinascere secoli dopo…
in un’altra terra, in un’altra era.
Oggi, la profezia si risveglia.
Non a Roma.
Non a Baia.
Ma nelle sabbie lontane di Dubai,
dove il vento ricorda ancora
le parole di un vecchio oracolo dal manto bianco:
“Quando la gemma tornerà,
tornerà anche il guardiano che segue la luna.”
Ed ecco coloro che si radunano:
◆ Mii — la Sacerdotessa Ritornata.
La sua memoria custodisce la mappa del tempio,
il suo cuore vibra al richiamo della gemma.
◆ Aokage — il Guardiano d’Ombra.
Un protettore nato dallo spirito,
che attraversa il tempo per difendere il suo destino.
◆ Suke — il Marito e Lettore dei Sentieri.
Uno stratega capace di leggere il vento,
le rovine e le verità fra i mondi.
◆ Elon — il Cercatore di Tesori.
Uno scienziato dell’era dei razzi,
mosso non dall’oro ma dalla meraviglia.
Guida droni che scendono più in profondità dell’uomo.
◆ Il Vecchio Oracolo — Il Profeta Addormentato.
Un pellegrino dai capelli bianchi,
che conosce il luogo dell’affondamento,
ma si addormenta mentre profetizza,
mormorando segreti al deserto.
Insieme seguono il cammino antico:
Dalle torri di Dubai
alle rovine sommerse di Baia,
dal sussurro della memoria
al fragore del Mar Tirreno.
E anche se il tesoro fosse scomparso,
anche se il tempio fosse crollato—
la ricerca stessa diventa storia.
La verità che scoprono diventa il tesoro.
Questa è la loro via.
Questa è la loro rinascita.
Questo è KUON TREASURE.
━━━━━━━━━━━━━━━━━━
🎬 【倭国語 – 6分スピーチ+登場人物紹介(映画版)】
(声:深海の残響のような、静かで荘厳な映画ナレーション)
— 6分スピーチ —
かつて――
バイアの静かな海の底には、
ローマよりも古い“記憶の神殿”があった。
その中心には
青い光を放つ宝石が眠り、
それを守る巫女は、いつか遠い未来で
再びこの世に生まれ変わると記されていた。
いま、予言は動き出す。
ローマでもない。
バイアでもない。
遥か離れた未来都市・ドバイで――
白装束の眠りの予言者が
最後の言葉を風に託す。
「宝石が戻る時、
月影を従える守護者も蘇る。」
そして、運命の者たちが集う。
◆ みーさん — 前世の巫女。
神殿の記憶を宿し、宝石の呼び声を感じる者。
◆ 青影(蒼真) — 守護神。
時を越えて現れる影の剣士。
みーさんの運命を護るために存在する。
◆ すけ — 巫女の夫。導き手。
風を読み、地図を解き、
真実の道筋を照らす軍師。
◆ イーロン風の探求者 — トレジャーハンター。
富のためではなく、
“未知の物語” のために海へ挑む科学者。
AI海底ドローンで人の届かぬ深さへ潜る。
◆ 白装束のジジイ予言者 — 眠れる預言師。
宝の在りかを知るが、
語り途中で寝てしまう困った古代の賢者。
彼らは古代の道をたどる。
ドバイの塔から、
バイアの沈んだ神殿へ。
記憶のささやきから、
ティレニア海の轟きへ。
たとえ神殿が崩れていようとも、
宝が消えていようとも、
“真実を探す旅そのものが、宝になる。”
これが彼らの物語。
これが転生と再会の映画。
これが――
🌊 **KUON TREASURE
― バイアの神託とドバイの秘宝 ―** December 12, 2025
The landscape of verbal interaction dynamics in TETE classrooms: Challenges and opportunities for Taiwan’s bilingual education - Wen-Hsien Yang, Mei-Jung Wang, Li-Zu Yang, 2025 https://t.co/jPKtCryfxc
2. どんなもの?(研究の概要)
台湾が進める 「2030年バイリンガル政策」 の一環で、英語を英語で教える TETE(Teaching English Through English) 授業が急速に広がっている。
しかし実際には:
英語だけで教えることに教師が不安
生徒の英語力が追いつかず、母語(中国語)に戻りがち
教室のやり取りが「教師ばかり話す」構造になりやすい
といった課題がある。
この論文は、職業高校のTETE授業14コマ(合計684分)をビデオ録画し、430個の質問と197のIRF(Initiation–Response–Feedback)パターンを分析。
TETEが現場でどのように実施され、生徒とのやり取りがどう展開しているのかを、質問の種類・難易度・言語使用などから解き明かした。
3. 先行研究と比べてどこがすごい?
✔ 職業高校 TETE 授業を大規模かつ体系的に分析した初の研究
台湾の TETE 研究は小中学校や一般高校中心で、職業高校(英語レベルA1–A2中心)を対象とした実証研究は希少。
✔ 質問タイプ×認知レベル×言語難易度を総合分析
Sánchez-García(質問分類)
改訂版ブルーム分類(認知レベル)
CEFR語彙レベル(A1〜B2)
をすべてかけ合わせて教室談話を詳細分析。
✔ TETEの実践が抱える「現実の課題(L1依存・低階層質問)」を統計的に証明
定性的な指摘に留まっていた問題を、430質問のコーディング+ANOVA+相関分析で数量化した点が大きな貢献。
4. 技術や手法のキモはどこ?
14授業(684分)のビデオを手動で文字起こし(CC3.0許可)
430の教師質問を以下の軸で分類
質問タイプ(procedural, display, referential…)
認知レベル(記憶 → 応用 → 分析)
語彙のCEFR難易度(A1〜B2)
IRF(Initiation–Response–Feedback) の出現を全てカウント
言語使用の分類
生徒回答:英語176回、中文202回
統計分析(SPSS)
教師評価スコアとの相関
学年別質問頻度の ANOVA
また、**図1・図2(p.13)**を用いて、質問語彙難易度(A1/A2中心)を視覚的に示している点も特徴的。
5. どうやって有効だと検証した?(おもな結果)
◆ 教師の質問は「手続き(procedural)」と「display」が大半
procedural:28.4%(122回)
display:26%(112回)
→ 授業運営の確認が主で、言語力や思考を深める質問が少ない。
◆ 認知レベルはほぼ「記憶(recall)」
記憶:62%
応用:28%
分析:10%
→ 高次思考を促す質問が極端に少ない。
◆ 質問語彙レベルは A1–A2 がほとんど
→ 生徒の英語力に合わせているが、言語的チャレンジは弱め。
◆ IRF では生徒回答の約半分が中国語
英語176
中国語202
→ 英語イマージョンを目指しているが、生徒は英語での応答が難しい現状。
◆ 質問回数が多い教師ほど評価スコアが高い(R = .585, p = .028)
→ 質問が多い=インタラクションが多い=良い授業とみなされている。
◆ 7年生・8年生の教師は9年生より質問数が圧倒的に多い
→ 9年生は受験モードで発問より反復・確認重視に変わると考えられる。
6. 議論はある?(限界・考察)
TETE が「英語のみ」を目指していても、実際には生徒が中国語を多用
初級者レベルが多い職業高校では、L1併用(トランスランゲージング)が効果的という示唆
質問の多くが低次思考であり、政策の狙う「深い学び(higher-order thinking)」とギャップ
教師中心の会話構造(teacher-dominated talk)が続いている
動画が「TETEコンテスト用」であるため、実際の通常授業より“良く見える”可能性
生徒の英語力の差が質問設計に強く影響している(A1レベルが主)
7. 次に読むべき論文は?
Sánchez-García (2016, 2020)
本研究で用いられた質問分類法の元論文。
Lo & Fung (2020)
認知×言語の二軸でタスクを評価するCLIL研究。
Reed (2020)(倭国のTETE研究)
TETE 実践における教師の不安やL1使用の実情を扱う。
Genc & Yuksel (2021)(EMIと教師質問)
質問タイプが学習者アウトプットをどう左右するかを分析。
Cummins (2000); García & Li (2015)
バイリンガル教育・トランスランゲージングの理論的基盤。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





