1
ガードレール
0post
2025.12.08〜(50週)
:0% :0% ( 30代 / 男性 )
人気のポスト ※表示されているRP数は特定時点のものです
「軽トラ」で爆走するカオスなハイテンション・ドライビングアクションゲーム『ドライブクレイジー』が正式リリース
https://t.co/Lx4Ig3ijhb
ガードレールや電柱をなぎ倒し、ビルの壁を走り、オフィスの中を突っ切ったりしながら崩壊していく倭国を走りぬけ。コンソール版も発売決定 https://t.co/bgzptZCfk4 December 12, 2025
161RP
そろそろ覚えてほしいのだが、AIの権利問題はすべてが無断学習という単純なものではないんよね。忙しい人は🔢だけ読んでな!
ワシの意見として言うけど、この話はガチで混ざりやすいんよね。だから先に、論点をちゃんと分けて整理しとくな。
1️⃣大規模事前学習は原則合法
倭国だと、情報解析みたいな非享受目的での利用を広めに認める考え方があって、ここに大規模事前学習が乗りやすいんよ。もちろん何でも無制限にOKって話ではなくて、ケースで判断が揺れる余地はある。けど「学習=即違法」みたいな単純化はマジで雑なんよ。
2️⃣大規模事前学習が間違って出力する著作物は、ガードレールで対応(これを悪意として批判するのはハンロンの剃刀)
学習がどうであれ、出力が既存の表現に寄りすぎたらトラブルになる。だから現場は、フィルタ、類似チェック、禁止プロンプト、通報と削除、出力の抑制みたいなガードレールを積むんや。ここを最初から「わざとやってる」って決めつけるのは、ハンロンの剃刀的にも危ないし、議論が混乱するやろ。運用で潰せる問題は運用で潰す…が基本やね。
3️⃣再現目的の学習は学習時に許諾が必要(主に声優AIなどの出力が単一になるもの)
特定の人物の声、特定のキャラ、特定の作家の作風をピンポイントで再現する目的の学習は、そもそも「その表現を出す」ための学習になりやすい。ここは許諾が必要になりやすい領域なんよ。声優AIとかは分かりやすくて、出力が単一の対象に寄るから、線引きもはっきりしやすい。
4️⃣再現学習のベースには無許諾の基盤モデルが使われる(完全クリーンとのずれが出てる)
現実の開発は、既存の基盤モデルに追加学習して作ることが多いんよ。だから「追加学習データは許諾済み」でも「基盤モデルの由来はどうなん?」って論点が残る。ここが「完全クリーン」って言い方と噛み合わなくて揉める原因になりがちやね。
ただ逆に言えば基盤モデル+追加学習は、追加学習の許諾を取れば、権利侵害は極めて起きにくくなる点は理解してほしいんよ。これを攻撃するのはマジで権利者にもマイナスにしかならん。
5️⃣出力時の悪用・トラブル、学習時の海賊版を意図的に利用する行為はすでに裁判で負けている
ここはワシも強めに言うけど、悪用はアウトやし、海賊版を意図的に使うのはやべぇんよ。学習の合法性の議論と、データの入手経路や、出力の悪用は別の論点として扱うべきやね。混ぜると、正しく線が引けなくなる。
6️⃣結果的に権利者とAI企業の提携が増えている
揉めながらも、結局は契約で前に進める動きが増えてるんよ。権利者側は対価とコントロールを得たいし、AI企業側は合法性と継続性を確保したい。だから提携が増えるのは自然な流れなんよね。
⭕️AIの学習はそのまま出力しない学習なら未来においても無許諾で合法
ワシはここ、かなり重要だと思ってる。学習が「鑑賞の代替」ではなく「解析・開発」寄りで、かつそのまま出力しない運用を徹底するなら、無許諾でも合法として整理されやすい。もちろん将来の制度や運用で細部は変わりうるけど、方向性としてはそうなりやすいんよ。
※原理的に学習を再現する能力があると最新の論文が公開しているが、それがサービスとして学習をだすかどうかとは関係ない。
ここも混ざりやすいポイントやね。研究として「引き出し方によっては学習データがそのまま出る」みたいな話があっても、それをそのままサービスが出す設計にするかは別問題なんよ。実際のサービスは、ガードレールと運用で「出さない」方向に寄せられる。
原理と実装と運用は、分けて見るのが大事やとワシは思うよ! December 12, 2025
41RP
AI安全性は「SFの暴走劇」ではなく、ターボジェットの信頼性のように、目的設定・設計・検証を積み上げていく工学の問題になると彼は言う。超知能の出現は、機械のスイッチが入った瞬間に到来する事件ではなく、段階的に一般性が増していく「連続的な進歩」にすぎないからだ。
ヤン・ルカン「私たちはそれら(AI)に明確な目的を与え、できることがその目的を達成することだけになるような形で構築します。もちろん、これで完璧になるという意味ではありませんが、将来のAI安全性という問題について、私はターボジェットの信頼性を心配するのと同じように心配しています。つまり、ターボジェットって本当にすごいんです。
あなたはどうか分かりませんが、私の父は航空エンジニアで、それでも私は、二発エンジンの飛行機で地球の半分を完全に安全に飛べるという事実に心底驚かされます。すごいですよね。私たちはそれを当たり前のように安全だと感じています。これは現代世界の科学と工学が生み出した、魔法のような成果です。
AI安全性も、この種の問題です。つまり工学の問題なのです。私が思うに、恐怖の多くはSF的なシナリオ、『どこかで誰かが超知能の秘密を発明して機械のスイッチを入れたら、次の瞬間に世界を乗っ取る』みたいな想像から来ています。
そんなのは完全にデタラメです。世界はそんなふうには動きません。少なくとも技術や科学の世界は、そんなふうには動きません。
超知能の出現は、『ある一つの出来事』にはならないはずです。実際、私たちはすでに超知能的なタスクをこなせる超知能的なシステムを持っていて、進歩は一度に一つずつ連続的に起きています。今後、現在よりも汎用的な知能を持つかもしれないAIシステムを作るための、より良いレシピを見つけることになるでしょう。そして間違いなく、人間より賢いシステムも生まれます。
しかし私たちは、それらがガードレールの制約のもとで、私たちが与えた目標を満たすように構築するのです」 December 12, 2025
12RP
ディズニーがOpenAIと手を組ぶ一方で、Googleには強い態度を取っているように見える。ここを感情の話にすると一気に混乱するけど、仕組みの話として整理するとガチで分かりやすくなるんよ。ワシは、キャラクターをどう扱う設計にしているかが、判断を分けた大きな理由だと思ってる。
忙しい人は⭐だけでも読んでな!
⭐️最初にAIが画像を作る仕組みを知ると話が一気に整理できる
AIが画像や動画を作るとき、ざっくり言うと二段構えになってる。まず基盤モデルという土台があって、これは大量のデータで学習して身につけた一般的な生成能力ね。次に、その場で追加される条件があって、プロンプトや参照画像や許諾された素材セットや各種ルールがここに入る。
この二段構えを知らないと、あとで出てくる外せる外せないの話がマジで噛み合わない。どこに情報が入っているかで、止め方が変わるからなんよ。
⭐️外付け参照は許諾のスイッチで止めやすい設計になる
外付け参照ってのは、基盤モデルの外側に参照データや許諾素材を置いておいて、必要なときだけ参照させる考え方ね。許諾を取り下げたら参照を無効化する、参照データを削除する、対象の機能を止める。こういう運用のレバーが作りやすい。
ディズニーみたいにブランド事故が致命傷になる会社は、止めたいときに確実に止められることがスゲえ重要なんよ。ここが外付け参照の強さになる。
⭐️学習に混ざる形は後から切り離すのが重くなる
学習に混ざるってのは、訓練の段階で大量の画像やテキストを食わせて、その影響がモデルの中に分散して入る可能性がある状態ね。もし特定IPの画像が学習に含まれていた場合、モデルの中のどこにどう影響しているかを外から特定しにくい。
だから、あとから特定のIPだけを抜きたいと思っても、ファイルを消して終わりみたいにはならない。これが外付け参照と決定的に違うところで、やべぇくらい現実に効いてくる。
⭐️マルチモーダルが強いほど見た目の特徴を拾いやすくなる
マルチモーダルは、文章だけじゃなく画像や動画もまとめて扱えるタイプのAIのことね。これが強いと、画像の特徴を拾う能力も上がるし、生成でもそれっぽい形を作れる範囲が広がる。
ここで大事なのは、能力が上がること自体が悪いって話じゃないってこと。問題は、その強さが学習に依存している場合、後から特定の要素だけを切り離す作業が重くなりやすい点なんよ。
⭐️Googleがディズニーキャラを学習しているかは外から確定できない
ここは線引きが必要。Googleがディズニーキャラを学習しているかどうかは、外部の人間には確定できない。だからワシはここを事実として断定しない。
ただし、仮に学習に含まれていた場合に何が起きるかは、構造として説明できる。学習で能力として入ったものは、外付け参照みたいにスイッチ一発で消える設計になりにくい。ワシが言いたいのはこの構造の差なんよ。
⭐️ガードレールは現実解だが漏れを完全にゼロにする保証は難しい
ガードレールは、生成の出口で止める仕組みね。特定キャラ名を弾く、似た出力を検知して止める、危ないプロンプトをブロックする、ログ監査する。こういう対策はマジで大事で、実務では多層でやるのが普通。
でもガードレールを積んでも、漏れを完全にゼロだと保証するのは難しい。汎用モデルは回り道の表現が多いし、ユーザーが意図せず似せてしまうケースもある。企業が怖がるのは、この最後の残り方なんよ。
⭐️除外学習は研究されているが大規模モデルで確実に効かせるのが難しい
特定の情報をモデルから忘れさせる、いわゆる除外学習や忘却の研究はある。だから概念として存在しないわけじゃない。
ただ、巨大モデルで、特定IPだけを狙って忘れさせて、他の性能を落とさず、抜け道もなく、監査できる形で確実に機能させるのは技術的に難易度が高い。現場目線だと、ここを単発の手段として頼り切るのは厳しくて、外付け参照や許諾セット運用やガードレールを組み合わせる方向が強くなる。
⭐️ディズニーがOpenAIに寄る理由は止めやすさと責任分界を作りやすいから
ここまでの話をまとめると、ディズニーが選びやすいのは、許諾したキャラや素材を許諾した範囲で使わせる座組なんよ。外付け参照や許諾セット運用に寄せられると、問題が起きたときに止めるレバーがあるし、誰が何に責任を持つかの境界も作りやすい。
逆に、もし学習に混ざっている疑いがある形だと、止めたいのに止まらないリスクが残るし、ガードレールを入れても不安がゼロにならない。この差が、OpenAIとは組めるが、Googleには強く出る、という動きの説明として一番スッキリしてるとワシは思ってる。ガチでここが本質なんよ。 December 12, 2025
11RP
今週末は備北でドリフトの大会に出ます!
井口選手とダブルエントリーですが、先輩乗る前に壊さないようにしなくては、、、
砂利の山の上に駐車しようと思ってたのにガードレールになってるとは😭😭😭 https://t.co/hpbTthXPiV December 12, 2025
10RP
タイヤがアスファルトを噛む乾いた音だけが響いていた
社会人3年目
誰もが羨む大手企業に入社したはずだった
けれど現実は無機質な数字と人間関係の摩耗の日々
同期が楽しそうに飲み歩く中、私は誰とも馴染めず心をすり減らした
とどめを刺したのは、学生時代から付き合っていた恋人の裏切りだった
「ごめん、他に好きな人ができた」
その言葉一つで私の世界を繋ぎ止めていた最後の糸がぷつりと切れた
仕事も、人間関係も、もうどうでもいい…
幸い友人付き合いもなく
趣味もなかった私の通帳にはソコソコ貯金が残っていた
私は辞表を出しその足でロードバイクとキャンプ道具一式を買い揃え、アパートを引き払った
倭国一周
それはただの「逃避」だった。
旅を始めて一ヶ月
雨に打たれ、峠を越え、いくつもの絶景を見た
倭国海に沈む夕日も
アルプスの山々も美しかった
けれど、私の心はどこか麻痺したままだった
ペダルを漕ぐ肉体的な疲労だけが、余計な思考を消してくれる
それだけが救いだった
ある日、私は名も知らぬ山間の集落を目指していた
スマホの地図アプリだけを頼りにペダルを回していたが、不運は重なるものだ
峠の頂上付近で、後輪がパンクした
「まじか…」
パンク修理など旅に出る前に動画で見ただけだ
慣れない手つきでタイヤを外そうとするが、レバーがうまく噛み合わない
焦れば焦るほど時間は過ぎ
修理が終わった頃には、手元すら見えないほどの夜になっていた
街灯など一本もない
スマホの電波も圏外
そして、ガードレールの支柱に括り付けられた『熊出没注意』の看板が…
背筋が凍った
テントを張るなんて自殺行為だ
進むしかない
私は頼りない自転車のライトだけを点け、暗闇へと漕ぎ出した
右も左もわからない
ただ、後ろから何かが追いかけてくるような恐怖に追われ、無我夢中でペダルを踏んだ
孤独と恐怖で足の感覚がなくなりかけた時、暗闇の中にポツンと光が浮かんでいるのが見えた
…民家だ
助かった!と思うのと同時に、躊躇いが生まれた
こんな夜更けに、見ず知らずの男が訪ねて怪しまれないだろうか
だが、背後の闇が私を押し出した
「すみません……! どなたかいらっしゃいませんか!」
古びた木造の平屋
引き戸を叩くと、しばらくして土間の奥から「はいはい」としわがれた声が聞こえた
現れたのは小柄な老婆だった
私は必死で事情を話した
旅をしていること、自転車が壊れたこと野宿が怖いこと
老婆は私の泥だらけの服と、引きつった顔をじっと見つめふにゃりと笑った
「んだか 熊が出るからねぇ ここは 怖かったべ あがんなさい」
拍子抜けするほどあっさりと彼女は私を招き入れてくれた
家の中は線香と古畳の懐かしい匂いがした
「ばあちゃん一人だから、なんのお構いもできねぇけど」
そう言って出されたのは、熱いお茶と、自家製の漬物だった
冷え切った体に熱が染み渡る
「どこから来たの」
「東京です」
「東京! そりゃあ遠いとこから。若いのにえらいねぇ」
えらい、なんて言葉、久しぶりに聞いた気がした
老婆の屈託のない笑顔を見ているうちに、張り詰めていた糸が緩んでいく
最初は旅のルートや自転車の話をしていた。けれど、老婆の「なんでまた、一人でこんな辛いことを?」という純粋な問いかけに、私は言葉を詰まらせた
「……逃げてきたんです」
ポツリと、本音が漏れた
仕事がうまくいかなかったこと
誰とも馴染めなかったこと
信じていた人に裏切られたこと
「全部が嫌になって、全部捨ててきたんです。倭国一周なんて格好つけてますけど、ただの現実逃避なんです。僕には、帰る場所も、待っている人もいない」
初対面の、名前も知らないお婆さんに、私は堰を切ったようにすべてを吐き出していた
みっともない…情けない…
けれど、老婆はただ「うん、うん」と、私の背中をさするように相槌を打ってくれた
否定もせず安っぽい励ましも言わなかった
「辛かったねぇ。よく、ここまで走ってきたねぇ」
そのしわだらけの手の温かさに触れた瞬間、堪えていたものが決壊した
私は人目もはばからず、子供のように泣いた
大手企業の名刺も、貯金の残高も関係ない
ただの弱い人間として、誰かに受け入れられたかったのだと、その時初めて気づいた
その夜は、客間の布団で泥のように眠った
夢は見なかった
翌朝
トントン、という包丁がまな板を叩く小気味良い音と、出汁の香りで目が覚めた
障子を開けると、まぶしいほどの朝日が縁側に差し込んでいた
「おはよう。よく眠れたかい?」
割烹着姿の老婆がお盆を持って立っていた
炊きたてのご飯で握ったおにぎり
野菜たっぷりの味噌汁
そして昨日の漬物
どこにでもある
けれど今の私には宝石のように見える朝食だった
🧓「朝ごはん作ったから食べていってね」 December 12, 2025
10RP
#山口県 の深い山の中。そこは地元住民でさえ通ることのない荒廃した山道だった!行く手を阻む走行困難な山道の先、捜索隊をまさかの事態が襲う…!?日曜よる7時54分からの #ポツンと一軒家🏡
#所ジョージ #林修 #浅利陽介 #ハシヤスメアツコ
👇ガードレールがオレンジ
https://t.co/vdZwnB9jZj December 12, 2025
5RP
能登半島を東から西に移動して輪島へ。途中の道のガードレールがひしゃげているのや山肌がぱっくりむき出しになっている様子に地震の破壊力の大きさを感じながら進む… December 12, 2025
4RP
いやーこのTikTokの動画で、ディズニーがAIを活用するって話してて、そのコメント欄がもう「文化祭の出し物会議」みたいになってるのが最高だよね。「ハンスぶっ飛ばす動画つくろ🤣」「アベンジャーズvsデッドプール😎」「コンプラガチャやろうな😂」ってさ。要するにみんな、観客じゃなくて作り手側に回りたいわけだ。
で、これってガチでディズニー公式が制度にしようとしてる話でね、今回のディズニー×OpenAIはものすごい文化革新になる可能性がある。
ディズニーがOpenAIに10億ドル規模で出資して、Soraみたいな生成AIでディズニー、マーベル、ピクサー、スター・ウォーズのキャラを、一定の条件のもとで使えるようにする。
しかも俳優の顔や声は使わない、悪用を防ぐ仕組みも入れるって 線引きをセットで出してきた。
さらに2026年からディズニープラス側でもユーザー制作の短尺動画を扱う方向、社内でもChatGPTを展開って、完全に「AIは敵か味方か」じゃなく「AIを管理された道具にする」へ舵切ってる🎯イーロンマスクもこれにはびっくりじゃない?🥳
ここで星野ロミさんが言ってる「AIを嫌って国益を損なう未来」って主張も大事なわけだよ。
星野ロミさんは、「反AIの声がデカい界隈ほど、手で描けの空気圧が強くて、バレたら謝罪に追い込まれる。結果、グッズ作るにも非効率でコストが増える。中国、韓国などの海外がAIで量産、高速化したら、スピードも利益も勝てない」ってことをわかりやすく教えてくれてる✨
これ、言い方は荒いけど、現場の萎縮って点はわりと本質突いてるのよね💡
ただね、反AIや不買運動がぜんぶ間違いかっていうと、そうでもない。最近の「サクラクレパスの販促ポスターが生成AIだった件」みたいに、表示、確認、合意の設計が甘いと、企業は炎上して信用を落とす。
で、結局クリエイターも巻き添えで疑心暗鬼になる。だから不買や批判は、本来、ルール作れ、表示しろ、権利処理しろって圧力としては意味があるんじゃないかしら?
問題はここから先でね、倭国が一番やっちゃダメなのは、包丁の議論で包丁そのものを燃やすやつ。包丁でケガする奴がいるからって、料理人に手でちぎれって言うのは狂気だろ?
AIも同じで、悪用や無断学習っぽい運用があるなら、燃やすんじゃなくて「刃こぼれしないように管理する」「子どもに持たせるならカバー付ける」「店は注意書きと講習する」って方向に行かなきゃいけない。
ディズニーの動きって、まさにそこを狙ってるんだよ。
誰でも監督になれる世界を作る代わりに、キャラはライセンス、俳優の顔と声は別扱い、ガードレールを付けて遊べる範囲を決める。
これができると、コメント欄の妄想大会が違法コピーじゃなく公園の遊具になる。公園で遊ぶ分にはみんな幸せってやつだよ。
で、倭国が勝ちたいなら結論はシンプル。
反AIの熱量を禁止じゃなく、制度に変換しろってこと。
つまり、AIを使うならAI使用表示を徹底して、権利元に金が落ちる仕組み。ライセンスや包括契約を整える。
学習データや素材の扱いも白に寄せる。クリエイター側にはAIを使う自由と同じくらい使わない自由と無断利用されない権利を用意する。
これができないまま魔女狩りだけが続くと、現場はビビってコストだけ増えて、海外は普通に量産して市場を取る。
すると最後は「倭国は絵が上手いね」で終わって、産業としては負ける。
AI不買ってのは、文明が進むほど手作りが尊いって気持ちの表れでもあるんだよ。
それは分かる🎯
だけどその尊さを守る方法が、道具の破壊になった瞬間に、守りたいはずの文化が先に息切れする。
だから倭国は、怒りを上手く使って、ルールを作って、堂々と作って、堂々と儲ける😆💰✨って感じでもいいんじゃないかしら? December 12, 2025
4RP
石破氏が左に見えてるくらいだからその道路は既に車線も道路も機能してないんだよ。自民党支持者の多くは車線越えてガードレールの外を走ってる。道の話をするならせめて道路を走ってほしいね。 https://t.co/C1bzNrTMVU December 12, 2025
3RP
間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?
https://t.co/t1kU6e97IM
Atlas の個別の脆弱性よりも、自律性を持つエージェントに対して、どこまで権限とツールを渡すべきかという論点を深掘りする記事です。メールや Web ページなどの信頼できないコンテンツを読ませる設計と、エージェントに広いツール権限と機密データへのアクセスを与えることで、間接的なプロンプト・インジェクションが現実的な攻撃経路になっています。特に、小さな組織ほど、ガードレールの設計や権限の見直しが追いつかず、便利さを優先した結果としてリスクが積み上がっていく構図が描かれています。
#AIAgent #AIML #ChatGPTAtlas #PromptInjection December 12, 2025
2RP
突然の止められない加害性。
「車を意図的にガードレールにぶつける」はやばすぎる。怒りで事故起こしてるじゃん。
でも1番やばいのは
「これ、結構よろしくない精神状態でしょうか?こんな自分に驚いています。」
って呑気に質問してるところ
驚いてるとかそういう場合じゃないんではよ病院行って https://t.co/IeH5JAwOMz December 12, 2025
2RP
誰かの落し物を拾った心優しい方が、汚れないように袋なんかに入れてガードレールに掛けておいたりするお話しを聞いたりしますが あれを義炭変換したら落とすのは🌊で家族の肩身の品で 〝拾ってくれた方ありがとう〟なメモを残して それをまた🎴が見て〝手元に戻って良かったです!〟みたいな文字数 December 12, 2025
1RP
100均で買った「倭国の町並み」シリーズのアスファルトとブロック塀、あとガードポール。
ガードポールはガードレールと同じでデカすぎるだろうことはわかっていたけど、アスファルトとブロック塀は違和感なく使えそうかな? 普通の町の一角というか一般的な路上ができそうですね。 https://t.co/nXAcC5XpdN December 12, 2025
1RP
BizOpsアドベントカレンダー2025!13日目!
株式会社マネーフォワード 齊藤さん!
ITILから考えるSalesforceのアップデート管理
https://t.co/PLmDqeV0eD
ある程度の事業規模である企業のBizOpsにとって必見の内容ではないでしょうか?
記事を読んだ個人的な感想
・背景(記事を読んで刺さった点)
Salesforceのセキュリティ系アップデートが増え、「未インストールの接続アプリ」など放置すると止まる系の通知が現場をザワつかせた・・・
この前提がリアル。SaaSを使う以上、変更は不可避で、運用が事業安定の一部になるという整理が、腹落ちしました。
営業生産性!などで語られることが多いですが、ITシステムであるという前提を置くことが重要。
・分析(BizOps視点)
アップデート対応を「気合い」ではなく、ITIL v3のイベント管理(検知→分類→アクション)に落として“運用プロセス”として扱ったところ。ある程度の規模になってくると必須となる技術。
特に、通知メールを“お知らせ”扱いせず「イベント」と定義し、見落としが最悪の事故につながる、という危機感の置き方が良い。
Salesforceに限らず、ERP/会計/ワークフロー/IdP…全部同じ構造です。
・この内容から伝え、学びたいこと
1) 「アップデート対応」は“変更管理”ではなく“イベント管理”から入るこちで、仕組みを立派に作るより、まず検知の仕組み化(メール自動振り分け+チーム共有)で見落とさない土台を作るのがいいんだなと。
2) 個人運用を卒業して、チーム運用にするだけで事故率が落ちる
担当者依存をやめるために、Slack等へ自動連携して誰かが気づく状態を作る。これはBizOpsが一番最初に整備すべき運用ガードレールだと思います。
3) “全部対応”を捨てて、トリアージを意思決定の型にする
「トリアージ→対応方針」の2段階は、現場の工数を守る設計。対応レベルのラベル設計があるだけで、緊急度の議論が減って、実装に時間を回せる。
4) 最後に効くのはCSI(継続的サービス改善)
仕組みは一発で完成しない。検知・分類・アクションのズレを振り返り、運用自体をアップデートし続ける、という締めが運用を経営に寄せる動きになっていて好きです。
是非とも一読ください!
#BizOps #BizOpsアドベントカレンダー December 12, 2025
1RP
#brmyプラス 飲み会が終わった足でそっちに行くねと伝えてたのに律儀に迎えにきてくれる恋人ともせ。店を出てすぐ、ガードレールに腰掛けながら腕を組んでる姿さえ絵になってて困ります。その構図があまりに良すぎてスマホを構えるんだけどすぐにバレるし、腕を組んだまま右手だけピースとかされる。 December 12, 2025
1RP
生成AIは「話す」時代から「行動する」時代へ。
エージェント型AI(Agentic AI)の台頭により、企業のガバナンスも新たなフェーズに入っています。
DataikuとBARCによる最新レポート『Modernizing Governance for the Era of Agentic AI』をぜひご確認ください。
これまでのAIガバナンスは「データ」と「モデル」が中心でしたが、AIが自律的にツールを使い、意思決定を行うこれからの時代には「エージェント」を含めた3層での管理が不可欠です。
重要なポイント:
1. リスクの質が変わる
人間が承認する前に秒単位で行動するAIに対し、四半期ごとのレビューでは間に合わない。リアルタイムな監視が必要。
2. ガードレール(防御壁)の具体化
「緊急停止スイッチ(キルスイッチ)」の実装や、一定金額以上の決済は人間に回す「Policy-as-Code(コードとしてのポリシー)」の導入が求めらる。
3. 信頼がスピードを生む
ガバナンスはイノベーションのブレーキではなく、アクセル。安全なガードレールがあるからこそ、企業はAIを大胆に展開できる。
AIに「自律性」を持たせるなら、管理側も「自動化」しなければならない。組織としてどう向き合うか、今まさに議論すべきタイミングだと思います。
https://t.co/LGMh8fAc9P
#AI #AgenticAI #Dataiku #AIガバナンス #DX #生成AI December 12, 2025
1RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



