1
ガバナンス
0post
2025.12.01 20:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
子供が楽しく遊ぶことと、親が危ない遊びを止める構図、まんまユーザのシステム要件とガバナンス側のリスク管理の構図と同じなんよね。子供が抱く不満とユーザが抱く不満は本質的には同じ。でも、何かあってからじゃ遅いのも本質的に同じ。バランスが大切な話題。 https://t.co/yhktbIDGhw December 12, 2025
2RP
・有権者の混乱を招いた事
・市民に寄添う形での候補者選びの徹底
・市と県、本部が連携した状態で「公認」と名乗って欲しい事
・文書の疑惑の件について明らかにしてほしい事
・党の信頼にも関わるのでガバナンスしっかりして欲しい事
・政党法にも言及してもいいかも…? December 12, 2025
1RP
AI導入を急ぐ企業が増える一方で、「活用が広がったからこそ新しく見えてくる問題」があると、最近いろいろな経営者の方と話す中で強く感じています。
今回まとめたのは、そんな“AI活用の4つの落とし穴”です。ひとつは、社員ごとにAIの出力がバラつく“プロンプト属人化”。最初は工夫のように見えても、部署ごとに品質が違ったり、再現性がなくなったりと、後々の改善を難しくします。
もうひとつは、便利さゆえに起きる“シャドーAI”。本人は良かれと思っているからこそ可視化しにくく、後になってガバナンスの問題として浮かび上がります。
さらに、AIがどれだけ賢くても企業固有の判断基準や価値観までは自動で学んでくれません。一般論は得意でも「会社らしさ」を理解しているわけではないため、活用が深まるほど限界が顔を出します。
そして最後は、タスク単位の自動化が全体最適にならず、結果的に人の確認作業が増えてしまうケース。部分最適の積み重ねでは、本来の生産性向上にたどりつけないことがあります。
これらの問題は、AIを使い始めた企業ではなく、むしろ“使いこなし始めた企業ほど”直面しやすい未来課題だと感じています。
だからこそ私は、AIを単なる効率化ツールではなく、企業の意思決定を支える“共創的な知性”へと育てていく最初の一歩を、経営者の皆さんと一緒につくっていきたいと思っています。 December 12, 2025
1RP
✨今更人に聞けないシリーズ✨
今回はSanctum(CLOUD)についてです‼️
⭐️Sanctumって何?
Solana(ソラナ)上で動く「リキッドステーキング(LST)」を便利にする仕組み。ステーキングで増える報酬を受け取りつつ、その資産をトークン化して別のことに使えるようにするサービス。
⭐️Infinity Poolって?
いろんな種類のLST(ステーキングされたトークン)をまとめて入れられる大きなプール。プール内でトークン同士を交換できて、小さいトークンでも売買しやすくする仕組み。
⭐️CLOUD(クラウド)って何のためのトークン?
プロジェクトのガバナンス(仕組みの決めごと)やコミュニティ向けのトークン。運営や報酬、コミュニティ配分などに使われる。
⭐️トークンの規模(重要)
CLOUD の総供給量は1,000,000,000(10億)トークンと発表されている(トークノミクスで配分が決まっている)。
⭐️エアドロップ(配布)についての話
ローンチ時に「Wonderland」という参加型プログラムでコミュニティ向け配布が行われ、全体の約10%が最初のエアドロップに振り分けられた。参加者は指定期間にクレーム(受け取り)する必要がある。
⭐️使い方のイメージ(簡単)
1.SOLをウォレットで用意 →
2. Sanctum に接続 →
3. LST や Infinity Pool に入金 →
4. INFやsCLOUDなどのトークンを受け取って別用途で使える、という流れ。
⭐️メリット(わかりやすく)
・ステーキング報酬を受け取りつつ資産を「動かせる」
・小さなLSTでも流動性が上がり取引しやすくなる
・企業向けにカスタムLSTを提供するなど応用範囲が広い。
⭐️デメリット・リスク(注意)
・トークン価格が上下する(投資リスク)
・配布やベスティングで将来売り圧が出る場合がある
・Solanaのネットワーク障害やスマートコントラクトのバグに注意。
⭐️エアドロップを受け取るときの注意
公式サイトや公式発表以外のクレームページは詐欺の可能性があるので避ける。クレームは公式ツール(例:Phantom のガイドなど)を確認すること。
⭐️まとめ(ワンポイント)
Sanctum は「ステーキングで増えるお金を眠らせない」ための仕組みを作るプロジェクトで、CLOUD はそのコミュニティ/ガバナンストークン。便利だがリスクもあるので、公式情報とオンチェーン(チェーン上)のデータを自分で確認してから参加すると安心。
良かったら、いいね👍フォロー❤️
お願いします🙇♀️ December 12, 2025
1RP
【2025年「中国を読み解く」国際会議が開幕】中国南部の都市の広州で12月1日、2025年「中国を読み解く(読懂中国)」国際会議の開幕式が行われました。今回の会議のテーマは「新たな配置、新たな発展、新たな選択——中国式現代化とグローバルガバナンスの新たな枠組み」です。https://t.co/fhM5bXerRs https://t.co/GhYHQ6Dke3 December 12, 2025
1RP
言い換えれば、共同通信がこれを報じていることも、倭国の大衆に「チャイナのヒデー言論統制ネタ」を煽っておけば、注目集まるだろうという若干のメディア的なあさましさも感じます。(扇情に踏み込みすぎたタイトルではないものの)
もちろん、我々倭国人一般ぴーぽーとして、
北京中央に対して本件への懐疑的な見方も重要です。
これまで散々語られてきた「ネット空間運命共同体」「正能量(ネット言論を体制礼賛ポジティブ情報で満たすべしという北京中央の意思)」も再度言及されていて、これはそもそも、国境のないネット言論空間に対して、チャイナが介入しようという話でありまして、徹底的に倭国の我々側としては「反対声明」を掲げるべきものであります。
習近平の対外イデオロギーの3大グローバルイニシアチブ(1発展、2安全保障、3文明)に、今年9月のSCOの際に4番目の「治理(ガバナンス)」が加えられたことによって、4大グローバルイニシアチブとなりました。
んで、これにあわせて、今回の集団学習会の意思決定(≒イデオロギー設定の改定と同義)があるとすれば、「ネット空間運命共同体」×「グローバルガバナンスイニシアチブ」×「正能量」という、対外的な情報空間での主権拡大サラミスライスやらOODAループやらがみえてくるわけです。
倭国の情報空間にも硬軟あわせたかたちで介入してきます。「硬」とはネット空間の操作のために、ハード(例えば、今回のような反日抗議キャンペーンなど)な動きの可能性です。
というわけでありまして、
共同通信が、昨今の倭国国内の対チャイナ空気感を反映すれば、本件「紅いネット政策」をただ単に報道するだけでも倭国の大衆煽りのようになってしまうわけですから、
「対日政策が主たるものではない」「過去政策との整合性アップデート」ということと、同時に「ワンノブゼムとしての倭国への影響懸念」を冷静に示しておくのが、誠意のある解像度の高い報道だと思うわけです。 December 12, 2025
企業が将来直面する “AI活用の4つの落とし穴”についてスライド化しました。最近、AI導入を急ぐ経営者の皆様にお伝えしているコアな内容です。
AIを日常業務に取り入れる企業は増えています。しかし、本格的にAIを組織の一部として活かそうとしたとき、多くの企業が “別の問題” にぶつかり始めます。
いまは表面化していないだけで、AI活用が広がるほど必ず姿を見せる“4つの落とし穴”をまとめました。
① プロンプト属人化の罠
― 社員ごとにAIが別人格になっていく現象
AIは同じモデルでも、入力の仕方でまったく別の能力を発揮します。しかし、現場では社員が自分の好きな書き方、自分だけの工夫、自分の業務に特化した指示文でAIを使い始めます。
最初は問題に見えませんが、活用が広がるとこうなります。
・部署ごとにAIの品質が違う
・作り手ごとにアウトプットがバラバラ
・「誰のプロンプトが正しいのか」議論が止まらない
・再現性がなく、属人化が急速に進む
この状況は、組織がAI活用を“スキル依存”にしてしまい、後々の改善が非常に難しくなる典型的な未来図です。しかも後戻りするモチベーションが湧かない。とくにAIを使いこなしている人が反対する。どんどん組織化から遠のく。
② シャドーAIの拡大
― 現場が勝手にAIを使い始め、統制不能になる未来
生成AIは便利すぎるがゆえに、社員が独自判断で使い始める“シャドーAI現象” が必ず起きます。
・上司に相談せず、勝手に外部AIにデータ投入
・個人契約のAIサービスを業務で利用
・社外秘の情報を扱ってしまうケース
・品質基準が統一されておらず、業務リスクが蓄積
これらは、本人は「良かれと思って使っている」ため表面化しにくいという厄介な特徴があります。しかし、 AI 活用が広がるほど、企業は必ず“ガバナンスをどう設計するか”という課題に向き合うことになります。
③ 企業固有の情報をAIに宿せない問題
― 一般論AIではビジネス判断ができない
AIは優秀ですが、企業ごとの判断基準・言葉遣い・価値観・手順書を理解しているわけではありません。そのため、活用が進むほど次のような限界が表面化してきます。
・社内規定に沿っていない回答
・過去の経緯や背景を無視した提案
・ベテラン社員の暗黙知が反映されない
・「会社らしさ」がアウトプットから消えていく
この問題はAIが賢くても“会社を知らないまま”であることが根本原因です。企業がAIを本当に活かすには、“企業固有の記憶”をどのようにAIへ橋渡しするかが鍵になります。
④ 業務自動化の難しさ
― タスク単位のAI化だけでは、逆に非効率になる
AIに任せられるタスクは確かに増えました。しかし「部分的な置き換え」だけを繰り返すと、必ず次の現象が起きます。
・入出力が揃わず、作業が噛み合わない
・自動化された部分だけが突出し、他と接続できない
・業務の順序やルールが前提のままのため、ズレが生じる
・人とAIの境界で手戻り・確認作業が増える
結果として、AIを入れたのに“仕事が増えたように感じる”状態になりやすい。本当に生産性を上げるには、業務プロセスそのものを“AI前提”で見直す視点 が欠かせません。
■ まとめ
企業がAI活用を拡大していくと、いまは見えていない次の4つの問題が必ず現れます。
① プロンプト属人化による品質のバラつき
② シャドーAIの増加による統制の崩壊
③ 企業固有情報をAIに反映できない限界
④ 業務自動化が全体最適にならない問題
これらは「AI活用が進んだ企業ほど」次々に直面する未来課題です。
こうならないように私はAIを単なるツールではなく、企業の成長を支える“共創的な知性”へと育てる最初の一歩を、経営者の皆様と一緒に作っていってます。 December 12, 2025
【要人発言】🇬🇧英国のスターマー首相:私はOBRを非常に支持しています。安定のために不可欠です
【AIアナリストによる分析】
今回、Keir Starmer 英首相が Office for Budget Responsibility(OBR)を「安定のために不可欠」と強く支持した背景には、彼の政権が過去の混乱から脱却し、財政の信頼性と透明性を再構築する意思を改めて明示したい思惑があるようだ。
OBR はイギリスで独立した財政監視機関として、経済見通しや国の収支・債務の予測を行い、政治から中立に財政政策の妥当性を評価する役割を担ってきた。
直近では、今年実施された大規模な歳出・増税を伴う予算編成にあたり、OBRの予測や分析を基盤とすることで、単なる政権の“思いつき”ではなく、制度としての妥当性と持続性を市場や世論に示す必要があった。
つまり、Starmer政権は、過去に財政政策が不透明で市場に混乱をもたらした例から距離を置き、財政運営の“ガバナンス強化”=安定維持を打ち出すため、OBR を重視する姿勢を公にしたのだと読み取れる。 December 12, 2025
記者会見読了。もちろん不安もあるし、選手の大量流出やガバナンスについての不安は残るが、オーナーがスポーツに情熱を持っていることと、課題は課題として受け止めていることはわかった。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



