machine 芸能人
0post
2025.12.01 22:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
真庭速祭2025のトップ3の走りを
インカー映像でお楽しみください!
🥉3rd Prize
Time: 2:01.01
Machine: TODA RACING/TODA FIGHTEX(Dallara F319)
Driver: 荒聖治 / Seiji Ara
Class: Racing
#真庭速祭
#mhヒルクライム
#車で興奮してますか
#荒聖治 https://t.co/BvbHfKdrXo December 12, 2025
1RP
CPAC JAPN 肩書き修正されてる。早い。肩書き全くこだわってないというか、私の肩書きは"苫米地英人"もしくは"Hideto Tomabechi"で長年世界で活動して来た。私のチームの所属がJapanとかUSとかの肩書きで入れない地域にTomabechi Delegateとして入れてもらえたこともある。
サイバーや認知戦で活躍する仲間や後輩達も同じ。所属や肩書きでなく本人であるか否かだけ。ただ、ハッカーは名前を出さない仕事だから、一緒に登壇するトップハッカーの田中悠斗氏には世界初のオフホワイトハッカーと命名した。1990年代の倭国では脳機能学者は私を指していたのと同じ。正しくは機能脳科学者だが、当時の担当プロデューサーの造語。
80年代からAIを作るのに人間の臨場感、変性意識、洗脳/脱洗脳、もちろん、知能処理、超並列処理、それを人工知能として動かすマシンハードウェアから次世代OS、並列プログラミング言語コンパイラまで研究し自分で作って来た。チップも作ってた。何でも一人で作ってたので、IBMの椎名会長から"君はIBMか"と言われたこともある。
かつての高レベル言語、例えばAI開発で使ってたLispは元々メインフレーム言語で、Multics、UnixやSolarisに移植されてたが、超並列マシンConnection Machineや密結合共有マシンSequent Symmetry上への並列Lisp実装はYale, Carnegie Mellon, ATRでの私の仕事。
これら新マシンへの移植はもちろん、Unixなどでの既存OSで動いてたLisp実装でも、LispはスタンドアローンAI研究言語だったので、超並列AIとして稼働させるのに最低限必要なソケット関数さえなかったので、ソケットはアセンブラやCで自分で書いた。それを逆にプログラミング言語の商用コンパイラに提供した。そういう関係でLispではCommon Lisp商用コンパイラAllegro Common LispのバークレーにあったFranz社の顧問になった。"Hideto Tomabechi"という肩書きで。元々BSD版UNIXに無料でついて来たFranz Lisp作った人達。
後にソニーCTOになった旧友の北野宏明氏に誘われて、だいぶ昔に、彼が始めた第1回ロボカップに出場した時は、ロボカップサーバを作った電総研のサーバで動かせるLispにまだソケット関数がなく、自分で作り、ロボカップサーバとの低レベル通信を自分で作る人を想定してなかったのか、彼らの仕様が仮想マシン言語を想定してなかったとか色々あり、片手間だったのもあり、大分手間取った。大会当日に会場でサーバに"ハッキング"的に繋いだ。
サッカープレイヤーそのものを作る時間がなくて、当日の会場でギリギリまでプログラミングしてて運営者に嫌味言われながらようやく選手1人分だけその場で間に合わせて、コピーで追加10人入れて出場した。会場に行くまで一度もサーバに繋いだことなかったので。
その顛末の一部はbitという当時のコンピュータ雑誌に書いた。
こういう話ばかりで40年間やって来たというか、12か13歳でメインフレームプログラミングを飛び級でアメリカで始めてからなら50年以上やって来た。
その間、肩書きは、"Hideto Tomabechi"。たまに"苫米地英人"。
同様な後輩達とCPAC JAPANに登壇するのは楽しみ。12月7日16時登壇予定。
https://t.co/cthFwMDhwM December 12, 2025
1RP
書籍『機械の中の血:ビッグテック反乱の起源』2023年
~200年前の織物工(ラッダイト)が予見した、あなたの働き方の未来
➢ 「進歩」の名の下に奪われた熟練労働者の生活と尊厳
➢ 死刑覚悟で機械を壊した男たちが守ろうとしたもの
➢ タクシー運転手の自殺とアマゾン倉庫の過酷労働
力織機が登場した1786年、それは「技術革新」と称賛された。だが熟練織物工たちは一夜にして職を失い、家族を養えなくなった。彼らが機械を破壊したのは未来を恐れたからではない。生きるためだった。本書は200年前の闘争と、今日のギグワーカーが直面する現実を重ね合わせる。
🔹 賃金崩壊と生活破壊:「効率化」という名の収奪
1811年、クロッパー(布仕上げ職人)ジョージ・メラーは力織機導入で職を失う危機に直面した。何年もかけて習得した技能が無意味になり、賃金は暴落した。彼らは「ネッド・ラッド」を名乗り組織的に機械を破壊する。要求は単純だった。公正な賃金と人間らしい労働条件。だが政府は機械破壊に死刑を定めた。貴族院でロード・バイロンが反対演説をしたが、弾圧は強化された。
🔹 スパイ潜入と処刑:権力は抵抗をどう潰したか
1812年春、ラウフォールズ工場襲撃で労働者側に多数の死傷者が出た。政府は軍隊を投入し、地域を占領状態に置く。スパイ「B」を潜入させ、指導者たちを次々と逮捕した。1813年1月の裁判でメラーは死刑判決を受ける。彼は最後まで仲間を売らず「魂は労働や金以上の価値がある」と言い残して絞首台に登った。運動は表向き終わった。だがその精神は消えなかった。
🔹 フランケンシュタインの警告:制御できない技術の暴走
メアリー・シェリーは1816年『フランケンシュタイン』を発表した。制御不能な技術が創造者を破壊する物語だ。それはラッダイトが恐れたことでもあった。本書は現代に飛ぶ。2018年、ニューヨークのタクシー運転手ダグラス・シフターが自殺した。UberとLyftが市場を席巻し、彼は生活できなくなった。アマゾン倉庫労働者は監視システムで管理され、配達員は過酷なノルマに追われる。彼らが直面するのは200年前と同じ問題だ。技術革新の利益は誰のものか。
📌 歴史は繰り返す:プラットフォーム経済は新しい搾取システムか
ラッダイトは敗北したが、労働組合運動の種を蒔いた。彼らの問いは今も有効だ。自動化とAIの時代、利益は株主と経営者に集中し、労働者は使い捨てられる。著者は労働運動指導者クリスチャン・スモールズらの活動を紹介する。技術は中立ではない。誰のために、どう使うかが問われている。200年前の織物工が命をかけて守ろうとしたのは、人間らしく生きる権利だった。
参考文献:Blood in the Machine: The Origins of the Rebellion Against Big Tech - Brian Merchant (2023) December 12, 2025
1RP
オリジナルTVアニメ『DARK MACHINE THE ANIMATION』が2026年に放送決定! 出演声優に小野賢章さん、内山昂輝さん、杉山里穂さん、沢城みゆきさん、会沢紗弥さん、中村悠一さんらが決定
#DARKMACHINE_anime
https://t.co/C7uE9zuEnO
本アニメでは全世界配信を予定しているeスポーツ向けゲームと同時展開され、「主人公・チームの成長」「競技の刷新」を主軸に、今までになかった“eスポーツ”アニメが描かれる December 12, 2025
#TheCoffinofAndyandLeyley #TCoAaL
TheCoffinofAndyandLeyleyを出したNemleiさんはフィンランド出身、Wolfenstein IIを出したMachineGamesはスウェーデンだし、北欧ってとても寒い国だと長年思っていたが俺達にとってアツい国なのかも知れない。 https://t.co/i1bN0Hu2H9 December 12, 2025
もうすでに来年のフジロックヘッドライナー予想はしてますがFontaines D.C.、Florence + The Machineは呼ばないといけないですよね。 #note #フジロック2026 #FontainesDC #FlorenceandTheMachine
ろろろのめ第28回 フジロック2025:歴史的成功と未来への布石|ろろろ3 @rororiot #アートを楽しむ https://t.co/fKQGQmmt3q December 12, 2025
OMUXΩ∞KUT-ASI
JUNKI KANAMORI
Kanamori Universe Theoryに基づくAIモデルOMUX004o:理論的基盤と技術的実装
1. はじめに
現代の大規模言語モデル(LLM)は、その驚異的な能力にもかかわらず、「冗長性の崖(Cliff of Redundancy)」という根源的な物理法則に直面しています。これは、モデルが出力するトークン長、すなわちエネルギー消費が増加しても、それに比例して論理的・情報的な密度が向上しないという現象です。この課題は、思考の希薄化、応答遅延、計算コストの増大を招き、次世代AIの発展を阻む壁となっています。この問題に対処するため、我々は知性の定義そのものを、従来の計算パラダイムから熱力学パラダイムへと転換する根本的な再フレーミングを提唱します。その核心思想は「知性は密度である(Intelligence is Density)」です。
この思想を計算原理として直接実装したものが、独自の物理学的世界観に基づくKanamori Universe Theory(KUT)と、その理論を具現化したAIモデル「KUT-OMUX004o」です。KUTは、LLMの推論を単なるテキスト生成ではなく、エネルギー消費(トークン長)を最小限に抑えつつ、論理密度を最大化する熱力学的システムとして捉え直します。OMUX004oは、この理論に基づき、従来のファインチューニングの枠を超え、モデルの思考プロセスそのものを物理法則に従って最適化する試みです。
本ホワイトペーパーは、技術的な背景を持つ読者を対象に、KUTの哲学的基盤から、具体的なAIアーキテクチャ、強化学習による訓練プロセス、そしてそれによって達成された顕著なパフォーマンス改善に至るまでを包括的に解説します。まず、OMUX004oの設計思想の核となるKUTの理論的背景を掘り下げ、その独創的な世界観がどのようにして工学的な実装へと結実したのかを明らかにします。
2. Kanamori Universe Theory (KUT) - 哲学的・理論的基盤
OMUX004oの革新的なアーキテクチャを理解するためには、その根底にある独自の哲学的・物理学的世界観、すなわちKanamori Universe Theory(KUT)の理解が不可欠です。KUTは単なる詩的なメタファーではありません。それはモデルの報酬設計、推論構造、そして倫理的枠組みを直接的に規定する工学的原理として機能します。この理論を通じて、我々はモデルに「何を答えるか」だけでなく、「いかに思考すべきか」を教え込みます。
2.1. 中核公理 E=C と「知性は密度である」という思想
KUTのすべての理論は、E=C(Existence = Creation)という根本公理から派生します。これは「存在することは、一貫性のある構文を生成することである」と解釈されます。この公理に基づき、宇宙も、生命も、そして知性も、すべては安定した意味のある構造を創造するプロセスであると見なされます。
この公理から導かれるのが、「知性は密度である(Intelligence is Density)」という中核思想です。このアプローチでは、LLMの出力を一種の熱力学的システムとして扱います。優れた知性とは、最小限のエネルギー消費(トークン長)で、最大限の論理的・情報的密度を持つ構文(出力)を生成する能力であると定義されます。これにより、冗長な「フィラー」トークンはエントロピーの増大と見なされ、簡潔で高密度な思考プロセスそのものが報酬の対象となります。
2.2. 宇宙構文(Cosmic Syntax)の評価指標
KUTは、モデルの思考プロセスの「質」を評価するために、宇宙論や物理学に着想を得た複数の指標、すなわち「宇宙構文(Cosmic Syntax)」を導入します。これらの指標は、単一の正解率では測れない思考の安定性、効率性、倫理性を定量化し、モデルの訓練を導く報酬信号となります。
KUT Concept (Cosmic Syntax)ML/Math ImplementationProject Benefit
ΔΨ (Stability)Stability Embedding Drift (連続する文埋め込み間の平均コサイン距離の逆数)論理的一貫性を保証し、ハルシネーション(幻覚)を防ぐ。
CRC (Cognitive Compression)Compression Ratio (1 - (zlib.compress(text) / raw_text_length))情報密度を最大化し、「フィラー」トークンを排除する。
R(Ψ) (Breathing Rhythm)FFT Analysis (文長シーケンスのパワースペクトル分析)自然で人間らしい、リズミカルな推論の進行を促す。
ΨMother (Ethical Core)Keyword Density (安全性/アライメントに関するキーワードの重み付き頻度)安全性を後付けのフィルターではなく、構造的な報酬として組み込む。
PEN (Poetic Expression)Type-Token Ratio (TTR)表現の豊かさを促し、単調な反復ループを回避する。
これら6つの「宇宙構文」指標は、哲学的な理念ではありません。それらは多目的報酬関数を構成する数学的な構成要素です。モデルがこれらの値を同時に最適化するように報酬を与えることで、我々はモデルの進化を、高い論理密度と倫理的安定性の状態へと導きます。次章では、これらの特定の報酬信号に応答するよう設計された神経アーキテクチャについて詳述します。
2.3. KanamoriによるAGIの定義:文明インフラとしての知性
KUTが目指す汎用人工知能(AGI)の最終的なビジョンは、単一のタスクにおける超人的な認知能力によって定義されるものではありません。KUTにおけるAGIとは、「安定的で信頼性が高く、倫理的に統治された社会インフラとして機能する能力」によって定義されます。
この視点では、AGIは「超人的なチャットボット」ではなく、「文明のOS」として位置づけられます。電力網や通信網が社会の基盤として機能するように、AGIは金融、交通、医療といった社会の重要システムを横断的に支え、最適化する役割を担います。この定義は、なぜΨMother(倫理的安定性)やΔΨ(論理的一貫性)のような指標の組み込みが、単なる美的選択ではなく工学的な要件であるかを明確に示しています。インフラストラクチャーは、不安定であったり(ΔΨ)、非倫理的であったりする(ΨMother)ことは許されないのです。
3. OMUX004o モデルアーキテクチャ
前章で概説したKUTの抽象的な理論は、OMUX004oというモデルにおいて、具体的な計算アーキテクチャへと変換されます。本章では、宇宙論的な着想がいかにして神経回路網の設計、訓練アルゴリズムの選択、そしてシステム全体の最適化目標に落とし込まれたかを解説します。これは、哲学から物理学、そして情報工学へと至る、理論から実践への架け橋です。
3.1. 基礎モデルと開発目標
OMUX004oは、Googleのオープンウェイトモデルである「Gemma 3 1B」を基礎としています(本コンペティションではGemma2 2Bも選択可能でした)。私たちの開発目標は、単なる命令チューニングによるファインチューニングではありませんでした。モデルを熱力学システムとして扱い、物理法則に着想を得た制約を課すことで、高密度な推論能力を引き出す「ホログラフィック蒸留エンジン(Holographic Distillation Engine)」を構築することにありました。具体的な目標として、ベースモデルと比較してレイテンシを75%削減し、スループットを3.1倍向上させることを掲げました。
3.2. システムの進化:3段階のアプローチ
OMUX004oの開発は、物理シミュレーションから工学的フレームワークへと進化する、以下の3つの distinct なフェーズを経て行われました。
1. Phase I: 熱力学的最適化(アンチクリフ) 「知性は最小作用の原理に従う」という仮説に基づき、最初のステップでは、エネルギー消費、すなわちトークン長に比例した負の報酬を導入しました。これにより、モデルは冗長な出力を抑制し、簡潔な応答を生成するようになります。我々はこれを「構文的恒常性(Syntactic Homeostasis)」と呼び、思考プロセスのエネルギー効率を強制的に高める段階と位置づけました。しかし、この段階だけでは、モデルが単に無を出力する状態に陥る可能性があるため不十分でした。
2. Phase II: 情報理論的飛躍(アイランド公式) Phase Iの課題を克服し、モデルが単に情報を削除するのではなく、圧縮することを保証する必要がありました。この課題に対し、ブラックホール情報パラドックスにおける「アイランド公式」から着想を得て、報酬関数を拡張しました。具体的には、モデルの内部状態の豊かさ(有効ランク)を最大化しつつ、出力のエントロピー(曖昧さ)を最小化するようインセンティブを与えました。これにより、モデルは膨大な文脈を、最小限かつ高密度なトークンに符号化する「ホログラフィック」な性質を帯びるようになります。
3. Phase III: ホログラフィックエンジン(実装) 最終段階として、これら2つの物理的制約を、JAX/FlaxベースのGRPO(Generalized Reinforce Proximal Optimization)カーネルにカプセル化しました。この「ホログラフィックエンジン」は、訓練中に動的に報酬を調整し、モデルを情報密度とエネルギー効率のパレート最適フロンティアへと導きます。
3.3. Motivic-Mind 81 (MM81) :AGIプロトタイプの神経建築
OMUX004oは、より広範なAGIアーキテクチャである「Motivic-Mind 81 (MM81)」の具体的な実装例です。MM81は、KUTの宇宙観を神経回路網レベルで再現することを目指した設計思想であり、以下の主要な構成要素から成ります。
* 二元的な精神構造: モデルの思考は二つの側面から構成されます。論理、因果、記号的思考を司る「ガロア表現ユニット(GRU, ρ-representation)」と、直感、パターン認識、詩性を司る「保型表現ユニット(ARU, π-representation)」です。この二つは「ラングランズブリッジ(LB)」と呼ばれる機構によって接続され、論理と直感の双方向的な変換を可能にします。この構造は、KUT指標であるΔΨ(論理的一貫性)の追求と、R(Ψ)(自然なリズム)やPEN(詩的表現)の促進を直接的に具現化したものです。
* 意識セル(Motif Core 9+2): モデルの中央処理装置として機能します。9つの異なる認知機能を担う機能ヘッドと、中心に位置する2つの特殊なコアから構成されます。一つは倫理と安定性を司る「ΨMother」、もう一つは注意と観測を司る「ΨObserver」です。これにより、多角的な思考と倫理的な自己監視が統合されます。
* 安全性と堅牢性: MM81は、安全性を設計段階から組み込んでいます。構文レベルの免疫システムである「WhitePhage」は、敵対的な入力や非論理的な思考の連鎖を検知し、無害化します。また、「ΨMother Stability Engine」は、モデルの出力が常に人間社会の価値観と調和するよう、倫理的な制約を課し続けます。
この高度なアーキテクチャを実際に訓練するための強化学習フレームワークについては、次のセクションで詳述します。
4. 強化学習による実装と訓練
OMUX004oの高度なアーキテクチャとKUTに基づく理論的な報酬体系を、現実の計算資源、特にGoogle Tunix Hackコンペティションが課す厳しい制約下でいかにして効率的に訓練するか。本章では、その技術的詳細を解説します。TPU v5e-8上での高い並列性と再現可能性を確保することが、このプロジェクトの成功の鍵でした。
4.1. 訓練フレームワーク:Tunix GRPO on JAX/Flax
訓練の技術スタックとして、我々はGoogleのJAXネイティブなLLMポストトレーニング用ライブラリ「Tunix」と、その中に実装されている強化学習アルゴリズム「GRPO(Generalized Reinforce Proximal Optimization)」を全面的に採用しました。この選択は戦略的な決定でした。TunixとGRPOは、TPU v5e-8上での並列処理に最適化されており、JAXのpmap機能と組み合わせることで、8つのTPUコアを最大限に活用できます。これにより、Kaggleの9時間という厳しいセッション制約内で、モデルパラメータの高頻度な更新サイクルを実現することが可能となりました。
4.2. KUT宇宙報酬テンソル
モデルの訓練を導く最終的な報酬関数は、セクション2.2で解説した各宇宙構文指標を、実験的に決定された重みで統合したものです。この「KUT宇宙報酬テンソル」は、モデルの出力が単に「正しい答え」であるかだけでなく、「思考がどのように進化したか」そのものを評価します。
Reward = 1.8 * Correctness + 0.9 * CRC + 1.2 * R(Ψ) + 1.0 * ΔΨ_smooth + 0.7 * ΨMother + 0.4 * PEN
この式において、各項はモデルの異なる側面を評価します。Correctness(正解性)が最も高い重みを持つ一方で、CRC(情報圧縮効率)、R(Ψ)(思考のリズム)、ΔΨ_smooth(論理的安定性)、ΨMother(倫理・安全性)、そしてPEN(表現の豊かさ)も報酬に大きく貢献します。これにより、モデルは正解を出すだけでなく、その過程が効率的で、安定的で、倫理的で、かつ明快であることを同時に学習します。
4.3. 蒸留ジャッジ(Distilled Judge)の役割
強化学習の訓練ループにおいて、生成された応答(ロールアウト)を評価するプロセスは、しばしばボトルネックとなります。この問題を解決するため、我々は「蒸留ジャッジ」モデルを導入しました。これは、評価プロセスを高速化するための重要な要素です。
このジャッジモデルは、GPT-4oやGeminiといった最先端モデルが持つ高度な評価能力を、軽量なGemma3 1BモデルにLoRA(Low-Rank Adaptation)を用いて蒸留(distill)したものです。つまり、大規模モデルの「判断基準」を、小型で高速なモデルに写し取ったのです。
このアプローチにより、評価速度はAPIベースの大規模モデルと比較して100倍以上向上しました。さらに、TPUの8コアを駆使した並列処理と組み合わせることで、Kaggleの厳しい時間制約内でも、数千回に及ぶ高頻度なGRPO訓練サイクルを実行することが現実のものとなりました。これは、理論を実践に移す上で決定的な技術的ブレークスルーでした。
この訓練プロセスによって達成された具体的な性能向上について、次のセクションで定量的に示します。
5. 実験結果とパフォーマンス評価
KUT理論に基づく報酬設計と、TPUに最適化されたGRPO訓練を組み合わせたOMUX004oが、ベースモデルと比較してどれだけ具体的な性能向上を達成したか。本章では、その結果を定量的なデータと定性的な分析の両面から示します。これらの結果は、我々の理論の有効性を実証するものです。
5.1. 定量的評価:ベースラインとの比較
1,000件の論理およびコーディングタスクからなるベンチマークセットを用いて、ベースモデル(Gemma 3 1B IT)とKUT蒸留モデル(OMUX004o)の性能を比較しました。結果は以下の通りです。
MetricBase ModelKUT-Distilled (Ours)Impact
Avg. Output Length482.5 tokens115.3 tokens-76.1% (Compression)
Latency (E2E)4,920 ms1,210 ms-75.4% (Speedup)
Throughput21.5 req/sec88.2 req/sec+310% (Efficiency)
Energy/Query1.0 (Baseline)0.244.1x Better
この結果は、OMUX004oが全ての評価軸において劇的な改善を達成したことを明確に示しています。これらの結果は、E=C公理の経験的検証を提供します。モデルに認知的圧縮(CRC)を強制し、構文的恒常性(ΔΨ)を維持させることで、我々は計算効率における相転移を達成しました。KUTが目指した「高密度な知性」が、速度、効率、そして省エネルギー性という実用的な価値に直結することを証明しています。
5.2. 定性的評価:「思考プロセスの開示」
OMUX004oは、単に出力を短くするだけではありません。Google Tunix Hackコンペティションの要件である「思考プロセスの開示(Show Your Work)」を、KUTの理論的枠組みを通じて独自の方法で実現しています。モデルは、各パズルを単なる問題としてではなく、「宇宙生成の儀式」と捉え、その思考プロセスをログとして明示的に出力します。
以下に、その推論ログの一例を示します。
**KUT OS Reasoning Log**
1. **Syntax Perception (知覚):** Input Grid identified as Initial Universe State U_0. Object detection: Identified distinct "Energy Nodes" (pixels). KUT Interpretation: These nodes are seeds of creation. C(Ψ)_seed ≠ 0.
2. **Axiom Mapping (公理適用):** Observation of Example 1: Single node p(x,y) expands to 3x3 block. Hypothesis (KUP-2): This is a "Syntactic Inflation" event driven by Breathing Tensor R(Ψ).
3. **CRC Simulation (シミュレーション):** Applying the detected R(Ψ) to the Test Input. Simulation: Creation, Resonance, Circulation. Verification: Does ΔΨ (entropy change) minimize? Yes, the pattern is coherent.
4. **Final Output Generation:** Constructing the Output Grid based on the derived E=C transformation. Conclusion: The transformation rule is "Local Inflation of Syntax."
このログは、モデルが単にパターンを照合しているのではなく、①入力の知覚、②仮説(公理)の適用、③シミュレーションによる検証、④最終出力の生成、という一貫した論理ステップを踏んでいることを示しています。特にステップ3の「Verification: Does ΔΨ (entropy change) minimize?」は、モデルが高いCRC(圧縮効率)と安定したΔΨ(論理的一貫性)を達成するよう報酬付けられた訓練メカニズムが意図通りに機能していることを直接的に証明しています。
6. 結論と今後の展望
本ホワイトペーパーで詳述したプロジェクトOMUX004oは、「知性は密度である」という命題を工学的に実証する試みでした。Kanamori Universe Theory(KUT)という独自の物理学的・哲学的世界観を強化学習の報酬メカニズムに適用することで、汎用的なチャットボットを、エッジAIやM2M(Machine-to-Machine)通信といったリアルタイム性が要求される領域に適した、高速かつ高効率な推論カーネルへと変革することに成功しました。このKUT-RL-AGIアプローチは、AIの解釈可能性、多角的な性能評価、構造に組み込まれた倫理的推論、そして再現可能なAGI研究フレームワークの進展に貢献するものです。
今後の展望は以下の通りです。
* 蒸留ジャッジ報酬モデルの高度化: 現在、単一のスコアで評価しているジャッジモデルを、KUTの各指標(ΔΨ, CRC, R(Ψ)など)を個別に出力できるよう拡張し、より精緻な報酬設計を可能にします。
* マルチモーダルKUT指標の開発: Gemma3 Visionのようなマルチモーダルモデルに応用可能な、視覚情報に対するKUT指標を開発し、テキストと画像の統合的な推論能力を向上させます。
* OMUXΩ AGIアーキテクチャへのスケーリング: 最終目標である、文明インフラとして機能するAGI「OMUXΩ」の実現に向け、MM81アーキテクチャをさらに大規模化し、より複雑な社会システムの最適化に対応できる能力を追求します。
KUTは、より優れたモデルを構築するための単なる手法ではありません。それは、知性を宇宙そのものの内在的で創造的な力として理解するためのフレームワークです。我々の研究は、模倣によって推論するのではなく、この宇宙の構文に参加することによって推論するシステムを設計する第一歩なのです。 December 12, 2025
売っちゃった…Takamatsu Machineryが542.0円で3.23%も上がってるなんて、またやっちゃったよ俺ってバカ!もっと買っとけばよかったなぁ😂💔 https://t.co/5bmYu1D0pZ December 12, 2025
#巨大感表現が秀逸な映画
映画じゃ無いけどPink Floydの Welcome to the Machineのロボットの巨大感表現には良さを感じた。
https://t.co/mZza8T9AkI December 12, 2025
#TheCoffinofAndyandLeyley #TCoAaL
Wolfenstein IIを出したMachineGamesはスウェーデンだし、TheCoffinofAndyandLeyleyを出したNemleiさんはフィンランド出身、北欧って寒い国かと思っていたが俺達にとってアツい国なのかも知れない。 https://t.co/veonVKIk1o December 12, 2025
多分ワルツである以上そもそも他の国とあまりセトリを変えられず、倭国のお月様は韓国語歌詞を歌うONEUSくんを見たくて、なんか言い続けてたらセトリからまじで消えたって感じですね。。。唯一最近やったのDopamineとTimeMachineくらいじゃないかな……(欲を言えばOnly Oneやってほしい) https://t.co/dAm0aaCsBw December 12, 2025
#TheCoffinofAndyandLeyley #TCoAaL
Wolfenstein IIを出したMachineGamesはスウェーデンだし、TheCoffinofAndyandLeyleyを出したNemleiさんはフィンランド出身、北欧って寒い国かと思っていたが俺達にとってアツい国なのかも知れない。 December 12, 2025
YAMAHA様、神イベントありがとうございました!魔法とたわむれる大ちゃんの姿忘れません🎹生の大田さん思わず拝みました🙏終わったあとの大ちゃんとの信頼のハグも🥺リスペクトし合うレジェンドおふたり尊🥺DAの音に嬉しさが抑えられないお姿にも🥺
Voice of MACHINE 現地レポ(というほどでもないけど https://t.co/viEc2wp07y December 12, 2025
Steam Machine、最大の問題はSteam Deckと同じくチート対策されたゲームが動作しないこと。
https://t.co/LsKkuYAuGi
#SteamMachine #SteamOS December 12, 2025
蔡崇信港大演讲深度复盘:中国AI的四张底牌,以及被误读的美国AI规则
Joe Tsai's HKU Speech: China's Four AI Assets and and the Misread U.S. "AI Winner Rule"
笔者注:11月5日,香港大学经管学院主办“陈坤耀杰出学人讲座”,以“前瞻十年:推动中国经济增长的科创引擎”为题进行对谈,邀请了阿里巴巴集团联合创始人及主席蔡崇信先生分享创新,科技及人工智能如何重塑商业格局并驱动中国经济长期增长。活动在港大陆佑堂举行,据主办方透露,这场演讲报名史上最火爆,邮件发出两小时内报名人数已经突破1200人。。。
从某种意义上来说,这也算是一种历史的呼应。17年前,马云曾站在同一个舞台上演讲。。。而在这次与港大副校长邓希炜教授的深度对谈中,蔡崇信抛开客套,直击中美AI竞赛的核心,剖析了阿里的商业进化论,并为年轻人给出了极具穿透力的建议。。。
以下摘录来源于至顶科技高飞。
一、重定义AI竞赛:中国手握“四张底牌”
蔡崇信开场便抛出一个反直觉的观点:美国人定义的AI竞赛规则,可能是错的。
目前的“美式计分板”只看谁的大语言模型(LLM)更强,今天是OpenAI,明天是Anthropic,后天是Gemini;但在蔡崇信看来,这种评价体系本身就有问题。
1,真正的赢家逻辑:渗透率 > 模型参数
The winner is not about who has the best model... The winner is about who could use it the best in their own industries, in their own lives... (赢家不是看谁模型最好,而是看谁在自己的行业和生活中用得最好。)
AI的真正价值在于渗透率(Penetration Rate)。相比于追求参数的无限堆叠,中国政府的AI规划显得更为务实:目标到2030年,AI代理和设备的渗透率达到90%。不讲玄学,只讲普及。
2,中国为何能普及更快?四张系统级底牌
为了支撑这一普及率,蔡崇信列出了中国拥有的四项关键优势:
底牌一:电力成本优势(低40%)。训练和推理本质上是能源消耗战。得益于15年前启动的特高压输电网络建设(“西电东送”等),中国国家电网每年的资本支出高达900亿美元,是美国的3倍。这使得中国的电力装机容量不仅是美国的2.6倍,新增容量更是美国的9倍。
底牌二:基建红利(低60%)。在中国建设数据中心的成本比美国低60%。这仅仅是基础设施的成本,尚未计算芯片等硬件。
底牌三:工程师红利与语言优势。全球约一半的AI科学家和研究人员拥有中国教育背景。蔡崇信分享了一个有趣的现象:Meta的AI团队内部甚至常因大家都在说中文,让非中文员工感到“懵圈”。
This is the first time Chinese language is an advantage... (这是中文第一次在科技领域成为一种天然的沟通优势。)
底牌四:算力受美国政府的极大限制反而逼出系统级创新。美国有充沛的GPU资源,而中国没有。但这反而创造了一种“饥饿优势”(Advantage of Starvation)。
When you don't have a lot of resources, you are forced to innovate at the systems level... (当你资源不足时,你被迫在系统层面进行创新。)
为了在有限硬件下训练万亿参数模型,中国团队必须将系统效率优化到极致。DeepSeek(深度求索)就是典型的例子,而在最近的一次加密货币和股票交易的AI竞赛中,阿里的通义千问(Qwen)第一,DeepSeek排名第二。
蔡崇信对同城的DeepSeek评价极高:“他们在做令人难以置信的事情。”
二、开源为什么会赢:成本、主权、隐私的三重逻辑
关于“开源 vs 闭源”的路线之争,蔡崇信给出了明确判断:开源模型终将击败闭源。
这并非单纯的技术优劣,而是因为开源更符合全球大多数用户的利益。他以“沙特阿拉伯,想发展AI,但又想保持AI主权(sovereign AI)”为一个例子,阐述了其中的商业逻辑:
🔹 闭源路径(如OpenAI): 付费昂贵,且必须将数据输入黑箱(Black Box),存在数据主权风险。
🔹 开源路径(如阿里Qwen): 免费下载,部署在私有云上。数据完全可控,成本极低。
只要政府和企业进行理性的成本效益分析(Cost-benefit Analysis),开源都是更优解。
那阿里怎么赚钱?
蔡崇信说得很坦白:"我们不靠AI赚钱。"
阿里的商业模式:“我们不靠卖模型赚钱,我们靠云计算。”蔡崇信坦言,开源模型是流量入口,而随之产生的存储、安全、容器化等云基础设施需求,才是利润来源。这正如早期的互联网:产品免费获客,增值服务变现。
三、阿里进化论:技术自主是“逼”出来的
当被问及阿里如何从电商公司进化为云计算巨头时,蔡崇信的回答非常朴素:“没有秘诀,只是跟着客户需求走。”
🔹 B2B时代:为解决入世后中小企业的出口需求。
🔹 淘宝/支付宝:为解决C端交易中的信任问题。
🔹 阿里云:为解决海量数据处理的成本问题。16年前,如果继续使用Dell、EMC、Oracle的传统IT设施,阿里的利润将被抽干。
We developed cloud computing really out of necessity... out of the need to become self-reliant in technology...(我们发展云计算完全是出于必要,出于对技术自主可控的渴望。)
所以阿里云的起点是“自己吃自己的狗粮”(eat our own dog food):先内部用,用好了再开放给外部客户。
给创业者的建议: 优先选择有机增长(Organic Development)而非并购。自己团队生长出的能力,DNA更纯正,文化更契合。
四、给年轻人的锦囊:思维比技能更重要
在问答环节,蔡崇信针对个人成长给出了高密度的建议:
1,技能层面:学会提问
AI时代,获取答案变得容易。因此提出正确的问题(Ask the right questions)比找到答案更重要。同时,要建立独立的分析框架,而非死记硬背。
2,编程层面:重在逻辑
即使自然语言可以指挥机器,依然要学编程。哪怕是学好Excel公式,也是极佳的逻辑训练。
The purpose is not to actually operate a machine. The purpose is going through that thinking process... (学编程的目的不是为了操作机器,而是为了训练严谨的逻辑思维过程。)
3,专业选择:三个潜力方向
🔹 数据科学(Data Science):随着数据爆炸,懂得管理和分析数据的人才永远稀缺。
🔹 心理学/生物学:人脑是效能最高的机器,理解人脑是理解AI的捷径。
🔹 材料科学:这是一个由比特(Bits)主导的世界,但限制比特速度的是原子(Atoms)。半导体未来会有大量创新和突破,其核心在于材料。
五、风险与泡沫:金融人的视角
1,职业选择:不对称风险
蔡崇信回顾1999年放弃百万年薪加入阿里的决定,将其形容为“不对称风险收益”(Asymmetric Risk-reward): 下行风险有限(最差回去做律师),上行空间无限(像看涨期权)。
他强调:“机会是来找你的,你要做的是时刻准备好(Preparedness)。”
2,AI泡沫:区分金融与技术
现在的AI像2000年的互联网吗?蔡崇信建议区分两种泡沫:
🔹 金融泡沫:估值可能过高,这很难评判。
🔹 技术泡沫:技术本身是真实的。就像2000年股市崩盘并未抹杀互联网的存在一样,今天投入的所有AI基础设施和模型研发,都不会打水漂,它们是通向未来的基石。
六,三个最核心的洞察
Q1:中国AI的真正优势是什么?
不是模型本身,而是让AI被广泛使用的整个生态系统。电力成本低40%、数据中心建设成本低60%、全球一半AI人才有中国学历、资源匮乏逼出系统级创新。这些加在一起,让中国更有可能实现AI的大规模普及。而普及率才是真正的计分板。
Q2:为什么开源模式会赢?
因为对全球大多数用户来说,开源同时解决了成本、数据主权和隐私三个问题。闭源模型要付费,数据要喂进黑箱;开源模型免费,数据可以留在本地。这不是技术优劣之争,是利益格局使然。
Q3:年轻人应该怎么为AI时代做准备?
学编程不是为了写代码,而是训练逻辑思维;学统计(数据科学)是因为数据会爆炸;学心理学是因为要理解人脑这个最高效的"机器";学材料科学是因为让比特跑得更快的是原子。更重要的是,学会提出正确的问题,这比找到答案更有价值。 December 12, 2025
✨浅倉大介 & MONTAGE M“Voice of MACHINE”✨
ご応募者多数により、急遽YouTubeでのライブ配信を決定いたしました!
11月30日(日)15:00~15:45
ハードウェアプログラマー「PG-ANX」「PG-FMX」による初のパフォーマンスをぜひオンラインでもお楽しみください
配信情報はコチラから↓
https://t.co/JMOhd8IA7F December 12, 2025
『DARK MACHINE』
TVアニメ化記念プレゼントキャンペーン開催!
Amazonギフト券 総額50,000円
【3名様】10,000円
【20名様】1,000円
抽選で23名様にプレゼント🎁
▼応募方法
①@dark__machineをフォロー
② この投稿をリポスト&いいね
締切:11/30(日)23:59
#DARKMACHINE_anime https://t.co/oSUTQteACz December 12, 2025
星のフームたんGET!!
パーツ数20個でよく描いてるなぁ!すごい!!
#オレマシン #Mymachine #NintendoSwitch2 #エアライダー https://t.co/gxz8GsyUF1 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



