Speciale VTuber
0post
2025.12.01〜(49週)
:0% :0% (20代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
流石すぺしゃーれだよ…
こんなにも料理が上手いから、自分も料理作りたい意欲が増してくるから有難い。
…たまも作ってほしいな💭 https://t.co/sXlJmIb4Cy December 12, 2025
433RP
すぺしゃーれ🍽️
同期5人(時々4人)コラボ・出演履歴
(デビュー〜2025年12月1日現在)
これ以外にも少人数の同期コラボなどがたくさんあります
5人の楽しそうな姿と笑い声をこんな供給量で得られてリスナー幸せ✨ https://t.co/e7DQkGSry9 December 12, 2025
76RP
🇹🇭愛の香り~I Feel You Linger In The Air~
/
🌸Special Episode “Scent of Memory”
📅12月5日(金)~順次
㊗️レンタル配信決定🥳✨
\
2024年12月4日にリリースされたBlu-ray BOXにのみ収録されていた「Special Episode “Scent of Memory”」が、ついにレンタルに登場いたします‼️
是非お楽しみに🥰
❤️12/5(金)~
・Hulu
・Prime Video
(※以降順次お知らせいたします)
#IFeelYouLingerInTheAirSpecialEP
#หอมกลิ่นความรักSpecialEP
#愛の香り
#IFeelYouLingerInTheAir
#หอมกลิ่นความรัก
#nonkul #brightrpp December 12, 2025
57RP
すぺしゃーれコラボ楽しみ✨️
※タップ推奨
#すぺしゃー絵
#すずなあーと #さおと名画 #たまこのーと #そうまart #渚ドロウト https://t.co/xB7ptYsewr December 12, 2025
22RP
DeepSeek-V3.2は高い計算効率と優れた推論・エージェント能力を達成。長コンテキストでの計算量を大幅に減らすDSAの採用、スケーラブルなRLフレームワーク、大規模エージェントタスク合成パイプラインを採用している。
DSA(DeepSeek Sparse Attention)は、Lightning Indexerを使って重要なトークンを絞り込む。これは、クエリと過去の全トークンとの間のインデックススコアを計算し、クエリがどのトークンを参照するべきかを決定する。
このIndexerが使うクエリ・キーの次元数は通常のクエリ・キーの次元数よりずっと少なく(実装だと元が2048次元、それが64)、FP8を採用。そこからTop-k(実装だとk=2048)のトークンのみを取り出し、通常のAttentionを適用し学習する。
このDSAは128Kコンテキストに拡張済みのDeepSeek-V3.1.-Terminusの継続学習で実現される。
はじめにLightning indexer以外のパラメータはフリーズした上で、すべてのattentionヘッドのスコアを合計した上で再正規化して求めた確立分布を作成した上で、これを目標にKLダイバージェンス最小化で初期化する。10Bトークン程度。
次にモデル全体を疎構造に適応させるための学習する。indexerは引き続き、main attentionに整合させ、top-kに入ったトークンのみKLを計算。indexerの入力は計算グラフからdetachし、indexerはKL損失のみで学習し、メインはLM損失で更新する。
ここは1Tトークンを使う。
このように作られたDSAを使った処理は性能はほぼ維持されながら、推論コストは大幅に改善される(このあとのpost-trainingも効率化される)
次にPost-trainingでは最初に各タスク毎の専用のスペシャリストモデルを大規模な強化学習を使って作る。これらはすべて同じモデルから、専門ドメイン毎に特化させて作られる。さらに各ドメインごとにthinkingモードとnon-thinkingモードを用意する。
次に、各スペシャリストはthinkingモード用の長いCoTを含む学習データと、non-thikingモード用の直接回答する学習データを生成し、一つの最終モデルで学習させる。
つまり、特殊化された複数の教師を作って一つの最終モデルに蒸留する。
これらの大規模強化学習では、GRPOをベースに報酬設計としてリーズニング、エージェントタスク、アライメントを1つのRLで行う。これにより、複数学習で起きがちな破滅的忘却を抑えられる。
また、発散防止のため、訓練を定期的に評価し、性能が異常に低下したら巻き戻し、学習率を下げて再開する、また方策更新が偏らないように前向き計算に正則化をかける。さらに複数の評価をあえて切り替えて使用することで報酬ハックを行いにくいようにする(人でもありそう)。これら3つによって数千ステップにわたるRLを成功させている。
これらの強化学習ではリーズニングも混ぜたものを学習にいれている。これにより、ツールを伴うような複雑なタスクにおいて、thinking, non-thikingそれぞれで高いエージェント能力を発揮できるように工夫している
また、Specialeは、リーズニングデータのみで学習かつ、RL時の長さ罰則を緩和し、数学的証明能力を(他の能力を犠牲にしても)伸ばせるようにした(少し前にでたDeepseek-Math v2の研究も利用していると思われる)
ベンチマーク結果としては数学能力に特化したSpecialeはGPT-5などを超える性能を達成し、IMOやIOIの金メダル級の性能を達成している。
また通常のV3.2も多くのベンチマークでもフロンティアモデルに匹敵する性能を達成できている。
コメント
DeepSeekはリスクの高い取り組みに挑戦し結果を出している。今回もDSA、スペシャリストを強化学習で作ってからの汎用モデルへの蒸留、RLでも報酬の複数の組み合わせなどは、従来の延長線上よりはジャンプがあるアイディアであり、この手前には多くの試行錯誤をしているのだと思われる(実際、設定ファイルをみるとAttentionのDropoutなど成功しなかったアイディアを試した跡があるように思える)
DSAもSpecialistを作ってからの蒸留もどちらも、Post trainingの間に行う蒸留として興味深い(フロンティアモデルでも公表されていないだけで広く採用されているか?)
注意機構は特に、学習がすごくうまくいけばいくほど疎になることがわかっている。一方学習前半〜途中ではSparse Attentionではうまくいかない(疎な場合、フィードバックがかからない)本提案も最初にDenseでやりつつ、最後に得られた疎な注意機構を遥かに小さい計算コスト(key, queryの次元数を下げる&8bit量子化)で計算し、その中での細かい調整は大きなモデルで実現するという現実的な手法を提案している。
また、Specialistを作ってからのGeneralistへの蒸留なども昔から構想されていたが実現できたことはすごい。
DSAは効果的だが、prefillでの効率化率は8~10倍、decodeでは数倍であり、なにより元のkey valueは(あとで詳細なことを調べるときように)とっておかなければならない。大規模文脈の効率的な圧縮は今後も追求が必要だろう。
また、学習の容易性と推論時の効率性の観点から、学習専用モデル(学習は得意だが推論は苦手)と推論専用モデル(一からの学習は難しいが良い教師がいれば推論は得意)の考えは今後より追求されていくだろう December 12, 2025
20RP
毎秒楽しくてあっという間だったのに、観返したいところを挙げたらキリがないくらい盛り沢山で本当に嬉しい時間でした🫶🏻
世界を救うPICO PARK2再び、ありがとうございました!
Specialeという星を心に刻んでこれからも応援していきます…✩.*˚
#すぺしゃーれ https://t.co/EqRmHqrGYz December 12, 2025
16RP
今日はずっと泣いてた😭Q&Aで質問を読んでいただきありがとうございました😭倭国に撮影に来てくれたことへのお礼と、倭国のファンが倭国でもファンミーティングの開催を願っているというメッセージも一緒に伝えていただけて本当に感謝です🥹Love u all💖
LOVE DESIGN FINAL SKETCH #LoveDesignSpecialEP December 12, 2025
15RP
#アコスタイオンモール新利府
#CDEFステージ
#くっきんとーほくらんど
大好きな🄵🄰🄼🄸🄻🅈で- ̗̀ 𝙊𝙋𝙀𝙉 .ᐟ.ᐟ ̖́-
楽しんでいただけましたかっ?!
見てくださった皆さんありがとうございました❕東北産すぺしゃーれはまだ終わりません😌またどこかで👋~♡.ᐟ.ᐟ
セトリは1枚目ALTへ❕ https://t.co/YMmfL1GhWu December 12, 2025
14RP
Speciale陰謀論を繰り広げると、
メイド☆至上主義でサンタさんになったななきらおとめがこの衣装なら、だるねむもクリスマスにこんな感じの衣装で歌みたが出る。 https://t.co/Nth6v1nk3c December 12, 2025
10RP
🍇さんを最近推してます🫶🏻
絵を時々描きます✍🏻
#すぺしゃーれ絵描きさんと繋がりたい
#にじさんじ絵描きさんと繋がりたい
#にじさんじ好きな人と繋がりたい https://t.co/VM9BwEk7tA December 12, 2025
9RP
DeepSeek V3.2正式版登场:拒绝烧钱Scaling,开源AI以算法突破算力瓶颈
DeepSeek V3.2 Officially Launches: No Costly Scaling, Just Smarter Algorithms Driving Open-Source AI Beyond Compute Limits
笔者注:这几个星期,Sam Altman的内心想必是拒绝且焦虑的:Gemini 3 Pro的出世刚完成了一轮横扫;Ilya随即便抛出“Scaling已到尽头,接下来是研究的时代”的论断;还没缓过气来,DeepSeek的新动作又是新的行业震爆。
就在刚刚,DeepSeek一次性开源两个正式版模型DeepSeek-V3.2与DeepSeek-V3.2-Speciale,同时网页版,App与API同步升级为正式版 V3.2,乾脆、利落、不拖泥带水。
可以说,DeepSeek-V3.2的横空出世,深刻诠释了开源AI的独特魅力:它摒弃了盲目的暴力Scaling,以更精妙的算法为杠杆,在算力资源受限的情况下,发挥了Ilya所说的研究精神,真正地通过技术创新撬动了通往巅峰的捷径。
一,DeepSeek-V3.2:推理能力全球领先
按照官方的数据,
🔹 DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少了计算开销与用户等待时间。
🔹 DeepSeek-V3.2-Speciale的目标是将开源模型的推理能力推向极致,探索模型能力的边界。V3.2-Speciale是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能表现媲美Gemini-3.0-Pro(见表1)。更令人瞩目的是,V3.2-Speciale模型成功斩获IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及 IOI 2025(国际信息学奥林匹克)金牌。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平。
在高度复杂任务上,Speciale模型大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。目前,DeepSeek-V3.2-Speciale仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。
图2:DeepSeek-V3.2与其他模型在各类数学,代码与通用领域评测集上的得分(括号内为消耗Tokens总量)
二,DeepSeek-V3.2:实现思维与工具调用的深度协同
告别割裂:思考融入工具执行流
不同于过往版本中工具调用与思维模式相互割裂的局限,DeepSeek-V3.2是首个将思维链(CoT)深度融入工具使用流程的模型,并同时支持思考模式与非思考模式下的灵活调用。
数据驱动:大规模Agent训练方法
为实现这一跨越,DeepSeek提出了一种创新性的大规模Agent训练数据合成方法。通过构造海量的1800+虚拟环境和85,000+复杂指令,这些“难解答,易验证”的强化学习任务极大地拓宽了模型的泛化能力。
评测结果:缩小与闭源模型的代差
如下图所示,DeepSeek-V3.2在各项智能体工具调用评测中,不仅达到了开源模型的最高水平,更显著缩小了与顶级闭源模型的性能差距。尤其值得强调的是,V3.2依靠通用能力而非针对性训练取得了此成绩,预示着其在真实应用场景中具备强大的泛化能力与通用Agent潜能。
三,DeepSeek V3.2进化论:拒绝断片,学会边干边想
架构传承,能力跃迁:V3.2正式版沿用DSA架构,但核心突破在于引入“思维上下文管理”,彻底解决了AI思考与行动脱节的顽疾。
V3.2 Exp版:调用工具回来容易断片儿,思考链条断裂,效率低。
V3.2正式版:相当于自带了一个“工作记忆暂存区”,工具调用与逻辑思考无缝衔接,下一步操作即刻跟上。
DeepSeek新模型技术报告已同步发布:
https://t.co/sfkz51Eo5w
开源发布:
DeepSeek-V3.2
ModelScope:
https://t.co/ZgUSFokP2k
HuggingFace:
https://t.co/d6OgeKRpKB
DeepSeek-V3.2-Speciale
ModelScope:
https://t.co/OJaipPxbP2
HuggingFace:
https://t.co/63pKYZhxSv December 12, 2025
9RP
anan No.2475 SpecialEdition 12/10発売
全国の書店、コンビニエンスストアでお買い求めいただけます。
ご予約はこちらからも!
・amazon
https://t.co/VsgbeB0Pq0
・セブンネットショッピング
https://t.co/G7YYSdsmjT
・タワーレコードオンライン
https://t.co/syJsjZfBFb
・HMV&BOOKS online
https://t.co/feObWKWlMR
・ヨドバシ.com
https://t.co/NEsok0Cnc8 December 12, 2025
9RP
Deepseek 又发货了!
这次包括 DeepSeek-V3.2 正式版和 DeepSeek-V3.2-Speciale
DeepSeek-V3.2-Speciale:
目标是将开源模型的推理能力推向极致。是 DeepSeek-V3.2 的长思考增强版,结合了 DeepSeek-Math-V2 的定理证明能力。
DeepSeek-V3.2:
首次将“思考融入工具使用”,同时支持思考与非思考模式下的工具调用。
通过大规模 Agent 训练数据合成提升泛化。
在智能体评测中达到开源模型最高水平,且未对测试工具做专项训练。
官网网页端、App、API 已统一升级为正式版 DeepSeek‑V3.2 December 12, 2025
8RP
ご結婚おめでとう〜!!
もう胸いっぱいだし、幸せすぎる…
本当にありがとう 🤍😭
LOVE DESIGN FINAL SKETCH
#LoveDesignSpecialEP
#KaoJaneJaneKao https://t.co/xr27G94tlH December 12, 2025
8RP
すぺぴこぱーく2〜好きだったところ
①
🍰🧁「このさ、ごrdぃおld1eoるαな゙ぁぁnってやつ綺麗じゃない?」
🐥📛「ねー!」
🥗「花火みたいでいいね」
🐟🍴「こわいこわいこわい」
②
🐣📛さんきっかけで始まったどんつくセッション
(に合わせて一旦発言を飲み込む🍇さん)
#すぺしゃーれ https://t.co/gIRzM3Cb28 December 12, 2025
6RP
【ゆる募】
MizuMi x PP Krit Special Edition
どーしても欲しいのでタイから購入します
倭国から一緒に購入したい方いたら
ご連絡下さい
(トラブル防止のためフォロワーの方のみ
受け取り後フォロー解除OK🙆♀️)
⚠️締切 12/10
#MizuMixPPKrit #MizuMixPPKrit_SpecialEdition
詳細↓ https://t.co/pO41rgmaMW December 12, 2025
4RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



