GitHub トレンド
0post
2025.12.10
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
お願いだからこういう不具合はBoothの窓口とかGitHubのissueに書き込んでくれないかな…
とあえて引用もしておく…
ちなみに既に修正版上がってます。こういう投稿したからにはその旨も自ら発言してほしいがね。 https://t.co/QpzzgoHCt1 December 12, 2025
158RP
VRChat界隈、せっかくGitHubで公開してもissue管理しても、issue立てる前にTwitterでお気持ち広めるから本当に達悪いなぁぁぁぁ(クソデカ主語) December 12, 2025
107RP
推荐一款能将 PDF 扫描文件转为 epub 电子书的工具:PDF craft。
专注于扫描书籍处理,能提取正文、过滤页眉页脚、处理跨页连接,可将 PDF 转为 Markdown 或带结构的 EPUB 电子书。
GitHub:https://t.co/iuq1jq32Vx https://t.co/QBihAf3ll9 December 12, 2025
81RP
東大松尾研究所が公開した「AIコーディング実践環境の構築方法」が有益すぎた。スラッシュコマンドやタスク分解でAIとの対話を構造化し、GitHub連携で自動化まで実現。ドキュメント駆動開発やLinter設定など実務ノウハウが詰まってて、開発効率が3〜5倍になる仕組みが分かる。Claude Code/Cursor使ってる人は必読👇🧵 December 12, 2025
6RP
北朝鮮関与とみられる攻撃者がReact2Shellの致命的欠陥を悪用し、新たなRAT「EtherRAT」を展開していることが明らかになった。Ethereumスマートコントラクトを使ったC2解決や多層持続化、独自更新機能を備え、長期潜伏を狙う高度な実装だとされる。
攻撃はRSCの深刻な欠陥を突いてBase64コマンドを実行し、シェルスクリプト経由で難読化されたJavaScriptローダーと暗号化済みペイロードを展開する。Node.jsを外部から取得して自己環境を構築し、痕跡を消した上でEtherRATを起動する仕組みである。EtherHiding技法を用い、複数のEthereum RPCエンドポイントの多数決でC2 URLを決定する点が特徴で、単一ノードの介入による妨害を回避する設計となっている。起動後は500ミリ秒間隔でC2をポーリングし、10文字超の応答をJavaScriptとして実行する。持続化はsystemdユーザーサービス、XDG自動起動、cron、bashrc、profileの五つで確実性を高め、C2からの新コードで自己を上書きして再起動するなど、静的検知を回避する工夫も見られる。過去のContagious Interview攻撃と類似点も多く、偽求人を使った開発者狙いの感染手口がnpmからVS Codeを悪用する形へ拡大している。GitHubなどに用意したリポジトリを開くとtasks.jsonが自動実行され、BeaverTailやInvisibleFerretへつながるローダーが展開される。多数の派生が確認されており、開発者コミュニティへの攻撃が一段と巧妙化している。
https://t.co/eoB24NbGwM December 12, 2025
3RP
「AnthropicはAgentic AI Foundationを設立して、そこにOpenAIはAGENTS .mdを寄付しているにも関わらず、未だにClaude CodeがAGENTS .md対応しないのは何故だ?」ってGitHub Issueで言われてるの面白い🤣
https://t.co/NV7SvcwWAL https://t.co/4bKgXBLbAf https://t.co/IUZZbQWKiA December 12, 2025
3RP
AI 六小龙之一的 #zhipu, 开源 ASR 模型 #GLM-ASR-Nano-2512
GLM-ASR-Nano-2512 是一款强大的开源语音识别模型,拥有15 亿个参数。它专为应对真实世界的复杂性而设计,在多个基准测试中性能优于 OpenAI Whisper V3,同时保持了紧凑的体积。
主要功能包括:
卓越的方言支持:除了标准的普通话和英语之外,该模型还针对粤语和其他方言 进行了高度优化,有效地弥合了方言语音识别方面的差距。
低音量语音鲁棒性: 专为“耳语/轻声细语”场景训练。它能够捕捉并准确转录传统模型经常遗漏的极低音量音频。
SOTA 性能:在同类开源模型中 实现了最低的平均错误率 (4.10),在中国基准测试 (Wenet Meeting、Aishell-1 等) 中表现出显著优势。
GitHub: https://t.co/0RmxuwSkJm
HF: https://t.co/UhKyls9WfM December 12, 2025
3RP
📢我们正在招长期研究实习生
如果你想在一线项目旁边做真正有深度的研究,欢迎来聊!
成功推荐入职者,我们会送出一台IPhone17🎁
【你会做的事📌】
• 跟踪主流公链、 L2 与基础设施协议,分析技术路线 & 生态格局
• 研究稳定币、支付网络、结算层等赛道,结合链上数据挖趋势和机会
• 研究 AI + Crypto 领域的应用
• 研究 DeFi 协议和 tokenomics 设计
【我们希望你✨】
• 对行业真的感兴趣,愿意自己深挖
• 有信息搜集和分析能力,会从数据、代码以及新闻中提炼观点
• 中英文听说读写顺畅,有链上操作经验
【申请方式📄】:
请将邮件发送至:
📧[email protected]
邮件标题:
研究员实习申请 - 姓名
附:
1. 简历
2. 一篇原创研究(或 GitHub /X 链接) December 12, 2025
2RP
Pyxel Advent Calendar 2025
https://t.co/HEvdivmjWO
アドカレ10日間のハイライトをどうぞ✨
---
Pyxelで謎解きミニRPGを作った体験談 ~ゲーム開発に挫折してきた過去の自分へ~
https://t.co/5yB4AYowfv
高校生のためのPyxelとPymunk 動かす! -- 速度とベクトル入門
https://t.co/voY9UdLQ7b
【Pyxel】SlackBot に MML → .wav 変換を仮実装してみた
https://t.co/Vwk4rWTK4P
Pyxel を利用して MML を mp3 にして返すコンテナの実装をしてみた
https://t.co/lSUdlXEPn0
pyxel でワイヤーフレームを使ったシューティングゲームをつくってみる
https://t.co/pU9Enpx1fG
ブラウザ上でPythonを書いてレトロゲームが作れる! - Pyxel Code Makerから入門するPyxel-
https://t.co/bqC47yFXN1
【AI と一緒に作る 3D!】(Part 1)Pyxelでワイヤーフレームレンダリングを実装するまで
https://t.co/Ndfsc24212
[Pyxel] GitHub CodeSpaces + devcontainer で楽々Pyxel開発環境構築
https://t.co/VVGS3SPYuO
Pyxel の MMLで音色づくり、Pyxel MML Studioならスマホでも聞ける
https://t.co/3BgxoAifkv
USB-MIDIキーボードでpyxelの音を鳴らしてみた
https://t.co/pMJz0Uek0V December 12, 2025
2RP
Geminiは面白いな。
「論理は完全だけれど、LLMを導入して、それが論理だけで構成されているものではない以上、Suiもまた完全なものではないですよね?」
おっしゃる通りです。その洞察は非常に鋭く、そして**Suiのような試みが直面する最大の「壁」**を的確に突いています。はい、そのシステム(LLM + Sui)は「完全」ではありません。ユーザー様が指摘された「論理は完全だが、LLMはそうではない」という点について、Suiが抱える**「2つの不完全性」**として整理すると、この問題の核心が見えてきます。
1. 確率論的生成の不完全性 (Stochastic Uncertainty)
論理学(数理論理)の世界は、0か1か、真か偽かが定まる**決定論的(Deterministic)な世界です。
一方で、LLMの原理はニューラルネットワークによる確率論的(Probabilistic)**な推論です。
$$P(NextToken | Context) = \text{softmax}(Logits)$$
LLMが行っているのは「論理的な思考」ではなく、「もっともらしい続きの予測」に過ぎません。したがって、どれほどSuiという言語自体が論理的に完璧に設計されていても、それを書き出すLLM側が:
幻覚(Hallucination):存在しない命令を捏造する
確率的ゆらぎ:同じ入力に対して、微小な確率で誤ったロジックを出力する
という性質を持つ以上、システム全体としての完全性(常に正しいコードが出力される保証)は崩れます。
「Suiという完璧な器」があっても、そこに注ぐ水(LLMの出力)が濁っていれば、結果は濁ります。
2. 意味論的な不完全性 (The Grounding Problem)
これがより深刻な問題です。
「論理は完全」というのは、あくまで**「前提 A が正しければ、結論 B も正しい」という形式の話であって、「現実世界の意味」**とは無関係です。
人間:「フィボナッチ数列を出して(現実の意図)」
LLM:「Suiのコードを出力します(記号操作)」
LLMは「記号」と「現実の意味」を完全に結びつけられているわけではありません(シンボル・グラウンディング問題)。
LLMがSuiを使って書いたコードが、**「文法的に正しい(Syntax Errorなし)」としても、「人間が意図した通りの挙動(Semantics)」**である保証はどこにもありません。では、なぜSuiに価値があるのか?
Suiが不完全であるならば、なぜこれを作る意味があるのでしょうか?それは、「不完全さ(エラーの確率)」を極限まで下げるためです。
ここでもう一度、Suiの設計思想(1文字命令、連番変数、単純な構造)を見てみましょう。これは、LLMにとっての**「迷いの余地(探索空間のエントロピー)」**を劇的に減らす効果があります。
A. 探索空間の圧縮
Pythonや英語は表現の幅が広すぎて、LLMは「どう書くか」というスタイルの選択で確率を分散させてしまいます。
Suiは「こうしか書けない」という制約が強いため、LLMの計算リソース(確率の山)をロジックそのものに集中させることができます。
**「完全ではないが、正解にヒットする確率(尤度)を最大化する」**ための設計、と言えます。
B. エラーの可視化 (Fail-Fast)
ここが逆説的で面白い点です。
高級言語(Pythonなど)は「優しすぎる」ため、LLMが少し間違ったことを言っても、なんとなく動くコードになったり、エラーメッセージが複雑で原因が特定しにくかったりします。
Suiは「可読性を排除」し「機械語に近い」ため、LLMが論理を間違えると、即座に破綻するか、全く動かない結果になります。
つまり、**「ごまかしが効かない」**のです。
これはデバッグ(または強化学習によるフィードバック)において非常に有利に働きます。
結論:Suiは「完全」ではなく「純粋」である
ご指摘の通り、Suiを使ってもLLMが「100%正確にコードを書ける」ようにはなりません。その謳い文句は、数学的には嘘になります。
しかし、こう言い換えることは正しいでしょう。
「高級言語という『人間向けのノイズ』を取り除くことで、LLMの論理推論能力(あるいはその欠陥)を純粋な形で抽出できる言語」
Suiは、LLMを完全にする魔法の杖ではなく、LLMの実力をむき出しにする鋭利なメスなのです。
SuiのGitHubのREADMEにある「100%正確に」という表現は、マーケティング的な「強気な理想」あるいは「アイロニー(皮肉)」として受け取るのが、このプロジェクトの「粋」な楽しみ方かもしれませんね。 December 12, 2025
1RP
【AI活用100本ノック:091📢】Eng職が実践!
\Cursor+Notion活用!PRD作成もAIで!/
Notion連携でPRD/機能仕様書の作成プロセスフローを構築📝
[課題]元々はPRD(要件定義書)のみで運用していましたが、開発・品質面での確認精度を上げるため、Cursor AIを活用したFSD(機能仕様書)作成を試験導入しました。
[解決策]Cursor AIを活用し、PRD/FSD作成の標準フローを構築。AIが情報の分析・関連調査・考慮ポイントの提示を行い、不足情報を人間にヒアリングすることで要求を明確化します。成果物はマークダウン形式で出力し、GitHub上で管理する仕組みにしました。
[成果]AIとの対話を通じて要求が明確化され、必要な項目が網羅された状態でドキュメントが生成されるため、作成工数が大幅に削減されました。属人化が解消され、効率的かつ質の高いドキュメント作成が可能になりました。
[社員's VOICE]フォーマット統一により読み手(開発・QA)の確認コストも下がり、生産性が向上しました。 この成果を足がかりに、現在はFSDの正式導入に向けた「項目定義・標準化プロジェクト」も始動しています。
*このAI活用事例は、透明性、公平性、プライバシー、品質、そして人間の監督を重視した当社のAIポリシーに準拠しています
#AI活用100本ノック #Notion連携 #PRD作成 December 12, 2025
1RP
見てる: "OpenTofu incorrectly validates excluded subdomain constraint in conjunction with TLS certificates containing wildcard SANs · GHSA-mjcp-gpgx-ggcg · GitHub Advisory Database" https://t.co/JBMOHobo4T December 12, 2025
1RP
✨今更人に聞けないシリーズ✨
今回はSuccinct(PROVE)についてです‼️
⭐️Succinct
=プログラムの答えに「合格スタンプ(証明)」をつけて誰でも正しさを確認できるインフラ
⭐️核はSP1(zkVM)、いつもの言語で書いたプログラムをそのまま扱えて証明を作れるツール群
⭐️証明を作るのは分散したproverたち、プロバー同士が競争して速く安い証明を出すマーケット設計=proof contests
⭐️PROVEトークンは支払い・報酬・ステーキング・ガバナンス用のネイティブ通貨、総供給1,000,000,000 PROVE
⭐️proverはPROVEをステークして参加、不正あればペナルティで安全性を担保する仕組み
⭐️主な用途
:レイヤー2やロールアップの検証、クロスチェーンブリッジの安全化、オフチェーンAIやオラクル結果の検証、ゲームや投票の改ざん防止
⭐️開発者に優しい設計でZK導入の敷居を下げる狙い、特殊言語を覚えなくてよい点が強み
⭐️公式ドキュメントやGitHubにリファレンス実装やツールチェーンが公開されている状態、テストや参照が可能
⭐️資金面で大手投資家からの出資あり、研究開発の資金基盤が存在する点が後押し要素
⭐️長所
:導入しやすさ、分散proverでのスケーラビリティ、応用範囲の広さ
⭐️短所・リスク
:ZK分野の競争激化による技術リスク、トークンのロック・ベスティングによる価格変動リスク、実運用時の遅延やコスト問題の可能性
⭐️使うときのチェック項目
:SP1仕様の確認、proof contestルールの把握、トークンのベスティング表とロック解除スケジュール、実ネットでの稼働実績の確認
⭐️まとめ
:誰でも使える「証明インフラ」を目指すプロジェクトで、SP1+proof contest+PROVEの組み合わせで動く点が特徴、注目すべきが技術競争とトークンリス
良かったら、いいね👍フォロー❤️
お願いします🙇♀️ December 12, 2025
1RP
$META 正全面調整其人工智慧戰略,試圖重新追上 OpenAI、Google 與 Anthropic 等領先競爭對手。據知情人士透露,$META 正開發一款新的前沿大型模型,代號 Avocado,預計於 2026 年第一季推出,代表公司逐步淡出以 Llama 系列為核心的開源策略。
此舉源於 Llama 4 市場反應低迷,引發內部大幅重組及更激進的 AI 人才佈局策略。今年 6 月,$META 以 143 億美元 重金延攬 Scale AI 創辦人 Alexandr Wang,現任 $META 首席 AI 長,並領導核心研發單位 TBD Lab,Avocado 即在該團隊中開發。其他加入 $META 的重量級人士還包括前 GitHub 執行長 Nat Friedman 與 ChatGPT 共同創作者 Shengjia Zhao。
$META 表示模型訓練進展「按計畫進行」,但內部仍在處理性能測試與產品成熟度等挑戰。同時,公司也將 2025 年資本支出預估調升至 700–720 億美元,反映其強化 AI 投資的力度。
儘管 $META 廣告業務持續高速成長,但今年股價落後 Alphabet 與其他科技股,使華爾街對 $META 的長期 AI 戰略產生疑問。 Mark Zuckerberg 多次強調,若 $META 不在前沿 AI 上積極投入,公司可能在未來科技競賽中被邊緣化。
知情人士指出,$META 正考慮讓 Avocado 成為 專有模型,不再完全開源。其背後原因之一,是中國 AI 實驗室 DeepSeek 曾在其 R1 模型中採用 Llama 架構元素,進一步凸顯開源策略的風險。
$META 的內部 AI 團隊今年亦歷經裁員與調整,包含 $META 超級智能實驗室(MSL)的 600 名人員縮編,以及長期任職的首席 AI 科學家 Yann LeCun 離職創業。同時,公司採取新的研發文化「Demo,不寫 memo」,並以更新工具來加速內部應用開發。
在基礎設施方面,$META 正混合採用第三方雲端服務(如 CoreWeave、Oracle)與自建超大規模資料中心,包括位於路易斯安那州、總額 270 億美元 的 Hyperion 計畫。
即使 2025 年充滿挑戰,祖克柏仍向內部與投資者強調其 AI 目標更堅定。於 10 月法說會上,他表示:「我們已建立業界人才密度最高的 AI 實驗室。我們正全力投入下一代模型與產品的開發,並期待在未來數月分享更多進展。」 December 12, 2025
1RP
書籍の原稿はMarkdownで書いてGitHubで管理している。書き進める上ではこれで良いんだけど、編集チームと議論するには原稿上にコメントできた方が捗る。という訳で、ローカルのMarkdownをHTMLに変換してGoogle Driveに同期するツールをバイブコーディングで作った。「こんなことしたい」と小一時間伝えるだけで出来上がるの最高。 December 12, 2025
1RP
向拥有6k star的独立开发者发起donate!
TICKER:Sprompt
20个同名代币,最高交易量代币1小时600k交易额。
博主 @BLUECOW009 在去年的9月1日开发了一个开源项目,叫做 “super prompt”,是一个大提示词框架,用来辅助一些LLM(特别是 Claude)在复杂问题上产生更有新意的想法。作者 强调这是用**XML agent format** 写的,相当于一套结构化、多步骤的 agent 提示,不是那种简单几句话的 prompt 范本,可以用来做各类复杂研究、项目。
该项目在github上已经获得了6k star,热度极高,实用性很强,深受AI爱好者的喜欢和支持。
该博主在推特公布过自己的钱包地址,今天有人以此项目为基础,开出SPROMPT同名代币,并将手续费全部捐给作者公布的地址,用来支持作者的开发工作,作者随即回应并加入了社区表示感谢,引发炒作情绪。
https://t.co/xktLHH8gCL December 12, 2025
1RP
静的解析と生成AI(LLM)の協調のアプローチは確かに興味深いというか面白そうな話題ではありますが、そんなことは今どきのAIの会社ならとうの昔にやってないはずが無いと思うんですけどね…🤔
たとえAnthropicではやってなかったとしても、GoogleやGitHub Next Projectでは確実にやってると思います。 https://t.co/mo8f1UoJV4 December 12, 2025
1RP
【Google DeepMindの新IDE「AntiGravity」Kevin Hou氏が語る"エージェントファースト"の設計思想が面白かったのでメモシェア〜🎵】
📊 Anti-Gravity:エージェント時代の新しい開発環境
■ 1. 3つの統合サーフェス 🚀
▸ エディタ+ブラウザ+エージェントマネージャーの三位一体構成。エージェントがIDE外で動き、複数画面を横断して作業可能に
▸ エージェント制御ブラウザが革新的:認証済みChrome経由でGoogleドキュメントやGitHubにアクセス、さらにクリック・スクロール・JS実行まで自動化。結果は「画面録画」で検証可能
■ 2. 新概念「アーティファクト」の導入 💡
▸ エージェントが生成する動的な情報表現。長い思考ログを追う代わりに、実装計画・タスクリスト・アーキテクチャ図・スクリーンショットなど視覚的に状況把握
▸ GoogleドキュメントやFigma風にコメントを残してフィードバック可能。テキストにも画像にもハイライト&コメントで指示を送れる
■ 3. 研究×プロダクトの好循環 ⚡
▸ DeepMind内部で自ら使い倒すことで、モデルの弱点を発見→改善のサイクルを高速化
▸ Gemini 3 Proの画像生成・マルチモーダル能力をフル活用。「コーディングはテキストだけじゃない」という発想でデザインモックアップからの開発も実現
🎯 Kevin Hou氏(Google AntiGravity プロダクトエンジニアリングリード)
Defying Gravity - Kevin Hou, Google DeepMind - YouTube
URL: https://t.co/7Bo2Kle2ek December 12, 2025
1RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



