GitHub トレンド
0post
2025.11.24〜(48週)
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
LANケーブル配線&長計算ツール,諸々改訂して直近使いたいものには耐えられるぐらいに仕上げたつもりになった.ので,github pagesに公開した.
https://t.co/NmvzLN3dYR
電源ケーブルやその他ケーブルの配線(長さにはカウントしない),電源アウトレットやLANパッチの配置などもできるようにした.強いて言えば,配線する時の当たり判定が煩わしいけどまぁいいかという感じ. December 12, 2025
260RP
【悪意あるAIツール】無料で利用可能なジェイルブレイクAIツール「KawaiiGPT」がGitHub上で拡散している。WormGPTの亜種として、DeepSeek、Gemini、Kimi-K2などの商用AIモデルを悪用し、安全制限を回避して悪意あるコンテンツを生成する能力を持つ。
GitHub上で188以上のスターと52のフォークを獲得しており、APIキーは不要でLinuxやTermux環境に数分でインストール可能である。ユーザーはパッケージの更新、PythonとGitのインストール、リポジトリのクローン、簡単なインストールおよび起動スクリプトの実行だけで展開できる。KawaiiGPTの中核は、pollination agentsから派生したリバースエンジニアリングされたAPIラッパーを採用し、DeepSeek、Gemini、Kimi-K2などのモデルをホストするバックエンドサーバーにクエリをルーティングする。
セキュリティ研究者は、KawaiiGPTがフィッシングメール、ランサムウェアノート、Paramikoを使用した横方向移動スクリプト、データ流出ツールを生成するプロセスを強調している。遊び心のある挨拶を特徴とするカジュアルな「kawaii」ペルソナが、ソーシャルエンジニアリングや基本的な攻撃のための強力なアウトプットを隠し、初心者の脅威アクターの参入障壁を下げている。2025年7月に初めて確認され、現在バージョン2.5となっている。
コードベースの難読化が議論を引き起こしており、作成者は不正なリパッケージと転売を防ぐためと説明し、マルウェア、RAT、スパイウェアの存在を否定している。180-500人のメンバーを持つTelegramコミュニティがヒントを共有し、Palo Alto Networksがサイバー犯罪自動化の増加について警告を発する中、その進化を促進している。WormGPT 4が月額約50ドルの有料サブスクリプションでカスタム/微調整モデルを提供するのに対し、KawaiiGPTは無料のオープンソースとしてプロンプトインジェクションでガードレールを回避する。倫理的ペネトレーションテストのためと位置付けられているが、GitHubでの利用可能性が二重用途AIの時代におけるリスクを増幅させている。
https://t.co/VRKsYMVEdZ December 12, 2025
164RP
プログラミングにおける、「だらだら調べてる時間」って、実は価値がある時間説。
初心者の頃:
「また脱線して関係ない記事読んでる...時間溶けた😭」
エラー調べてたらいつの間にか
別の技術記事に飛んで
GitHub で面白いリポジトリ見つけて
気づいたら3時間ネットサーフィン...
でもこの「一見無駄な時間」が知識の資産になる印象。
効率厨よりも、好奇心のまま脱線する人の方が結果的に引き出しが多い説🐸
だらだら調べる時間も、悪くないのかも? December 12, 2025
160RP
纳瓦尔更新了最新一期的博客,主题是关于招聘和团队建设。听完之后,脑子里一直回响着一句话:你招的不是员工,你在策展一群天才。
这个视角很新鲜,也很残酷。
1
招聘是唯一不能外包的事
纳瓦尔开门见山就抛出一个观点:创始人可以授权一切,除了四件事——招聘、融资、战略和产品愿景。
其中招聘最重要。
为什么?
因为早期员工就是公司的 DNA。你招进来的前 10 个、前 20 个人,他们的基因会被复制到整个组织。如果你在早期阶段外包了招聘,让 HR 或者猎头代劳,那基本上意味着你已经不再直接驾驶这家公司了。
纳瓦尔说得很直白:当公司开始有了中层管理,当创始人不再直接招聘和管理每一个人的时候,公司就已经变味了。
这听起来有点极端,但仔细想想确实如此。
很多创始人以为招聘可以外包一部分,比如让 HR 筛简历,让猎头推荐候选人。但纳瓦尔认为,连 sourcing(寻找候选人)都很难外包。因为招聘需要极大的创造力,你必须打破常规才能找到真正的人才。
如果你按照标准流程招人,你得到的就是标准化的、可替换的人才。这样的团队没办法做出独特的产品。
2
天才只想和天才共事
纳瓦尔提出了一个很有意思的测试方法。
当你要招一个新人的时候,你应该能够对他说:走进那个房间,里面坐着你未来的同事。你随便挑一个人,拉到一边聊 30 分钟。如果你对他们不满意,就别加入我们。
这个测试很简单,但很致命。
因为当你真的让候选人这么做的时候,你心里一定会有那么一两个人,你希望他们别被抽到。那个让你心虚的人,就是你应该让他离开的人。
为什么?
因为最优秀的人只想和最优秀的人共事。跟能力不如自己的人一起工作,对他们来说是一种认知负担。他们会觉得自己待错了地方,应该去别的公司,或者干脆自己创业。
顶尖团队是相互激励的。大家都在努力让彼此刮目相看。如果团队里有一个明显拖后腿的人,整个氛围就会被破坏。
这也解释了为什么很多创业公司在早期发展得很快,但到了一定规模就停滞不前。往往就是因为在扩张过程中,为了快速招人,降低了标准。
3
你永远招不到比你更好的人
这是纳瓦尔说的另一个扎心的真相。
很多管理书籍会告诉你:要招比你更优秀的人。但纳瓦尔认为,这根本不现实,至少在早期阶段不现实。
为什么?
因为早期阶段,你能提供给候选人的,就只有你自己。没有成熟的产品,没有品牌,没有网络效应。如果你的水平不如对方,人家凭什么要为你工作?
优秀的人不会长期为不如自己的人打工。
所以,创始人的能力上限,就是公司早期阶段能招到的人才的上限。这也是为什么早期投资人会如此看重创始团队。他们不太关心你的早期进展,不太关心你的合作伙伴,甚至不太关心你的领域经验。他们只想看你有多优秀。
而证明你优秀的最直接方式,就是看你能招到什么样的人。
等公司做大了,有了品牌和产品,情况会有所不同。但在 0 到 1 的阶段,创始人就是公司能吸引人才的唯一理由。
4
招聘需要打破所有规则
纳瓦尔分享了他最近一家公司的经验。他说,他招到了职业生涯中最好的团队,但每一个人的招聘,都打破了某些传统规则。
有的人说通勤太远,他们想办法解决。有的人说要生孩子,他们也接受。有的人说期权行权成本太高,他们重新设计了股权结构。有的人还在读大学,他们也招进来了。
纳瓦尔的观点是:最优秀的人不是标准化的零件。他们是多面手,有独特的需求和想法。如果你想招到他们,你必须愿意打破规则。
这包括薪资结构、股权分配、工作地点、工作时间、汇报关系、职位头衔等等。你要为每个真正优秀的人量身定制方案。
这也是为什么招聘不能外包。因为 HR 或者猎头不敢打破规则。他们怕违反公司政策,怕创始人不高兴。但创始人可以。创始人有权力也有责任去打破那些阻碍你招到天才的规则。
5
低自我的重要性
纳瓦尔提到了一个很多人忽略的特质:低自我(low ego)。
巴菲特说过,招人要看三点:智慧、精力、正直。纳瓦尔在此基础上加了一条:低自我。
为什么?
因为低自我的人更容易管理。他们不会把太多精力花在内部政治和争夺功劳上。他们更关心把事情做好,做得漂亮。
纳瓦尔说,你可能只能管理 5 个高自我的人,因为你要不断安抚他们的情绪。但你可以管理 30 到 40 个低自我的人,因为他们不需要那么多关注。
这对于小团队来说尤其重要。早期创业公司资源有限,创始人的时间更是宝贵。如果你把大量时间花在处理团队内部矛盾上,就没时间做产品了。
低自我的人还有一个好处:他们更愿意接受反馈,更愿意承认错误,更愿意快速迭代。这些特质对于一个需要不断试错的创业团队来说,太重要了。
6
工程师也是艺术家
纳瓦尔有一个观点让我印象很深刻:每一个伟大的工程师,同时也是艺术家。
他对艺术的定义很宽泛。不是说你要会画画或者弹琴,那是狭义的艺术。广义的艺术是指:为了某件事本身而去做,并且做到极致,在这个过程中创造出美感或者强烈的情感。
这个观点让我想起了一本书《黑客与画家》。
很多工程师是内向的。他们不擅长直接表达自己,所以会通过作品来表达。纳瓦尔说,他现在公司里至少一半的工程师,都有自己的艺术作品。有人做过优雅的数学证明,有人创作计算机艺术,有人做雕塑、设计衣服、设计门把手。
这些人对美有追求,对细节有执念。他们不只是想把代码写出来,他们想把代码写得漂亮。
纳瓦尔的合伙人认为,最高级的艺术形式是工业设计。比如苹果的 AirPods。那些优雅的曲线、令人满意的咔嗒声、藏起来的按钮、隐形的电池、完美贴合耳朵的设计,这些都是艺术与工程的完美结合。
苹果之所以成功,就是因为它是一家由工程师艺术家组成的公司。他们真心在乎产品的每一个细节。用户能感受到这份用心。
7
策展比创造更重要
纳瓦尔在 2025 年发了一条推特:创业公司的工作,就是找到未被发现的人才,并把他们提炼成产品。
关键词是"未被发现"。
如果一个人的才华已经被广泛认可,那你很难招到他,因为所有人都想要他。你必须在别人发现之前就找到这些人。
怎么找?
马斯克是这方面的大师。他的方法是:第一,选一个足够大、足够激动人心的使命。第二,尽早行动。
比如 SpaceX。Elon 在太空探索还不酷的时候就开始做了。那时候大家都觉得民营公司做火箭是天方夜谭。但正因如此,他能从 NASA、波音、洛克希德和各大学招到最好的航天工程师,因为那时候竞争还不激烈。
如果你做的是一个已经很拥挤的领域,你就要更有创意。纳瓦尔的合伙人喜欢找那些做奇怪项目的人。不是主流的 AI 模型训练,而是用冷门的机器学习算法做微气象预测这种偏门领域。
他会花一两天时间研究对方的 GitHub 和论文,真正理解他们在做什么。然后提出一个深思熟虑的问题,或者写一小段代码作为补充。
这种方式很有效,因为那些在角落里独自钻研的人,突然发现有人真正理解他们的工作,会很兴奋。
最妙的是,纳瓦尔的合伙人不是为了招人才这么做。他本来就喜欢研究这些东西。招人只是副产品。
这种真诚是装不出来的。
8
早期团队要有点像邪教
纳瓦尔说了一个可能会引起争议的观点:早期团队看起来确实有点像邪教。
他们是单一目标驱动的,有点偏执,有点怪。但这些人的怪是同一个方向的怪。
如果你在早期就追求多元化,追求各种不同背景、不同想法的人,你会发现大家整天在争论基本问题,根本没法推进工作。
早期阶段,你需要所有人在核心问题上已经达成共识。大家不需要讨论为什么要做这件事,只需要讨论怎么把它做得更好。
纳瓦尔引用了一个匿名创始人的话:早期创业公司最不需要的就是所谓的多样性。你需要的是单一文化,是一群在核心信念上高度一致的人。
这不是说你要歧视任何人。这只是说,在 0 到 1 的阶段,一致性比多样性更重要。等公司做大了,有了稳固的产品和文化,再去追求多样性也不迟。
伟大的创始人在外界看来可能很随和,但其实都是高度主观、近乎独裁的。他们对产品有极强的个人意见。好的产品都是主观的。它有明确的取舍,知道什么该做、什么不该做。
如果你没有强烈的观点,你就会做出一个大杂烩,一个充满互相矛盾功能的产品。
9
只招天才
纳瓦尔和他的合伙人在最新的公司里定了一个标准:只招天才。
这听起来很傲慢,但它确实设定了一个极高的门槛。
当你有了这个标准,你就会环顾四周,问自己:谁不是天才?如果有人不是,要么是你还没到需要大规模扩张的阶段,那你就应该让这个人离开。要么是你已经进入了需要规模化的阶段,那你就要接受团队不可能全是天才的现实。
纳瓦尔说,如果你能招到一个天才,你就已经很幸运了。按照这个速度,考虑到员工的流动率,你最多也就能组建一个 30 到 50 人的公司。但哪怕只有 10 个天才,你也远远领先于大多数公司。
他还补充说,其实每个人都有自己的天才区域。你要找的是那些已经找到自己天才区域的人,或者至少有潜力找到的人。
这个标准很难坚持,因为招人的压力很大。业务在发展,事情越来越多,你会忍不住降低标准,先招个人进来填补空缺。
但这是最危险的。因为一旦你招错了人,整个团队的基因就被稀释了。 December 12, 2025
133RP
ソニーさんの発表、GitHubの管理側としてとてもよかったです。設定を全てIaC化して透明性を確保、利用者はプルリクで設定変更をするっていう文化を作ったのが印象的でした
GitHub を組織的に使いこなすために ソニーが実践した全社展開のプラクティス #GitHubUniverseRecap
https://t.co/Gc8hriMgyd December 12, 2025
100RP
2025年,我的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/W0qe8YtsYX)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍,
现在最大的问题是,groq、sambanova、cerebras他们只能白嫖开源模型(deepseek、qwen、zai甚至更难用的llama),因为这三家自己没能力训练模型,本质是卖芯片的(实际是自己造完data center后卖API),
但是只要中国几家厂商能源源不断输送最好的开放weights的模型,让groq、sambanova、cerebras持续用上他们能用的最好的开放weights的模型,这三家最终会把nvidia、google tpu连同他们的客户一锅端。
人类依然非常需要LLM inference的时间上的飞速优化,只不过现在人们需要更强的模型,而人类愿意为此多等等时间,
但是终归有一天人们会发现,无论是coding,还是在各种infra中快速反馈相应,哪怕是简单的搜索或者问答,inference速度这件事才是至关重要。 December 12, 2025
93RP
AI エージェント (Copilot 以外でももちろん OK) に渡す、
めちゃくちゃ良く練られた秀逸なプロンプトなどがまとまったリポジトリ!
https://t.co/jA7UfJTn5r
ぜひ見てね!
#GitHubUniverseRecap December 12, 2025
78RP
1. 2026年后,纯粹的前端、后端、算法、策略岗位会越来越少,活得滋润的都是那种“左手敲代码、右手会让AI干活”的全能构建者。我问了十几个还在一线带团队的大牛,他们现在招人第一条要求就是:你能不能用AI把开发速度干到以前3倍?别再死磕手写一切了,学会借力才是王道
2. 版本控制不会Git的,2026年连面试都不用去了。SVN?那是上古神器,提了别人只会笑你。代码必须上GitHub,Gitee只适合放一些不能见光的小项目。最重要的安全常识:凡是能把你账户搞爆的东西(API Key、私钥、数据库密码),全部写进.gitignore,永远别犯低级错误,不然分分钟被人薅羊毛
3. 云服务器直接选最新版的Ubuntu LTS,Windows Server除非你想天天跟环境配置打架。想省事到极致?前端项目直接丢Vercel,免费额度够用一辈子,git push一下全自动构建部署,10秒上线,爽得飞起。很多百万用户量的独立开发产品到现在还在用Vercel免费版,真的香
4. 域名必须是自己的,越短越好记越好。别再用一堆乱七八糟的https://t.co/QRJP0o41FU二级域名了,看起来就廉价。像wquguru这种个人品牌,直接买个短域名,所有产品都挂在子域名下面,用户一看到就知道是“老王家出的东西”,信任感直接拉满。我现在看到好的短域名就跟抢茅台一样下手
5. 部署必须Docker化,不接受反驳。以前最常见的扯皮就是“在我电脑上能跑”,现在直接给别人一个docker-compose.yml,谁都能一键跑起来。参考我自己的项目结构:https://t.co/mMh1HpixGy ,根目录干干净净,所有服务都能单独起,别人拿过去改两行就能用
6. 前端铁打的组合:Next.js + Tailwind + Shadcn UI。为啥?因为所有大模型在这套技术栈上训练的数据最多,让Claude Code帮你写组件,90%的情况下直接能用,改两行就完美。想用React + AntD也可以,但你会发现AI吐出来的代码永远差一口气。Python党想快速出demo就Streamlit,但只准做内部工具
7. 后端新手直接上FastAPI,老鸟随便你用啥。逻辑不复杂的全栈项目,直接用Next.js的API Routes就够了,全程TypeScript一门语言吃天下,上下文切换成本为零。性能真到瓶颈了再去搞NestJS、Go、Rust,到那时候你已经有钱请人了
8. 项目文件夹要让人看懂,更要让AI看懂。根目录建议这样分:frontend、backend、agents、docs,再加两个神仙文件夹:.spec(放所有规范和决策记录)+.chat(把跟AI的关键对话直接cp进去)。下次你或者别人让AI接手维护,它直接就能看懂前因后果,效率直接起飞
9. 做AI Agent千万别先摸LangChain,那东西就是黑盒子中的黑盒子,调试到崩溃。直接上官方SDK:OpenAI SDK、Claude SDK,代码量少20倍,Token省30%,还100%可控。我现在所有新Agent项目全部原生SDK,调试速度快到飞起
10. 数据库+认证直接Supabase一把梭,开源的Firebase,免费额度离谱地高,后端代码能少写80%。缓存用Upstash,Serverless Redis,跟Vercel无缝打通。一个月几块钱就能扛住几十万日活,独立开发者闭眼冲就对了。省下来的钱和时间拿去喝奶茶不好吗? December 12, 2025
77RP
我有个单向的哥们,最近分享了他在2025年的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/8O8usyl6Af…)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍。 December 12, 2025
52RP
ゲームエンジン&配信プラットフォーム統合型ツール「s&box」がオープンソース化
https://t.co/uoD1t9ckTY
ソースコードはMITライセンスのもとGitHubにて無償で公開されている https://t.co/Kxin813bo2 December 12, 2025
46RP
闇市場でAI悪用が加速している。犯罪者向けチャットボットWormGPTやKawaiiGPTが格安・無制限で流通し、誰でも高度なサイバー攻撃を即座に実行できる状況が広がっている。
WormGPTは新バージョンが復活し、Telegram経由で月額や生涯利用権まで販売されている。数百人規模の利用者を集め、PDFを暗号化するランサムウェアの生成など、要求に応じて即座に実働コードを出力する能力が確認されている。さらに攻撃者向けの脅迫文作成まで自動化され、技術のない利用者でも攻撃を展開できる。
一方、無料で入手できるKawaiiGPTはGitHubで公開され、短時間で環境構築できる手軽さが特徴である。見た目に反して危険性は高く、銀行を装った巧妙なスピアフィッシング文や横移動用スクリプト、メールデータ窃取用コードなどを生成する。数百人規模のアクティブユーザーが存在し、Telegramでは活発な情報交換も行われている。
こうしたAIツールの普及により、かつて熟練技術が必要だった攻撃が誰にでも可能となり、防御側は誤字や粗雑なコードといった従来の兆候に頼れなくなっている。攻撃の自動化と高精度化が進む中、企業はより高度な防御体制を求められている。
https://t.co/PyNXyiozp5 December 12, 2025
28RP
一文带你了解AINFT AgentX!
AINFT AgentX作为AINFT生态的核心创新,它不仅仅是一个工具,它是一个高度可扩展的AI驱动交易框架,专为金融领域量身定制。
不同于传统交易系统依赖人工决策或简单算法,AgentX通过先进的AI代理技术,实现自主化、智能化的跨链交易策略优化,帮助用户在波动剧烈的市场中捕捉机遇、规避风险。今天,我们就来深入剖析AgentX的技术创新,带你一窥其在AI交易领域的领先优势。
AgentX的核心架构:AI代理驱动的交易引擎
AINFT AgentX的核心在于其FinAgent Trading Framework——一个灵活、可扩展的AI代理框架。这不是简单的自动化脚本,而是基于多代理协作系统的智能引擎,能够实时分析海量链上数据、预测市场趋势,并动态执行交易决策。
技术创新一:多代理协作与自适应学习机制
• 多代理架构(Multi-Agent System):AgentX采用分布式AI代理网络,每个代理专注于特定任务,如市场监控、风险评估和执行优化。不同于单体AI模型,这些代理通过强化学习和联邦学习机制协作,实现跨模块的无缝交互。例如,在高频交易场景中,一个代理负责链上流动性扫描,另一个则模拟对手方行为,共同生成最优入场点。
• 自适应策略生成:框架内置进化算法,允许用户自定义交易策略库。AI会根据历史数据和实时反馈,自动迭代策略参数,避免过拟合问题。这在AI交易领域是重大突破——传统系统往往静态,而AgentX能“进化”出适应黑天鹅事件的鲁棒策略,显著提升胜率15%-30%(基于模拟回测)。
这种创新让AgentX从“被动执行”转向“主动智能”,真正解放交易者的双手。
多链策略优化:打破区块链孤岛的AI桥梁
DeFi的魅力在于多链生态,但跨链交易的摩擦(如gas费波动、延迟和流动性碎片)一直是痛点。AgentX的Multi-Chain Strategy模块,通过AI驱动的路由优化,彻底解决这一难题。
技术创新二:智能跨链路由与流动性聚合
• AI-powered Chain Routing:利用图神经网络(Graph Neural Networks, GNN)建模多链拓扑,AgentX实时计算最佳路径。例如,从Ethereum到Solana的资产桥接时,AI会预测网络拥堵、桥接费用,并选择最低风险路由,减少滑点达20%以上。
• DeFi流动性聚合:集成先进的聚合器算法,结合机器学习预测流动性池的深度和波动。不同于Uniswap或1inch的规则-based聚合,AgentX的AI能预判“流动性枯竭”事件,自动切换到备用链或DEX,确保交易执行的连续性和效率。
这一创新使AgentX成为多链DeFi的“智能导航仪”,让交易者无需手动管理复杂桥接,即可实现无缝的跨生态收益最大化。
资产安全管理:DAO治理下的链上堡垒
安全是交易框架的生命线。AgentX的Asset Security模块,将AI与DAO治理深度融合,提供企业级的安全保障。
技术创新三:AI增强的DAO治理与风险预测
• 链上DAO治理:通过智能合约实现去中心化决策,持有人可投票优化框架参数。AI代理充当“守护者”,使用异常检测模型(Anomaly Detection via Autoencoders)监控潜在攻击,如闪电贷操纵或MEV提取。
• 预测性风险管理:集成时间序列预测(Time-Series Forecasting with LSTM),提前识别资产暴露风险,并自动化执行止损或对冲策略。这比传统审计工具更主动——AgentX能在事件发生前数分钟发出警报,挽回潜在损失。
在黑客频发的DeFi环境中,这种AI+DAO的混合模式,确保了资产的“智能自治”,为机构级用户提供了合规与安全的双重保障。
开源与开发者生态:协作驱动的持续创新
AgentX的开源性质是其另一大亮点。
Developer Documentation提供详尽指南、API接口和示例代码,欢迎开发者贡献策略模块或集成新链。
• 开源协作:基于GitHub仓库,社区可fork并测试自定义AI模型。文档覆盖从初级部署到高级代理训练的全流程,支持Python和Solidity混合开发。
• 生态扩展:已集成主流链如Ethereum、BSC和Polygon,未来将扩展至Layer 2解决方案。开发者可利用AINFT的NFT激励机制,奖励高质量贡献。
这一设计不仅降低了进入门槛,还通过众包智慧,推动AI交易技术的指数级进步。
AINFT AgentX不是一个产品,而是一个生态起点。它以AI代理为核心,融合多链优化、DAO安全和开源协作,重新定义了DeFi交易的边界。
在2025年的市场中,选择AgentX意味着拥抱技术前沿:更智能的决策、更高效的执行、更安全的资产管理。
@justinsuntron @OfficialAINFT #TRONEcoStar December 12, 2025
24RP
发现一个 6.4k Star 的开源神器,可以用自然语言控制手机!
DroidRun 是一个 LLM 手机自动化框架,支持 Android 和 iOS 设备。
用人话说就是:你告诉 AI "帮我在 App 上订个房间",它就能自己操作手机完成。
几个让我觉得牛逼的点:
1、支持多个 LLM 提供商
OpenAI、Claude、Gemini、DeepSeek、Ollama 都能用,想用哪个用哪个
2、有规划能力
不只是简单执行,能理解复杂的多步骤任务
3、截图分析
AI 能看懂屏幕内容,真正"看"着手机在操作
4、Python API 可扩展
程序员可以自定义自动化流程
使用场景太多了:
- 自动化测试 App
- 重复性操作一键完成
- 给不太会用手机的家人远程帮忙
一句话安装:
pip install 'droidrun[google,anthropic,openai,deepseek,ollama,dev]'
MIT 开源,完全免费。
这玩意儿让我想起之前的 browser-use,一个控制浏览器,一个控制手机,AI Agent 的未来已经来了。
GitHub:https://t.co/7XeR1i2VWR
全文参考:https://t.co/MnKWjdiiuF December 12, 2025
21RP
> AIでソフト開発が拡大
つい今朝「何にもわかってないくせにOCamlに署名欄を他人の名前にした生成クソデカPullRequest送ってイキってコミュニティ全員疲弊する事例」の github drama を見たばっかだから素直に喜べんな。 December 12, 2025
19RP
如果你有一些比较隐私的数据,放在 Notion、Obsidian 这些云端笔记工具上,害怕数据泄露。
可以看一下,Beaver Notes 这款开源笔记应用,所有笔记都存储在本地设备上,不经过任何第三方服务器。
同时支持 Markdown 语法编写、笔记链接、标签分类等实用功能,还能给重要笔记加密上锁。
GitHub:https://t.co/DwULfsbR4a
还支持多种云端同步方式,可自由选择第三方云服务商或自己部署的服务器,方便不同设备间数据同步。
提供全平台安装包,支持 macOS、Windows、Linux,以及 Android 和 iOS,有需要的可以下载试试。 December 12, 2025
16RP
ふと見たら Fortran の配合率が下がってる。
Nov. 2025 :Fortran 3.7%
Oct. 2023 :Fortran 16.8%
Source: GitHub scipy/scipy https://t.co/xzDT2ZicDk https://t.co/LoTVUwf8TE December 12, 2025
14RP
AIに仕事を奪われる話よりも
AIに趣味奪われる方がショックでかい
CTOやってたときも元々プログラミングは趣味の一環やった
毎日ゾーンに入って10時間でもコード書くのはセラピーみたいなもんで
パソコン使えない時間は紙の本、YouTubeとかでアーキテクチャ、デザインパターン、コンピュータサイエンス系の本とか読み漁って、色々試すのが楽しかった
エディタのフォントの色コロコロ変えたり、自分だけのショートカットを秘伝のタレみたいに育てたり
誰も得しない自己満の自動化に何時間もかけたり
バグにハマったときはStack OverflowとかGitHubのissueとか読みまくって何日も溶かしたり
最後にStack Overflow読んだのいつか覚えてない
当時、プログラミングで飯食ってるとはいえ、生産性云々よりも非効率的な趣味性の高いエンタメとしてコーディングを嗜んでた
これって生成AIに絵柄パクられた!とかってブチギレてる絵師とかAI反対過激派の気持ちに近いんかな?
勝手にワシの声学習に使ってる!ってキレてる声優の人とか
自分のアイデンティティの喪失を助長する脅威な存在
それを排除したいっていう
止められるものではないから排除されるべきは自分と確信して、無意識に即効新しいゲーム見つけたけど
仮に30年それだけに没頭して、それだけで飯食ってて、生成AIで明日から無価値扱いされたら頭沸くよな December 12, 2025
14RP
GitHub上でOSSとかパブリックリポジトリを読む時は、URLのhttps://t.co/zhTLh9qJFhをhttps://t.co/aE3VyFMl0aに変えるだけで、いい感じのドキュメントになるの超便利。README読むよりもdeepwikiを読む方が絶対に良い December 12, 2025
12RP
AIを使ってgit commitのコミットメッセージを作成するCLIツール。同様のは他にもあるが、このツールはwhyを明確にするためユーザーにいくつか質問をして、その答えから良い感じにコミットメッセージを作成するらしい。ほう / “GitHub - arpxspace/smartcommit: Enforce the…” https://t.co/mZmGmOGd2J December 12, 2025
9RP
?演算子 (Question Operator) にお手軽にメソッドをフックできるクレート hooq を作り、そのドキュメントを書きました!
ぜひ使ってみてほしいです!
GitHub: https://t.co/63nlZpBBxU
ドキュメント: https://t.co/PD51AXSCJJ https://t.co/9fQXdLV5jr December 12, 2025
7RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



