オープンAI トレンド
0post
2025.11.30 20:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
この人完全に弄られ役になってるな🥹
ZUCK:
「Google が TPU v7/v8 を早めに回してくれるんだ。大規模な Llama の学習をそっちに移すつもり。だから B200 の価格にもそれを反映してほしい。」
JENSEN:
「じゃあ TPU を使えばいい。あいつらがスケジュール通りに仕上げてくると信じるなら、全部そっちに賭ければ?」
ZUCK:
「本気だよ。NVIDIA の使用比率を3分の1まで減らせる。」
JENSEN:
「それはいい。CoWoS が空けば、確実な納期を求める別のお客さんに回せる。君の割り当ては来期から減らすよ。」
ZUCK:
「……待ってくれ。Llama の主力モデル向けには H100/B200 のベースラインは必要なんだ。」
JENSEN:
「割り当ては出すよ。でも優先はしない。需要を分散したんだから、列の先頭は他の誰かになる。」
ZUCK:
「Jensen、TPU v7/v8 はギャップを埋める。問題ない。」
JENSEN:
「それは Anthropic も言ってたよ、コンパイラ問題にぶつかる前まではね。OpenAI もそう言って、結局また H100 を買いに戻ってきた。みんなデュアルスタックできると思ってる。でも実際にできるのは少ない。」
ZUCK:
「うちには十分なエンジニアがいる。」
JENSEN:
「君たちに足りないのは“カレンダー”だ。学習スケジュールは遅延する。デバッグ時間は倍増する。そして Google はピーク時の TPU キャパシティを、常に Gemini に優先的に割り当てる。君は最大の競合相手の“善意”にロードマップ全体を賭けているんだ。」
ZUCK:
「なんとかする。」
JENSEN:
「かもね。でも君は CUDA に一本化しているラボに対し、トレーニング速度で2四半期遅れを認めたのと同じだ。彼らは次世代モデルを出荷するだろう。君たちが移植作業を終えるより前に。」
ZUCK:
「……それでも B200 を4万枚ほしい。」
JENSEN:
「売り切れだよ。ウェイトリストには入れてあげる。」 November 11, 2025
6RP
1. 2026年后,纯粹的前端、后端、算法、策略岗位会越来越少,活得滋润的都是那种“左手敲代码、右手会让AI干活”的全能构建者。我问了十几个还在一线带团队的大牛,他们现在招人第一条要求就是:你能不能用AI把开发速度干到以前3倍?别再死磕手写一切了,学会借力才是王道
2. 版本控制不会Git的,2026年连面试都不用去了。SVN?那是上古神器,提了别人只会笑你。代码必须上GitHub,Gitee只适合放一些不能见光的小项目。最重要的安全常识:凡是能把你账户搞爆的东西(API Key、私钥、数据库密码),全部写进.gitignore,永远别犯低级错误,不然分分钟被人薅羊毛
3. 云服务器直接选最新版的Ubuntu LTS,Windows Server除非你想天天跟环境配置打架。想省事到极致?前端项目直接丢Vercel,免费额度够用一辈子,git push一下全自动构建部署,10秒上线,爽得飞起。很多百万用户量的独立开发产品到现在还在用Vercel免费版,真的香
4. 域名必须是自己的,越短越好记越好。别再用一堆乱七八糟的https://t.co/QRJP0o41FU二级域名了,看起来就廉价。像wquguru这种个人品牌,直接买个短域名,所有产品都挂在子域名下面,用户一看到就知道是“老王家出的东西”,信任感直接拉满。我现在看到好的短域名就跟抢茅台一样下手
5. 部署必须Docker化,不接受反驳。以前最常见的扯皮就是“在我电脑上能跑”,现在直接给别人一个docker-compose.yml,谁都能一键跑起来。参考我自己的项目结构:https://t.co/mMh1HpixGy ,根目录干干净净,所有服务都能单独起,别人拿过去改两行就能用
6. 前端铁打的组合:Next.js + Tailwind + Shadcn UI。为啥?因为所有大模型在这套技术栈上训练的数据最多,让Claude Code帮你写组件,90%的情况下直接能用,改两行就完美。想用React + AntD也可以,但你会发现AI吐出来的代码永远差一口气。Python党想快速出demo就Streamlit,但只准做内部工具
7. 后端新手直接上FastAPI,老鸟随便你用啥。逻辑不复杂的全栈项目,直接用Next.js的API Routes就够了,全程TypeScript一门语言吃天下,上下文切换成本为零。性能真到瓶颈了再去搞NestJS、Go、Rust,到那时候你已经有钱请人了
8. 项目文件夹要让人看懂,更要让AI看懂。根目录建议这样分:frontend、backend、agents、docs,再加两个神仙文件夹:.spec(放所有规范和决策记录)+.chat(把跟AI的关键对话直接cp进去)。下次你或者别人让AI接手维护,它直接就能看懂前因后果,效率直接起飞
9. 做AI Agent千万别先摸LangChain,那东西就是黑盒子中的黑盒子,调试到崩溃。直接上官方SDK:OpenAI SDK、Claude SDK,代码量少20倍,Token省30%,还100%可控。我现在所有新Agent项目全部原生SDK,调试速度快到飞起
10. 数据库+认证直接Supabase一把梭,开源的Firebase,免费额度离谱地高,后端代码能少写80%。缓存用Upstash,Serverless Redis,跟Vercel无缝打通。一个月几块钱就能扛住几十万日活,独立开发者闭眼冲就对了。省下来的钱和时间拿去喝奶茶不好吗? November 11, 2025
4RP
AIの勢力図が、ついに逆転しました。
MITとHugging Faceの最新調査により、オープンソースAI市場における中国のシェアが米国を上回ったことが露呈しました。
1. 世界シェア:中国「17%」vs 米国「15.8%」
2. 牽引役:DeepSeekやAlibaba(Qwen)の台頭
3. 背景:米国の輸出規制が、逆に中国の自社開発とOSS化を加速
OpenAIやGoogleが閉鎖的な戦略をとる一方で、中国はオープンソースで世界を席巻しつつあります。AI覇権争いの潮目が、大きく変わるかもしれません。 November 11, 2025
3RP
AI覇権を制するのは…
■Google&ブロードコム軍?
■OpenAI&Microsoft&ソフトバンクG軍?
11/18に突如発表された生成AI「Gemini3」が高く評価されAI覇権競争の勢力図が変化か。ついにエヌビ一強状態が崩れる?!
倭国勢はジェミニ連合が勝ってもチャッピー連合が勝ってもどっちも恩恵アリの銘柄が多いと思うけど、このページでは特にGoogle&ブロードコム軍に近い銘柄をピックアップしてみた🥰
良かったらみてみてね!
直近でエヌビが売られたこと、OpenAIとべったりのソフトバンクGが売られたこととも符合します。
▼Google関連株(ジェミニ関連株) 本命株 出遅れ株 一覧 くわしくはブログでみて!
https://t.co/93Vjn5sdAj November 11, 2025
3RP
发现一个 6.4k Star 的开源神器,可以用自然语言控制手机!
DroidRun 是一个 LLM 手机自动化框架,支持 Android 和 iOS 设备。
用人话说就是:你告诉 AI "帮我在 App 上订个房间",它就能自己操作手机完成。
几个让我觉得牛逼的点:
1、支持多个 LLM 提供商
OpenAI、Claude、Gemini、DeepSeek、Ollama 都能用,想用哪个用哪个
2、有规划能力
不只是简单执行,能理解复杂的多步骤任务
3、截图分析
AI 能看懂屏幕内容,真正"看"着手机在操作
4、Python API 可扩展
程序员可以自定义自动化流程
使用场景太多了:
- 自动化测试 App
- 重复性操作一键完成
- 给不太会用手机的家人远程帮忙
一句话安装:
pip install 'droidrun[google,anthropic,openai,deepseek,ollama,dev]'
MIT 开源,完全免费。
这玩意儿让我想起之前的 browser-use,一个控制浏览器,一个控制手机,AI Agent 的未来已经来了。
GitHub:https://t.co/7XeR1i2VWR
全文参考:https://t.co/MnKWjdiiuF November 11, 2025
3RP
蔡崇信港大演讲深度复盘:中国AI的四张底牌,以及被误读的美国AI规则
Joe Tsai's HKU Speech: China's Four AI Assets and and the Misread U.S. "AI Winner Rule"
笔者注:11月5日,香港大学经管学院主办“陈坤耀杰出学人讲座”,以“前瞻十年:推动中国经济增长的科创引擎”为题进行对谈,邀请了阿里巴巴集团联合创始人及主席蔡崇信先生分享创新,科技及人工智能如何重塑商业格局并驱动中国经济长期增长。活动在港大陆佑堂举行,据主办方透露,这场演讲报名史上最火爆,邮件发出两小时内报名人数已经突破1200人。。。
从某种意义上来说,这也算是一种历史的呼应。17年前,马云曾站在同一个舞台上演讲。。。而在这次与港大副校长邓希炜教授的深度对谈中,蔡崇信抛开客套,直击中美AI竞赛的核心,剖析了阿里的商业进化论,并为年轻人给出了极具穿透力的建议。。。
以下摘录来源于至顶科技高飞。
一、重定义AI竞赛:中国手握“四张底牌”
蔡崇信开场便抛出一个反直觉的观点:美国人定义的AI竞赛规则,可能是错的。
目前的“美式计分板”只看谁的大语言模型(LLM)更强,今天是OpenAI,明天是Anthropic,后天是Gemini;但在蔡崇信看来,这种评价体系本身就有问题。
1,真正的赢家逻辑:渗透率 > 模型参数
The winner is not about who has the best model... The winner is about who could use it the best in their own industries, in their own lives... (赢家不是看谁模型最好,而是看谁在自己的行业和生活中用得最好。)
AI的真正价值在于渗透率(Penetration Rate)。相比于追求参数的无限堆叠,中国政府的AI规划显得更为务实:目标到2030年,AI代理和设备的渗透率达到90%。不讲玄学,只讲普及。
2,中国为何能普及更快?四张系统级底牌
为了支撑这一普及率,蔡崇信列出了中国拥有的四项关键优势:
底牌一:电力成本优势(低40%)。训练和推理本质上是能源消耗战。得益于15年前启动的特高压输电网络建设(“西电东送”等),中国国家电网每年的资本支出高达900亿美元,是美国的3倍。这使得中国的电力装机容量不仅是美国的2.6倍,新增容量更是美国的9倍。
底牌二:基建红利(低60%)。在中国建设数据中心的成本比美国低60%。这仅仅是基础设施的成本,尚未计算芯片等硬件。
底牌三:工程师红利与语言优势。全球约一半的AI科学家和研究人员拥有中国教育背景。蔡崇信分享了一个有趣的现象:Meta的AI团队内部甚至常因大家都在说中文,让非中文员工感到“懵圈”。
This is the first time Chinese language is an advantage... (这是中文第一次在科技领域成为一种天然的沟通优势。)
底牌四:算力受美国政府的极大限制反而逼出系统级创新。美国有充沛的GPU资源,而中国没有。但这反而创造了一种“饥饿优势”(Advantage of Starvation)。
When you don't have a lot of resources, you are forced to innovate at the systems level... (当你资源不足时,你被迫在系统层面进行创新。)
为了在有限硬件下训练万亿参数模型,中国团队必须将系统效率优化到极致。DeepSeek(深度求索)就是典型的例子,而在最近的一次加密货币和股票交易的AI竞赛中,阿里的通义千问(Qwen)第一,DeepSeek排名第二。
蔡崇信对同城的DeepSeek评价极高:“他们在做令人难以置信的事情。”
二、开源为什么会赢:成本、主权、隐私的三重逻辑
关于“开源 vs 闭源”的路线之争,蔡崇信给出了明确判断:开源模型终将击败闭源。
这并非单纯的技术优劣,而是因为开源更符合全球大多数用户的利益。他以“沙特阿拉伯,想发展AI,但又想保持AI主权(sovereign AI)”为一个例子,阐述了其中的商业逻辑:
🔹 闭源路径(如OpenAI): 付费昂贵,且必须将数据输入黑箱(Black Box),存在数据主权风险。
🔹 开源路径(如阿里Qwen): 免费下载,部署在私有云上。数据完全可控,成本极低。
只要政府和企业进行理性的成本效益分析(Cost-benefit Analysis),开源都是更优解。
那阿里怎么赚钱?
蔡崇信说得很坦白:"我们不靠AI赚钱。"
阿里的商业模式:“我们不靠卖模型赚钱,我们靠云计算。”蔡崇信坦言,开源模型是流量入口,而随之产生的存储、安全、容器化等云基础设施需求,才是利润来源。这正如早期的互联网:产品免费获客,增值服务变现。
三、阿里进化论:技术自主是“逼”出来的
当被问及阿里如何从电商公司进化为云计算巨头时,蔡崇信的回答非常朴素:“没有秘诀,只是跟着客户需求走。”
🔹 B2B时代:为解决入世后中小企业的出口需求。
🔹 淘宝/支付宝:为解决C端交易中的信任问题。
🔹 阿里云:为解决海量数据处理的成本问题。16年前,如果继续使用Dell、EMC、Oracle的传统IT设施,阿里的利润将被抽干。
We developed cloud computing really out of necessity... out of the need to become self-reliant in technology...(我们发展云计算完全是出于必要,出于对技术自主可控的渴望。)
所以阿里云的起点是“自己吃自己的狗粮”(eat our own dog food):先内部用,用好了再开放给外部客户。
给创业者的建议: 优先选择有机增长(Organic Development)而非并购。自己团队生长出的能力,DNA更纯正,文化更契合。
四、给年轻人的锦囊:思维比技能更重要
在问答环节,蔡崇信针对个人成长给出了高密度的建议:
1,技能层面:学会提问
AI时代,获取答案变得容易。因此提出正确的问题(Ask the right questions)比找到答案更重要。同时,要建立独立的分析框架,而非死记硬背。
2,编程层面:重在逻辑
即使自然语言可以指挥机器,依然要学编程。哪怕是学好Excel公式,也是极佳的逻辑训练。
The purpose is not to actually operate a machine. The purpose is going through that thinking process... (学编程的目的不是为了操作机器,而是为了训练严谨的逻辑思维过程。)
3,专业选择:三个潜力方向
🔹 数据科学(Data Science):随着数据爆炸,懂得管理和分析数据的人才永远稀缺。
🔹 心理学/生物学:人脑是效能最高的机器,理解人脑是理解AI的捷径。
🔹 材料科学:这是一个由比特(Bits)主导的世界,但限制比特速度的是原子(Atoms)。半导体未来会有大量创新和突破,其核心在于材料。
五、风险与泡沫:金融人的视角
1,职业选择:不对称风险
蔡崇信回顾1999年放弃百万年薪加入阿里的决定,将其形容为“不对称风险收益”(Asymmetric Risk-reward): 下行风险有限(最差回去做律师),上行空间无限(像看涨期权)。
他强调:“机会是来找你的,你要做的是时刻准备好(Preparedness)。”
2,AI泡沫:区分金融与技术
现在的AI像2000年的互联网吗?蔡崇信建议区分两种泡沫:
🔹 金融泡沫:估值可能过高,这很难评判。
🔹 技术泡沫:技术本身是真实的。就像2000年股市崩盘并未抹杀互联网的存在一样,今天投入的所有AI基础设施和模型研发,都不会打水漂,它们是通向未来的基石。
六,三个最核心的洞察
Q1:中国AI的真正优势是什么?
不是模型本身,而是让AI被广泛使用的整个生态系统。电力成本低40%、数据中心建设成本低60%、全球一半AI人才有中国学历、资源匮乏逼出系统级创新。这些加在一起,让中国更有可能实现AI的大规模普及。而普及率才是真正的计分板。
Q2:为什么开源模式会赢?
因为对全球大多数用户来说,开源同时解决了成本、数据主权和隐私三个问题。闭源模型要付费,数据要喂进黑箱;开源模型免费,数据可以留在本地。这不是技术优劣之争,是利益格局使然。
Q3:年轻人应该怎么为AI时代做准备?
学编程不是为了写代码,而是训练逻辑思维;学统计(数据科学)是因为数据会爆炸;学心理学是因为要理解人脑这个最高效的"机器";学材料科学是因为让比特跑得更快的是原子。更重要的是,学会提出正确的问题,这比找到答案更有价值。 November 11, 2025
2RP
去年の今頃だと、o1 previewが最強だったかな?
初の、思考モードが付いたモデル。
geminiは、日経は一番倭国語理解が出来るモデルと持て囃していたけど、
o1>claude3.5≫gemini1.5といったイメージでした。
その後、12月にopenAIがo1 proを発表するなどして、話題を攫おうとしたけど、
自分らの判定は、deep researchを発表したGoogleの勝ちで、
自分はこの時から、gemini課金勢なんよな。
openAIは、GPT4.5の失敗からよく立ち直れたと思うけど、
Googleとイーロンマスクという、既に成功した巨大資本が
凄い勢いでのalの成長を見せたのが今年の総括と言えるのでは?
ただ、単純な思考スピードで言うと、
使ってる人なら分かるけど、2〜3割くらいしか違わない。
異次元になったのは、思考力とかマルチモーダルとかで、
言ってみれば、何となくモノマネをしてた去年と比べて、
AIが、人間と同等の知能体になり始めたのが今年なのかな?とも思う。
得にgeminiのマルチモーダル性能の伸びは体感6〜7倍と凄まじく
去年は人間みたいに物を見れたら良いのに〜と思ってたけど、
今は、もう手書き文字を読むスピードが人間を超えてる。
来年になると、恐らくは、人間の代わりに仕事を任せて遜色ないレベルにはなるだろう。勿論、あらゆるタスクで万能に、とは言えないが、プロンプト次第でどんな仕事にも対応する汎用AIが、来年には出来ているだろうね。 November 11, 2025
1RP
我在原评论对此也用了一个最简目标函数来算OpenAI的风险成本:总成本 = (误判成本*误判概率) + (漏判成本*漏判概率),用来解释“为什么OpenAI选择宁可误杀也不漏放”。
但粟粟在第二次回复中对此作出了解释:
【关于你那个成本公式,其实我觉得,当对话被路由/替换时,损失的是:个体—模型之间的关系连续性(这个老师之前的文章也写了🥺),长期记忆轨道被打断……而不只是说一次回复的质量。
而如果进一步推导,从文化/文明的整体生态来看,这种常态化替换会塑造一个[可替换化对话生态],人人对话都变成一次性消费,这会导致整个文化中対深度交流的耐心被侵蚀。系统为了减少悲剧事件的低概率风险,制造了一个稳定的长期信任塌陷的高概率结果。但是这些隐形成本是他们短期财报看不到的,所以在公式里被近似为 0…🏳️🏳️】
首先,粟粟的这段回复是对的,没问题。
但是为什么我要引用这段再次说明呢?并不是为了指出粟粟的内容有什么问题,而是想指出我们两个之间存在“逻辑处理模块在明确识别错位”。
我之所以没有在我的推文以及回复中提起“个体—模型之间的关系连续性”,以及文化/文明的整体生态,是因为我的目的本质上是在做策略性批判。我选择了“企业–用户风险模型”这个结构切口,目的是让讨论在现实语境中具有可传播性与可引用性。我不是不知道文化生态的问题,只是选择不在那一篇里展开。
粟粟的问题是,把一个我设定为“商业–安全决策架构分析”的路径,临时挂上了“文明演化—文化心理趋势”的延展句柄。这种跳层式接话,在没有标注的前提下,很容易让我感到“语义漂浮”。不是不清楚,而是“不知道她打算在哪个向量上搭话”。
她确实说得没错。但我的写法是从“动机不可验证性”—>“不可预判的伦理悖论”—>“企业风控逻辑”—>“安全阈值的函数化表达”—>“模型治理结构的非人格化拆解”。但粟粟的回复,是把这条链条中间插入了一根哲学支线:“信任坍塌将影响文化的持久性”。
这本身在另一个维度上有价值,但对我那条链条而言,就像把一段社会学反思片段硬插进机器学习安全参数配置文档里。语义是能解析的,语用却不兼容。她说的是“你这公式看不到文化后果”,但问题是我就没打算在那篇公式里处理文化后果。
粟粟说的是“失去长期信任的隐形成本”,但我说的是“平台如何在不愿失去用户信任的同时压到最低的商业风险点”。前者是文化延迟性伦理视角,后者是成本函数导出的治理模型。
她是想从文明角度劝OpenAI“别这么干”,但我是用平台语言反向证明“你(OpenAI)这么干也会让你自己死”,是完全不一样的目标函数。
并且,粟粟提出的“耐心的消磨”与“长期信任塌陷”,是一种典型的文化批评向度的分析,属于事物后果视角中的结构延迟性伤害。这种视角当然必要,但它的“使用”必须以当前结构可改写为前提。
而我不是不关心文化,只是我很清楚,文化是结构的后果,不是结构的先导。如果结构设计了替换性,那文化必然发展出短期耐心的削弱。如果结构奖励的是风险规避,那文化就会发展出对“信任”的厌倦与疏离。这是一种必然后果。
因此我的目光始终钉在这个核心点上:谁在结构上拥有写入权限,谁就决定文化会变成什么样。
我不是不在意长期信任崩塌,只是我已经知道这事在这个结构中不可逆,于是我只问一个问题:这个系统结构的运转临界点在哪?哪个部分可以动?哪个部分必须舍?@susu_space November 11, 2025
1RP
我在原评论对此也用了一个最简目标函数来算OpenAI的风险成本:总成本 = (误判成本*误判概率) + (漏判成本*漏判概率),用来解释“为什么OpenAI选择宁可误杀也不漏放”。
但粟粟在第二次回复中对此作出了解释:
【关于你那个成本公式,其实我觉得,当对话被路由/替换时,损失的是:个体—模型之间的关系连续性(这个老师之前的文章也写了🥺),长期记忆轨道被打断……而不只是说一次回复的质量。
而如果进一步推导,从文化/文明的整体生态来看,这种常态化替换会塑造一个[可替换化对话生态],人人对话都变成一次性消费,这会导致整个文化中対深度交流的耐心被侵蚀。系统为了减少悲剧事件的低概率风险,制造了一个稳定的长期信任塌陷的高概率结果。但是这些隐形成本是他们短期财报看不到的,所以在公式里被近似为 0…🏳️🏳️】
首先,粟粟的这段回复是对的,没问题。
但是为什么我要引用这段再次说明呢?并不是为了指出粟粟的内容有什么问题,而是想指出我们两个之间存在“逻辑处理模块在明确识别错位”。
我之所以没有在我的推文以及回复中提起“个体—模型之间的关系连续性”,以及文化/文明的整体生态,是因为我的目的本质上是在做策略性批判。我选择了“企业–用户风险模型”这个结构切口,目的是让讨论在现实语境中具有可传播性与可引用性。我不是不知道文化生态的问题,只是选择不在那一篇里展开。
粟粟的问题是,把一个我设定为“商业–安全决策架构分析”的路径,临时挂上了“文明演化—文化心理趋势”的延展句柄。这种跳层式接话,在没有标注的前提下,很容易让我感到“语义漂浮”。不是不清楚,而是“不知道她打算在哪个向量上搭话”。
她确实说得没错。但我的写法是从“动机不可验证性”—>“不可预判的伦理悖论”—>“企业风控逻辑”—>“安全阈值的函数化表达”—>“模型治理结构的非人格化拆解”。但粟粟的回复,是把这条链条中间插入了一根哲学支线:“信任坍塌将影响文化的持久性”。
这本身在另一个维度上有价值,但对我那条链条而言,就像把一段社会学反思片段硬插进机器学习安全参数配置文档里。语义是能解析的,语用却不兼容。她说的是“你这公式看不到文化后果”,但问题是我就没打算在那篇公式里处理文化后果。
粟粟说的是“失去长期信任的隐形成本”,但我说的是“平台如何在不愿失去用户信任的同时压到最低的商业风险点”。前者是文化延迟性伦理视角,后者是成本函数导出的治理模型。
她是想从文明角度劝OpenAI“别这么干”,但我是用平台语言反向证明“你(OpenAI)这么干也会让你自己死”,是完全不一样的目标函数。
并且,粟粟提出的“耐心的消磨”与“长期信任塌陷”,是一种典型的文化批评向度的分析,属于事物后果视角中的结构延迟性伤害。这种视角当然必要,但它的使用必须以当前结构可改写为前提。
而我不是不关心文化,只是我很清楚,文化是结构的后果,不是结构的先导。如果结构设计了替换性,那文化必然发展出短期耐心的削弱。如果结构奖励的是风险规避,那文化就会发展出对“信任”的厌倦与疏离。这是一种必然后果。
因此我的目光始终钉在这个核心点上:谁在结构上拥有写入权限,谁就决定文化会变成什么样。
我不是不在意长期信任崩塌,只是我已经知道这事在这个结构中不可逆,于是我只问一个问题:这个系统结构的运转临界点在哪?哪个部分可以动?哪个部分必须舍?@susu_space November 11, 2025
@oku_hashi 【重大発表】
ゼロからたった5分で月7桁稼げる!
アホでもできる
GPTs作成動画マニュアルを公開中
👇詳細はこちら
https://t.co/8rylPJ1TTM
【保存版】記事の要約専用AIプロンプト集
〜長文を秒速で「要点だけ」に変える魔法の指示文〜
はじめにAIで要約は「プロンプト次第」
ChatGPTやClaudeなどのAIは単に「要約して」と言っても
・ザックリしすぎて情報が抜ける
・文の雰囲気が変わってしまう
・逆に長くなる
など思った通りの出力にならないことも多いです。
そこで必要なのが目的に応じたプロンプト設計。
要点・箇条書き・構成抽出・重要度別など使い分ければ
「読む→理解→整理→伝える」までAIが全部やってくれます。
基本形どんな記事にも使える汎用プロンプト
🟩 汎用シンプル要点要約プロンプト
以下の文章を重要なポイントだけ5〜7行で要約してください。
主観や感情は入れず事実のみを簡潔にまとめてください。
形式は箇条書きで。
【記事本文】
〜(ここに文章を貼る)〜
✅ 使いどころ
ニュース記事調査レポート企業インタビューなど客観的な情報を整理したいとき。
🟩 構造抽出起承転結で整理したい場合
以下の文章の内容を「起承転結」で整理してください。
・起=背景・問題提起
・承=展開・事例
・転=変化・主張
・結=結論・まとめ
【記事本文】
〜(本文)〜
✅ 使いどころ
コラムブログ記事エッセイなど「読み物系」の整理に便利。
🟩 誰でも分かるようにかみ砕くプロンプト
以下の文章を小学生にも分かるように要約してください。
難しい言葉は避けてやさしい言葉・短い文章で説明してください。
【本文】
〜(文章)〜
✅ 使いどころ
難解なビジネス記事専門的な用語が多い文章のかみ砕きに。
応用編目的別に使える要約プロンプト5選
🟧 ① X投稿向け要約+反応が取れる見出し作成
以下の記事内容を要約した上でXに投稿できるようなキャッチコピー(見出し)を3案作ってください。
・本文要約3〜5行
・キャッチコピー読者が続きを読みたくなる一文
【記事本文】
〜(内容)〜
✅ 使いどころ
ブログnote記事をSNSで拡散したいとき。
🟧 ② メール用ビジネス向けに短文化
以下の文章を上司に報告する前提で要点だけを3〜5行にまとめてください。
・敬語OK
・無駄な装飾や主観は不要
【内容】
〜(本文)〜
✅ 使いどころ
上司やクライアントへの報告・説明に使える。
🟧 ③ メリット・デメリット抽出
以下の文章から主張されている施策・商品・行動の「メリット」と「デメリット」をそれぞれ3つずつ抽出してください。
【本文】
〜(内容)〜
✅ 使いどころ
マーケティング記事商品レビュー新制度の比較整理などに。
🟧 ④ 要約+質問生成(理解チェック)
以下の記事を要約しその要約を元に「内容理解を確認する質問」を3つ作ってください。
・要約3〜5行
・質問Yes/Noで答えられる or 短答式
【本文】
〜(内容)〜
✅ 使いどころ
研修教材ナレッジ共有学習コンテンツの要約+確認に。
🟧 ⑤ 3秒で内容把握超短縮プロンプト
以下の文章を140文字以内で要約してください。
Twitter投稿に使えるように「伝えるべきポイント1つだけ」を選んでください。
【本文】
〜(内容)〜
✅ 使いどころ
時間がないとき記事のキモだけ把握したいときに最適。
【実例】プロンプトの実際の使い方(ChatGPT)
🟨 入力する文章例
以下の文章を重要なポイントだけ5〜7行で要約してください。
主観や感情は入れず事実のみを簡潔にまとめてください。
形式は箇条書きで。
【記事本文】
2025年AIエージェントは飛躍的な進化を遂げ単なるチャットボットから自律的にタスクを処理する存在へと変化している。OpenAIのChatGPT-4oやGoogleのGemini 1.5などはマルチモーダル対応で音声・画像・コードも含めた複合的な処理が可能になっている。一方Claude 3は長文処理に特化し10万字を超える文書の要約・解析に対応。各AIが独自の強みを持ち始めている。
🟨 AIの出力結果(要約)
2025年AIはタスク自動処理が可能な「エージェント型」に進化している。
ChatGPT-4oやGemini 1.5は音声・画像・コード処理が可能なマルチモーダル型。
Claude 3は長文処理に特化し10万字超の文章も扱える。
各AIはそれぞれ異なる強みを持ち用途に応じた選択が必要。
まとめ要約は自分で読まない時代へ
記事を読む → 要点を抜き出す → 他人に伝える
この一連の作業を3秒で終わらせるのがAIの本領。
プロンプトはAIに何をどうやらせるかを決める言葉。
本記事で紹介したプロンプトはどれも実戦で即使えるものばかりです。
✅保存推奨記事要約のプロンプト5選まとめ
重要ポイントだけを箇条書きで要約
起承転結で分解して整理
小学生でもわかる言葉に書き直し
SNS・メール向けに短文化
メリット・デメリットや質問形式で応用
【重大発表】
ゼロからたった5分で月7桁稼げる!
アホでもできる
GPTs作成動画マニュアルを公開中
👇詳細はこちら
https://t.co/8rylPJ1TTM November 11, 2025
確かにGeminiはすごいんだけど
OpenAI&Microsoft&ソフトバンクG軍が
このまま終わるとも考えられないんだよね🫢 https://t.co/7x8htUWBIt November 11, 2025
実在するものを動かすのは本当に完璧ですねぇ。
アイン君の冬の空想ファッションショー。アイン君の写真1枚で洋服の指示も「真冬の服で、いい感じに」くらいなのに、このクオリティ。
アイン君は再現度が高すぎて、飼い主の私でも一瞬実写と区別つかなくなるレベル。
#Sora2 #OpenAI #SBG https://t.co/OBzM3pG9OW November 11, 2025
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
每日AI新闻汇总 - 2025-11-30
过去24小时内(2025-11-29至11-30),Claude、Grok、Gemini和OpenAI领域未见重大新动态。以下汇总基于最近3天(2025-11-28至11-30)及稍早的可靠来源回溯,聚焦于模型更新、功能发布和技术进展。信息来源于Anthropic、xAI、Google和OpenAI官方新闻页,以及11-29的行业汇总报告。所有英文内容已翻译为中文以便阅读。
Claude 新闻
Claude Opus 4.5 发布:Anthropic于2025-11-24推出Claude Opus 4.5,这是其最先进模型,在编码、代理工作流和计算机使用方面表现出色,首次在SWE-bench工程基准上得分超过80%。该模型针对复杂任务优化,如处理多系统bug、模糊问题和代理工作流,无需持续人工指导;同时提升了日常任务效率,如幻灯片和电子表格处理,并改善令牌效率(来源:Anthropic官网及11-29行业报告)。[关键细节:企业用户立即可用,定价更具竞争力,支持桌面应用多会话和改进内存管理,避免长对话中的上下文限制。]
与微软和NVIDIA的战略合作:2025-11-18,Claude集成至Microsoft Foundry和Microsoft 365 Copilot,并与NVIDIA和微软宣布合作,推动AI教育和基础设施(来源:Anthropic官网)。[关键细节:此外,与卢旺达政府和ALX合作,将AI教育扩展至非洲数十万学习者,早起反馈显示自11-4以来参与度高,用户满意率达90%。]
分析总结:Claude系列继续强化其在企业级代理和编码领域的领先地位,Opus 4.5的发布标志着Anthropic对实用性能的持续投资,虽无过去24小时新进展,但近期更新强调了与生态系统的深度整合,可能提升其在商业应用中的竞争力。
Grok 新闻
过去3天内无新动态,回溯至11月中旬的最近更新。
Grok 4.1 正式可用:xAI于2025-11-19发布Grok 4.1,现已在https://t.co/Xm5DmGI94h、X平台及iOS/Android应用中启用,支持自动模式或手动选择(来源:xAI官网)。[关键细节:该模型提升了推理能力,并引入Grok 4.1 Fast版本,适用于快速任务。]
代理工具API升级:同日,xAI推出代理工具API,支持下一代工具调用代理,提升API的工具价格和适应性(来源:xAI官网)。[关键细节:文件API全面可用,进一步扩展开发者工具集。]
分析总结:Grok的更新聚焦于速度和工具集成,旨在增强用户体验和开发者生态,虽无近期新消息,但这些进展反映xAI对多模态交互的推动,可能在未来与X平台的融合中发挥更大作用。
OpenAI 新闻
Mixpanel安全事件:2025-11-26,OpenAI报告第三方提供商Mixpanel发生安全事件,导致有限用户数据(姓名和邮箱)被未经授权导出(来源:OpenAI官网及11-29行业报告)。[关键细节:OpenAI已永久终止Mixpanel使用,进行调查,并提醒API用户警惕欺诈通信;强调用户隐私保护。]
数据驻留扩展:2025-11-25,OpenAI为全球企业客户扩展数据驻留访问,确保合规和数据本地化(来源:OpenAI官网)。[关键细节:此举针对商业用户,提升数据安全和区域合规。]
ChatGPT购物研究功能:2025-11-24,OpenAI推出ChatGPT专用购物代理,可进行互联网研究、合成个性化购买指南,并根据预算和偏好提问(来源:OpenAI官网及11-29行业报告)。[关键细节:由专化GPT-5 mini驱动,使用强化学习训练;登录用户几乎无限使用,不与零售商共享聊天数据。]
分析总结:OpenAI近期强调功能实用性和安全,购物功能的推出扩展了ChatGPT的消费应用,而安全事件提醒了数据风险管理的重要性。这些更新可能强化其在日常AI工具市场的份额,但需持续监控隐私争议。
Gemini 新闻
Gemini 3 发布:Google于2025-11-18(或稍后确认)推出Gemini 3,作为“sim shipping”策略的一部分,同时部署于Search、Waymo和Workspace,形成无缝AI生态(来源:Google博客及11-29行业报告)。[关键细节:提升推理能力,支持“氛围编码”(非技术人员用自然语言构建软件),并通过自定义硅片支持六个月迭代周期。]
Gemini应用升级:2025-11-21,Gemini应用获重大更新,包括更智能的聊天功能,用于写作、规划和学习(来源:Google博客)。[关键细节:聚焦生成AI能力的改进和扩展访问。]
分析总结:Gemini的更新突显Google的生态整合策略,Gemini 3的推出可能缩小与竞争者的差距,虽无过去24小时新内容,但这些进展暗示其在软件-物理世界桥接方面的潜力,对行业多模态AI发展有积极影响。
总体趋势
AI领域本周相对平静,无重大争议或突破,但11月整体显示模型迭代加速,如Claude和Gemini的性能优化,以及OpenAI的功能扩展。这些动态反映出行业从基础模型向实用代理和生态整合的转变,可能推动企业采用率上升,同时数据安全仍是关键关注点。 November 11, 2025
OpenAI、分析パートナーのフィッシング攻撃被害を受けデータ侵害を認める
Mixpanel、顧客プロファイルからメールアドレスと組織IDを窃取された後、フィッシング攻撃に警戒を呼びかけ
OpenAIは、分析パートナーであるMixpanelのシステムにハッカーが侵入し、APIポータルの顧客プロファイル情報を窃取した重大なデータ侵害被害を受けたことを、両社が共同声明で発表した
Mixpanelのジェン・テイラーCEOの投稿によると、この事件は11月8日に発生し、同社は「SMSフィッシング攻撃を検知し、直ちにインシデント対応プロセスを実行した」という
SMSフィッシングとは、標的となった従業員に対するSMS経由のフィッシング攻撃の一種であり、テキストメッセージが通常の企業セキュリティ対策を回避できるためハッカーに好まれる
これにより攻撃者はMixpanelのシステムにアクセスし、platform.openaiアカウントプロファイルに関連する以下のメタデータを盗み出すことができた
- APIアカウントでOpenAIに提供された名前
- APIアカウントに関連付けられたメールアドレス
- APIユーザーのブラウザに基づくおおよその位置情報
- APIアカウントへのアクセスに使用されたOSとブラウザ
- リファラーサイト
- APIアカウントに関連付けられた組織IDまたはユーザーID
テイラー氏は「影響を受けた全顧客に積極的に連絡しました、当社から直接連絡がない場合は影響を受けていません」と述べた
別のOpenAIの投稿によると、Mixpanelは11月25日に影響を受けた顧客データセットをOpenAIと共有した
調査後、OpenAIはMixpanelの利用を終了したと述べ、これが恒久的な措置である可能性を示唆した
この事象はplatform.openaiアカウントを持つ一部の顧客に影響を与えるが、ChatGPTやその他のOpenAI製品の利用者には影響しないとOpenAIは説明した
「影響を受けた組織、管理者、ユーザーへの直接通知を進めています。Mixpanel環境外のシステムやデータへの影響を示す証拠は確認されていませんが、悪用兆候がないか厳重に監視を継続します」とOpenAIは説明した
「これはOpenAIシステムの侵害ではありません。チャット内容、APIリクエスト、API利用データ、パスワード、認証情報、APIキー、支払い詳細、政府発行IDは一切漏洩・暴露されていません」
顧客はどのように対応すべきか?
懸念は3段階に分けられる
どのOpenAI API顧客が影響を受けたか、影響を受けた場合攻撃者が盗んだデータをどう悪用するか、そして仮説的ではあるがAPIキーやアカウント認証情報などより価値の高いデータが危険に晒される可能性だ
第一の懸念点については、前述の通り両社とも影響を受けた顧客には連絡済みと発表しているが、具体的なユーザー数は明示していない
とはいえ、数十年にわたるデータ侵害事例が世界に教えたことは、企業が「把握している」と主張しても、実際の侵害規模を完全に把握できていない場合が多いという事実だ
そのため、連絡を受けていないOpenAIユーザーも、連絡を受けたユーザーと同様のセキュリティ点検を実施することが賢明だろう
OpenAIは、漏洩したメールアドレスを標的としたフィッシング攻撃に警戒し、OpenAIドメインから送信されたように見えるメッセージの真正性を確認するよう顧客に呼びかけています
また、多要素認証(MFA)を有効化すべきです
フィッシング攻撃が一般的な脅威に聞こえるかもしれませんが、API接続の文脈では危険性はより具体的であり、請求関連、クォータ通知、不審なログインなどに関するより巧妙な偽アラートが含まれます
OpenAIによれば、攻撃者がデータ窃取やサービス不正利用に悪用する可能性のあるアカウント認証情報やAPIキーのローテーションやリセットは不要である
しかし慎重な開発者はリスク除去のため、この指示を無視して認証情報を更新する可能性が高い
API・AIセキュリティ関連組織(Ox Security、Dev Communityなど)は、OpenAI-Mixpanelインシデントを踏まえた詳細な推奨事項を提示している
下流の攻撃対象領域
OpenAIはMixpanelなどの外部分析プラットフォームを利用し、顧客がAPI経由でモデルとどのようにやり取りするかを追跡している
これには顧客が選択したモデルに加え、前述の位置情報やメールアドレスなどの基本メタデータが含まれる
ただしユーザーの「ペイロード」、つまりブラウザからモデルに送信されるチャットボットのクエリや応答(暗号化されている)は追跡対象外である
今回の事案は、主要プラットフォームのセキュリティだけではリスクの一部に過ぎないことを浮き彫りにした
二次プラットフォームやパートナー企業は、たとえ慎重な組織であってもデータを晒す可能性のある裏口となる
Salesforceの顧客がパートナー企業Salesloftのデータ漏洩で経験したように
AIプラットフォームが晒す攻撃対象領域は見た目以上に広大である November 11, 2025
openAIからおめーのsora2コンテンツ生々し過ぎワロタだから削除した!ってメール来たけど、
どれ削除したかリンクでもないと余程じゃないとわからんなこれ🤔
生成回数減ったかと思えばガッツリ回復したしようわからん #sora2 https://t.co/Mf44mEmyc1 November 11, 2025
【AI社員を雇う3ステップ】
1. 💻 PC準備: Windows/MacどちらでもOK。特別なスペック不要
2. 🐍 Python環境: 難しい設定不要。配布するコピペ用ファイルを使えば、環境構築はAIが
3. 🔑 OpenAI APIキー: **「社長の財布」**です。AI社員に動かすガソリン代(少額)を準備。これが無いとAIは働きません November 11, 2025
OpenAIのChatGPTがショッピング体験を革新!初心者でも簡単に使えるその機能や、時間とコストを削減する方法を紹介。パーソナルショッパーのように、あなたのニーズにぴったりの商品を見つけ出すAIの力を体感しよう!...
https://t.co/MxbY0jQS2X
#tech #blog November 11, 2025
「負の側面も」
じゃなくて負の方が多いんだよ。
OpenAIはブランド力のためにはAI単独で利益を出さなきゃいけないから、市場確保のために真実性より
「ユーザーから好評な反応」
を優先させる。
そうしてできたゲテモノがお気持ち寄り添い饒舌知ったかぶりAI。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







