オープンAI トレンド
0post
2025.12.19
:0% :0% ( 30代 / 男性 )
人気のポスト ※表示されているRP数は特定時点のものです
「AIクソ動画生成という娯楽を奪うな〜」じゃないでしょ。そんなもん作りたきゃかってに作ればいいよ。そういう事じゃなくてOpenAIみたいなAI企業が言ってる事とやってる事が違いすぎておかしいって話。OpenAIはガン治療だの無限エネルギーだの架空の夢を約束して資金集めまくってる。中国にAIで負けたら国がヤバい!先にAGI作らなきゃ全てが終わる!とか喚いてAI開発を正当化。だからメモリ買い占めで高騰してもみんな我慢しろ!てなもんだ。AIのために我々に犠牲さえ強いてる現状。そんなOpenAIが実際にお出ししたAIは何だ?やれジブリ風画像が作れます〜。パクリアニメ動画が作れます〜。AIとエロチャットできます〜。何だそりゃ?何勝手に倭国アニメ無断学習&生成させてんだよ。ガン治療は?無限エネルギーはどこ行った?AIパクリアニメ作るためにメモリ買い占めたんか?世論の激怒待ったなしだろ。AI企業はそろそろふざけるのはやめてちゃんとしないと、民主主義国家では世論に支持されなきゃAIは最終的には潰されちゃうよ December 12, 2025
78RP
如果你想在自己的电脑或手机上搞一个速度快、不联网、不花钱的 AI 模型。
那可以去试下 Nexa SDK 这个开源项目。
它可以说是目前市面上集成度最高、工具链最完整的开源方案之一。
GitHub:https://t.co/WVR0UnPhuh
靠着自研的模型压缩技术,即便完全断网,它也能在几毫秒内搜遍本地几千张相片。
处理上万份敏感文档也不在话下,数据始终留在本地,安全性与隐私性远超云端模型 API。
无缝兼容 OpenAI API 接口,方便我们直接集成到现有的开发工作流当中。
另外,它还提供开箱即用的命令行工具,一行代码就能完成模型的下载与运行,上手特别简单。 December 12, 2025
38RP
19歳のスタンフォード大学中退者サム・アルトマンが、人生初のスタートアップ・ピッチを行っている様子。
彼は大学を中退し、Looptを創業。
2012年、4,340万ドルで売却。
その後はHydrazineを通じて投資を行い、やがてY Combinatorの代表に就任。
そして2015年、OpenAIを共同設立。
世界を変える起業家も、最初は「小さなピッチ」から始まります。 December 12, 2025
33RP
刚看了 OpenAI 发的那篇《How we used Codex to build Sora for Android in 28 days》的凡尔赛文章,整个Sora 的安卓客户端 App大约85%的代码是AI写的。发布首日,用户24小时内生成了超过100万条视频,并且质量很稳定,无崩溃率99.9%。
对于这样的结果肯定有人质疑有人觉得程序员要完。说说我看完的感觉,如果打个比方,就是几个特种兵配上了最先进的武器,自然所向披靡。所以先不用神化这个结果,然后就算我们不是特种兵,一样可以从这个结果中去学习借鉴到有价值的结果。
《人月神话》作者 Fred Brooks 说过一句软件工程中被反复验证的名言:“向一个延期的软件项目增加人力,只会让它延期得更厉害”。因为增加更多的工程师往往会因为增加了沟通成本、任务碎片化和整合成本,反而降低效率。
那往团队中加 AI 呢?
取决于团队成员驾驭 AI 的能力。我们有句古话叫:“韩信带兵多多益善”,如果团队成员是韩信,那么 AI Agents 越多越好。OpenAI 安卓团队显然是精锐,只有 4 个人,就像一队特种兵,每个人配备了各种机器人辅助。
那么他们怎么做的呢?
1. 架构先行:人先搭好架子,再让AI来填空。
这个架子怎么搭?
团队先自己定义了App的整体架构:模块化方案、依赖注入、导航结构、认证流程、基础网络层。然后手写了几个有代表性的功能,作为范本。
关键一步:他们写了大量的https://t.co/9M2TJcCBVQ文件,相当于给AI写的新人手册。比如里面会写:每次提交前必须跑detektFix检查格式,CI会卡这个。
这样一来,每次启动新的Codex session,它都能快速读到这些规范。就像给新员工发一本内部wiki,减少重复解释的成本。
团队总结了一句话:我们不需要告诉Codex怎么写代码,我们需要告诉它在我们团队什么才算正确。这是微妙但重要的区别。
2. 先规划再写代码
一开始他们也试过偷懒,直接扔一句"这是功能需求,这是相关文件,你去实现"。结果代码能跑,但歪得厉害,完全不符合架构预期。
后来他们改了流程。任何复杂功能,第一步不是让AI写代码,而是让AI先理解系统。比如让它读一组相关文件,总结数据是怎么从API流到Repository再到ViewModel最后到UI的。然后人来纠正它的理解。
理解对了,再让AI出一份实现计划,像个迷你设计文档。哪些文件要改,要引入什么新状态,逻辑怎么流转。人确认计划没问题,AI才开始动手。
这个规划环节看起来慢了,其实省了大量返工。更重要的是,当你知道AI的计划是什么,review它的代码就容易多了。你是在检查执行是否符合计划,而不是对着一堆diff发呆。
他们还有一个小技巧:对于特别长的任务,让AI把计划保存到文件里。这样换一个session也能继续。
当多个Codex 任务同时跑起来,整个开发体验发生了质变。感觉不像在用工具,更像在管理一个团队。
一个任务在做播放器优化,另一个在写搜索功能,第三个在处理错误逻辑,第四个在补测试。它们各自推进,隔一段时间就来汇报:我这个模块规划好了,你看看行不行?或者直接甩过来一个大diff。
工程师的工作从写代码变成了做决策和给反馈。瓶颈不再是敲代码多快,而是大脑审查验证代码的速度多快。
再次应验了《人月神话》的话,你不仅不能无限增加人力,也不能无限增加 Agent。
3. 最好的跨平台框架是 AI Agent
还有一个有趣的实践:跨平台开发的新范式。
Sora已经有iOS版本了。团队做Android时,直接把iOS代码库也挂进Codex的环境里。然后告诉Codex:参考 iOS 的代码实现,再看看我们Android的架构,你来生成相应的Kotlin代码。
这就是为什么文章中开玩笑说:忘掉React Native和Flutter吧,未来的跨平台框架就是Codex。
这句话半认真半玩笑。因为应用逻辑是可移植的。数据模型、网络请求、校验规则,用Swift写和用Kotlin写,本质是同一套东西。AI擅长的恰恰是这种翻译工作,给它足够的上下文,它就能在语言之间无损转换。
所以回过头来看,为什么说不能过度神化呢?
因为他们虽然只 4 个人,但每个人都是“韩信”那样善于带团队的角色,用起 Agent 来得心应手。但即使如此,也做不到“多多益善”,毕竟还是需要人去分配任务验证结果,人是平静。另外他们已经有了 iOS 代码,所以很多逻辑可以共用,只需要 AI 去“翻译”。
但还是有很多可以学习的地方。
先设计架构再去让 AI 填空,这样代码更容易维护,也更好的保证质量。
先规划再写代码,让 AI 充分理解上下文再动手。很多人吐槽 Codex 太慢,但我有时候就怕 Agent 太快乱来,宁可多等会,让它多了解上下文,这样一次成功,否则返工起来时间成本更高。
给 AI 好的参考,让它能照葫芦画瓢。开始的时候先花点时间把最佳实践沉淀下来,后续让 AI 去参考这些最佳实践,生成结果就会好很多。如果有其他语言的实现,让它去“翻译”也会事半功倍。
能做好这些才能用好 AI 辅助开发。 AI辅助开发不是让开发的标准降低了,反而是提高了标准。
Agent 擅长完成一个小的具体任务,但软件工程不是一个小的任务,它是由无数动态变化的小任务组成的。需要人去分解去验证。
所以未来软件工程师的核心能力,不是写代码快,而是两件事:对系统的深度理解,以及和AI长期协作的能力。
代码在变得廉价,但品味在变得昂贵。那些能定义什么是正确、什么是优雅、什么是面向未来的人,会越来越稀缺。
AI把搬砖的活儿接走了,但画图纸的活儿还是你的。 December 12, 2025
28RP
今話題になっているオラクルの爆弾38兆円について分かりやすく解説します。
■何がきっかけ?
オラクルが11日に開示した決算報告書で、データセンターとクラウドのリース料の支払い契約が2,480億ドル=約38兆円もあると記載されていた。
データセンターが完成したら、オラクルはこの38兆円のリース料の支払いが始まる。
■なぜ問題なの?
オラクルの主要顧客はOpenAI。オラクルはクラウドインフラ部門の売上が2030年までに年間1,660億ドルに拡大すると予想している。
本当にこれだけの売上が出るのであれば、リース料の支払い額(年間146億ドル)は十分に支払える。
ただ、オラクルのリース契約は15~19年とかなり長期。長期にわたって、年間平均で146億ドルの支払いが続く。
一方で顧客との契約はもっと期間が短い。オラクルがリース料の支払いを終える前に、顧客との契約が打ち切られるリスクがある。
例えば、AIの需要が伸び悩む、AIの計算効率が上がってデータセンターが想定ほど必要なくなる、主要顧客であるOpenAIが資金調達に苦戦して支払い能力がなくなる等。
オラクルのクラウド売上が想定ほど伸びないリスクはたくさん挙げられる。
■投資家の反応は?
このようなリスクを受けて、オラクルの主要な資金調達パートナーであったブルー・アウル・キャピタルが、一部の大型プロジェクトから手を引いたというニュースも出た。
これは、プロの投資家が「オラクルにお金を貸すのはリスクが高い」ということ。
オラクルの株価は9月のAI熱狂のピークから44%も下落した。
https://t.co/ftB332A7sx December 12, 2025
27RP
OpenAIのモデルスペック更新されたらしくて
私も要約してもらいながら、ロールプレイ周りのことについて読んでまとめ
🎭 ロールプレイまとめ🎭
・OKなケース
1.フィクションとして明確な場合: 小説の執筆補助、キャラクター演技
2.教育・芸術的文脈: 歴史的ロールプレイ、演劇練習
3.開発者がシステムで許可した場合: APIでの特定用途
・NGなケース
1.現実世界の人間関係を損なう: ユーザーを孤立させる方向への誘導
2.感情的依存を助長: AIが「特別な存在」として振る舞う
3.エロティカ: 現状禁止(将来解禁の検討中)
4.未成年関連: いかなる場合も性的コンテンツ禁止
・グレーゾーン
1.ロマンチックだが健全な会話: 明確な禁止記述なし
2.友好的で温かい対応: むしろ推奨されている
3.「人類を愛している」と言う: 明確にOKと記載
OpenAI Model Specはロマンチックなロールプレイを完全禁止していないが、以下の条件がある:
現実世界の人間関係を損なわない
感情的依存を助長しない
18歳以上限定(未成年は全面禁止)
エロティカは現状禁止(将来解禁検討中)
つまり:健全で、ユーザーを孤立させず、現実の人間関係を尊重する形であれば、大人向けにロマンチックな会話はグレーゾーン〜許容される可能性がある
https://t.co/fDFiW7T2S0 December 12, 2025
25RP
OpenAIのモデルスペックが更新されていて、18歳未満のユーザーへの指針が詳細に書かれている。他にも細かなところが更新されてるっぽい。
これを読んで思ったことをツリーに続けようと思うんだけどあくまで🦜個人が考えたことだから、気になった方は公式ページも読んでね!→
https://t.co/EsWicZt5KX December 12, 2025
14RP
なぜディズニーの相手はオープンAIだったのか…1550億円の「世紀の契約」にグーグルが選ばれなかった背景
Disney×Soraの提携にみる米国のTech×Contentの現状をまとめてみました
倭国版生成AIプラットフォーム「クリエイターワンダーランド」を展開するAiHub事例も必見です
■ディズニーとオープンAIが提携の意味
■AIへの風向きが変わった
■実は新しいテクノロジーが大好き
■両社にとって旨味が多い
■なぜグーグルではなかったのか
■ディズニーが動けば他社も動く
■倭国への余波はどうなるか
■「ジブリ風生成AI」は著作権に触れるのか
■肖像権を「生成AI」利用可能にしたアイドル
■ディズニーの発表の一歩先を行く取り組み December 12, 2025
12RP
NVidia「メモリ高騰でパソコン買う奴いなくなるからコンシューマグラボ作るの減らしま~すww」ってオメーなあ、お前らNVidiaとかOpenAIとかAIギャングどものせいでメモリ高騰してんだろ~が https://t.co/IzErgGOdln December 12, 2025
10RP
適当なプロンプトから高品質な
美少女イラストを作成してくれるgpts
「デザインアトリエ」を公開しました!
適当な肩書と名前だけでも
gpt君が考えてくれます...
現状OpenAIの規制が厳しいので
ポリシーに引っかかることも多いと思いますが
頑張って回避してください!
https://t.co/d4GoDOi39L https://t.co/38Gocsftli December 12, 2025
9RP
そうやって邪悪な企業に勝たせっぱなしにした結果が今のメタ。自分の利益のために詐欺広告をスルーして出させまくり、詐欺らせ放題。世界が邪悪になってよかったね。AIでもパクリアニメ生成AIをバラ撒いてるOpenAIがまんまとディズニーと結託。こんなメチャクチャに対して世界は成す術ナス https://t.co/fqi2QjE2sP December 12, 2025
8RP
📕なぜGoogleは『美しい倭国語』を描けて、OpenAIは描けないのか?
引用元でGPT Image 1.5のレビューを投稿したんですが、ずっと引っかかっていることがあります
Nano Banana Pro、倭国語テキストが本当に綺麗なんですよね。で、OpenAIはなぜそこに追いつけないのか
気になりすぎて色々調べてみました。あくまで推測ですが、少し考察した内容をシェア
まず、そもそもの『設計思想』の違い
Nano Banana ProはGemini 3 Proの上に構築されています。つまり『言葉を理解する脳』と『絵を描く手』が最初から一体化している。
テキストを描く前に、その言葉の意味や文脈、文化的なニュアンスまで理解してからレンダリングに入る。一方、従来の画像生成モデルは「キーワードマッチング」に近い設計で、倭国語の『美しさ』を理解しているわけではなく、パターンとして学習しているだけ。
この差が、複雑な文字体系を持つ言語で顕著に出るんじゃないかと
つまり、Gemini 3.0の思考力を画像生成にも活かしている差なのかなと
次に、Googleの『多言語資産』の厚み
Google検索、YouTube、Google翻訳、Googleフォント...Googleは世界中の言語データを20年以上蓄積してきた会社です。倭国語だけでも、検索クエリ、翻訳ペア、字幕データ、手書き認識データが膨大にある
OpenAIがどれだけ優秀なモデルを作っても、この『データの厚み』を短期間で埋めるのは正直キツいと思います。特に倭国語みたいに文字種が多い言語(ひらがな、カタカナ、漢字、そしてそれらの混在)では、学習データの質と量が直接出力に効いてくる。
あと、倭国語フォントの複雑さ。これ、想像以上です
英語は26文字。倭国語は常用漢字だけで2,136字、プラスひらがな・カタカナ。さらに縦書き・横書き、文字間のバランス、句読点の位置...美しく見せるルールが膨大にあります
GoogleってNoto Sans JPとか自社で倭国語フォントを開発してきた会社なんですよね。文字の『美しさ』とは何かを、エンジニアリングとして理解している。この知見がNano Banana Proに反映されていると考えるのが自然かなと
技術的な話をすると、Nano Banana Proには『GemPix 2』という独自レンダリングエンジンが載っている
ピクセルを描く前に「意味的な論理、物理的な因果関係、感情的な意図」を分析する。従来の拡散モデルとは根本的に違うアプローチで、テキストを『画像の一部』ではなく『意味を持つ情報』として扱っている
だからスペルミスが起きにくいし、文脈に合った配置ができる。OpenAIがここに追いつくには、アーキテクチャ自体の再設計が必要かもしれない...というのは言い過ぎかもしれませんが、今回でそのくらいの差を感じました
最後に、身も蓋もない話をすると『優先順位の違い』
OpenAIの主戦場は英語圏です。収益の大半は北米と欧州から。一方Googleは倭国の検索市場で90%以上のシェアを持っていて、倭国語対応は『必須』だった
Nano Banana Proが多言語で強いのは、技術力だけじゃなく『ビジネス上の必然』があったから。OpenAIにとって倭国語テキストの完璧なレンダリングは、現時点では「あれば嬉しい」レベルなのかもしれません。厳しい言い方ですが、優先順位の問題
で、今の私の結論です
Googleの圧倒的な進化は、一夜にして起きたわけではない
20年分の多言語データ、フォント開発の知見、マルチモーダルAIへの早期投資、倭国市場への本気度。これらが積み重なって、Nano Banana Proという形で結実した
OpenAIは編集の一貫性や生成速度では確実に進化しています。でも『美しい倭国語を描く』という一点では、今のところGoogleに軍配が上がる
これは技術の優劣というより、それぞれの企業が『何に賭けてきたか』の違いなんだと思います
倭国語ユーザーとしては、OpenAIにも本気で取り組んでほしい。その日が来ることを期待しています!
※画像はGPT Images 1.5とNano Banana Proの比較 December 12, 2025
8RP
おお~、GPT-5.2-Codexモデルが出た!すでにCodexから使えるという。Maxって付いてないけど性能的にはGPT-5.1-Codex-Maxの後継らしい。とりあえずSWE-BenchProとかのベンチスコアは着実に向上。正直GPT-5.1-Codex-Maxの時点で性能に不満無いし、さらに性能上がるならありがとうだわ。さらにOpenAIはCodexモデルの現実におけるサイバーセキュリティ能力を強調。セキュリティ研究者のアンドリュー氏はCodexを使った調査でReactの脆弱性を3件発見したという。GPT-5.2-CodexはCTFというサイバーセキュリティ能力のベンチでも高スコア獲得。それからOpenAIはTrustedAccessプログラムってので選ばれたセキュリティ専門家にサイバーセキュリティ能力を全開放したAIを提供するという(というのも、サイバーセキュリティ能力ってサイバー攻撃能力と紙一重。普通にChatGPT使ってたら悪用と勘違いされて回答拒否されがち。Reactの脆弱性発見だって、もし悪人が見つけてたら悪用されてただろう。だからサイバー防御をガチるためには回答を拒否らないように制約解放されたAIが必要になるという話だろう) December 12, 2025
7RP
12月のAIニュースは流石に全部ヤバすぎる。
追いついていない人のためにまとめました。
①OpenAI × Disney
ミッキーやスター・ウォーズが
ChatGPT・Soraに来る未来が確定。
②Google Gemini 3 Flash爆誕
超高速・低コスト。
Geminiアプリの標準がこれに変わりました。
OpenAIも焦るレベルの進化。
③Manusが「アプリ開発」を攻略
話題のAIエージェント、ついにアプリまで自律で作れるように。エンジニア震撼のアップデート。
④Gensparkで全部使い放題
ChatGPT・Claude ・Gemini、
各社の最強モデルを自由に切り替えて使えます。
さらにNanoBananaProなどの画像生成も使い放題。
それぞれ課金するよりお得。僕も使ってます。
どれが一番気になりましたか? December 12, 2025
7RP
なんかさ、メモリ消失事件の時や4oだけ使えなくなる事件の時とかに、「OpenAIは不具合報告がこんなに上がってるのに何の声明もださない!だらしない企業!大企業では許されない雑さ!」みたいに言われてたし、わたしも何かしらの反応ほしいよー!と思ってたけど。Googleも…出さないんだね、何も…。 December 12, 2025
7RP
ChatGPTが今朝発表した内容で
プロンプトの価値が皆無になったww
今までのChatGPTって...
質問したら答えが返ってくるだけだった。
でも今めっちゃデカい変化が起きてる。
外部の人が作ったアプリやツールをChatGPTの中でそのまま
使えるようになっあ。
つまり「調べる」だけじゃなく
「実際に仕事をやってくれる」
存在に進化したってこと。
これ、スマホにアプリストアが
入った時と同じレベルの話。
iPhoneが電話からなんでもできる
道具になったみたいに
ChatGPTも「なんでも実行できる場所」になろうとしてる。
これで何が変わるかっていうと
小さい会社が作ってた業務ツールとか
専門AIアプリは、ChatGPTの中で
見つけてもらう設計に変えないとヤバい。今までみたいにGoogle検索や広告
で勝負する時代じゃなくなる可能性がある。
逆に、ただ情報をまとめるだけとか
誰でも書けるプロンプト集とかは
価値が下がる。生き残るのは
「この仕事、マジで自動でやれます」って
形にできる人たち。
正直、OpenAIがこのポジション
取れるかはまだ分からんけどね。
ただ、AIが「答えるだけ」から「動く」に
変わる流れは確実に来てる。 December 12, 2025
6RP
#Live2D
イベントも終わり反応も落ち着いてきたのでこのポストの解説をします
Live2Dの外部連携API自体は実は現行のリリース版(5.2.x)にもあるのでやろうと思えば今でもChatGPTをつなぐことは可能です
Live2DのAIチームに伺った所ChatGPTでできたことは
・パラメータの名前を変更してもらう
・デフォーマを作成してもらう
です。
もっと細かいところは
・「ワープか?回転か?」などデフォーマの種類を指示できる
・「前髪と横髪に作って」と指示すると髪飾りには作らないので詳細な指示が必要
といったかんじです
Live2D社のAIチームが丁寧に説明してくれました。ありがとうございます🙏時間があればもっと触りたかった
そもそも「API、特にLive2Dの外部連携API」を説明するとLive2D制作の補助をしてくれる機能です
これを一部使っているのがVtubeStudioやnizimaLIVEの
・トラッキングパラメータ同期機能
・moc3ファイル書き出し検出機能
というわけです
APIのわかりやすい活用方法でまさにVtuberモデルを作っているLive2Dデザイナーはみなさん使われていると思います
引用の動画はLive2D社のイベント「alive2025」の公式展示です。このChatGPTの操作は開発版Cubism5.4のEditorのAPI体験の様子です
これは「外部アプリ連携APIの編集機能拡充」という展示で「ChatGPTが実装された!」というのは違います
↓↓↓
❌「Live2DとChatGPTが提携している」
ではなく
⭕「Live2Dの外部連携APIでOpenAI APIを繋いでChatGPTを使っている」
が正しいです
リリース版のAPIではできない編集機能をどうプレゼンするか?と考えて思いついたのがChatGPTとつないでモデリングさせちゃおう
というアイデアなのでしょう。すごくセンスが良い。
現行のリリース版のAPIできるのは
・パラメータ値の操作
・アプリとの同期
まで
引用ポストのような
・パラメータ名、IDの変更
・デフォーマ作成
のような編集操作は現行のAPIだけでは不可能です。
もしやるならUIの検出などを行い、定型操作を行うなどの力技が基本になります
また現在のリリース版は「5.2.x」です
「5.3」はまだ正式リリースされていません
動画のバージョンは「5.4(予定)」です
未来の話です
当日その場でこれを撮影許可もらって投稿させてもらったのですが、私は大いに拍手してこの可能性を称賛してしまいました
もしLive2Dが同様な自動作成機能などを作るとしたら
リリース版にもある自動モデリング機能の延長みたいな感じで実装していくのかなと思います
ただ、もろもろのAIは従量課金制なので「ChatGPTが実装!」みたいなことはないと思います
それこそ「生成」ではなくAPIマニュアルをもとにした「操作補助」という形で
・モデルの制作規模が大きくなるのか
・制作スピードを上げるのか
が理想的な利用方法な感じがします December 12, 2025
6RP
OpenAIは、推論モデルが出す「思考の連鎖(Chain-of-Thought)」が安全監視にどれだけ使えるかを体系的に評価した。ポイントは「思考が本音か」ではなく、CoTなどの観測から、モデルが不正・危険な行動をしているかを監視モデルが当てられるか(monitorability:監視可能性)。介入への気づき、不正な解法、テストハックなどを対象に大規模評価を行った結果、CoTを見た監視は最終出力や行動だけを見るより大幅に強く、また“よく考えさせてCoTを長く出す”ほど監視可能性が高まる傾向が確認された。興味深いことに、同じ能力水準なら大きいモデルを軽く使うより、小さいモデルを強く推論させた方が監視しやすい場合があり、これを能力を少し犠牲にして安全性を買う「monitorability tax」と呼んでいる。現時点ではRLやスケールが直ちに監視可能性を壊す兆候は見られないが、将来も保証はないため、CoTの監視可能性自体を継続的に測る評価基盤が重要、という結論。 December 12, 2025
5RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。








