inking ゲーム
0post
2025.12.01〜(49週)
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
これ、個人の感想ってレベルじゃなくてGPT5はThinking、Proの方は業界最高水準で思考無しだとGPT4と全然変わってないゴミカス性能なんですよね…(今年上半期に出たDeepSeeK R1未満)
有料版を契約してる人は絶対にThinkingを選択した状態で使いましょう… https://t.co/EnylvUfwnW https://t.co/L523H5j6d7 December 12, 2025
92RP
很多人窮盡全力追求財務自由,卻忽略了一件事情,地理移動自由,才是財富自由的關鍵。
在紐約、舊金山、香港這種生活成本高到天際的城市,哪怕手握千萬美元,也很難說真的財富自由了。
而不管是中國的二三線城市,還是馬來西亞、泰國、哥倫比亞這些地方,甚至部分東歐國家,100到200萬美元就能過得很滋潤。
之前有個新聞,一個年薪10萬美金以上的 Google 工程師,因為矽谷房租太貴,乾脆不租房,選擇睡車上,隔天早上起來直接上班。
這聽起來很離譜,但其實這種情況在全球各地都一樣。
只要某個城市的「高薪工作」高度集中,那個地方的生活成本就會被推得很誇張。
台灣的竹北就是一個典型案例,在半導體產業大爆發之前,誰能想像那裡會漲到一坪破百萬?
那不是因為竹北的人行道比較美、空氣比較好、咖啡比較香,而是全台灣最高薪的半導體產業員工,都集中在哪裡。
反過來思考,如果你可以讓自己的工作跟地區解耦,那你就可以不去負擔這高額的溢價。
其實財務自由從來不是一個固定的數字,而是個座標系問題。錢在哪裡花,遠比你有多少錢更重要。同樣一筆錢,換個地方,買到的生活品質可能是天差地別。
當你的收入不再與某個地區深度綁定,你的生活、你的家庭,連帶著你的安全感,自然就不會被這裡綁住。
說到底,財務自由的關鍵從來不是年薪翻倍、月薪暴漲,而是「移動力」的提升。能隨時走,你就有了自由的底氣;能自主選擇生活的地方,這才是真正的富有。
更現實的一點是,台灣在未來5到10年,地緣政治風險正在急劇上升。
我們普通人,既決定不了大國博弈的走向,也控制不了地緣政治的變動,能做的,只有先讓自己不被地理限制綁死。
而這件事的核心,就是打造不被地理限制的收入。
以前要做到這件事不容易。
跨國賺錢、接海外案、建立線上收入,對大部分人來說都是高難度技能,沒有人脈也沒有管道。
但這兩年 AI 的爆發,把難度拉低了一大截。
不管是寫文案、做網站、剪影片、做簡報、生成圖片、做客服、處理文件,甚至建立小型 SaaS 或自動化流程,AI 等於替普通人增添了一個外掛,讓你能用更低的成本,把技能變成商品,賣向全球市場。
如果你一時間想不到可以做什麼,也沒關係。
打開 ChatGPT 或 Gemini,用最新的模型,把 thinking 模式打開,請 AI 幫你把推理能力拉到最高,
從 Reddit、X 這種使用者很多的平台,去挖「大家抱怨很多、搜尋很多,但現成解法很少」的領域。這些地方,通常就是潛在需求高、但還沒被好好服務的市場。
接下來再請 AI 幫你整理:可以提供什麼服務、用什麼形式收費、最低可行版本(MVP)要長什麼樣子,你就已經比只會「空想創業點子」的人,往前多走了好幾步。
千里之行,始於足下。
祝大家都能在 AI 時代成為「超級個體」,跨越地理限制,早日成為自由之人。 December 12, 2025
91RP
#一般ウケはしないけど自分は好きだなと思って欲しい
Posting illustrations like this takes a lot of courage.
I get scared every time, thinking someone might say something about it lol. https://t.co/w7ChP8epMQ December 12, 2025
79RP
🎄❤️いまクリスマスの衣装を色々考えています🎁✨クリスマスのことを考えるとワクワクしますね🎅
🎄❤️ I’m currently thinking about different Christmas outfits 🎁✨
Just imagining Christmas already makes me excited!
#SFW
#AIイラスト好きさんと繋がりたい https://t.co/RkhRBmxNZp December 12, 2025
60RP
■ Gemini は『検索しない』ことだけが問題じゃないよ。検索させても普通に(他と比べて)間違えまくるよって話
かなり認知されてきたけど、まだ誤解があるから補足するね。
これ『検索すべきタイミングで検索してくれない』ことだけが問題だと思っている人がいるけど、違うよ。
だから『カスタム指示で(または都度プロンプトでの指定で)検索を促せば解決する』という単純な問題じゃないからね。
(それで解決する簡単な質問もそりゃあるだろうけど)
ワイが前から言ってるのは、Geminiは『調べる』ってのもそうだけど、『調べて手に入った情報の処理、解釈の仕方も下手くそ』だってこと。
前にも載せたけど、例えば
『ここ1ヶ月で、ChatGPTのDeep Researchのモデルは賢くなりましたか?』
って質問を投げる。
真実は『Deep Researchのモデルにアップデートは入ってない』ね。
で、答えはこんな感じ(要約。詳しくは画像みて)
Gemini 3 Pro: 『ご明察。GPT-5.1になったからね』
GPT-5.1 Thinking: 『Deep Researchのモデルのアップデートは無いよ。周辺のアップデートはあるから、それで使いやすくなってるってのはあるかも』
『OpenAIの機能の質問をするのは不公平』って思う?
Claude は普通に正解するけどね。
OpusどころかSonnetで十分。
『うちのGeminiでは正解したし!』って?
そりゃあLLMですもん、確率の問題でもたまには上手くいくよ。
10回やって他と比べてみ、正解率明らかに低いから。
ちなみにここではGeminiには最新の状況を踏まえて回答するために検索しろというカスタム指示を入れているので、ちゃんと検索している。その下駄を履かせたうえでGeminiだけ頓珍漢なことを言ってる。
検索さえしたら解決?
それは違うよ。
情報があっても、その理解(解釈)自体が甘い。
1枚目:Gemini 3 Pro
2枚目: GPT-5.1 Thinking
3枚目: Claude Sonnet 4.5 December 12, 2025
55RP
50m走すごくかっこよかったよ☺️
運動後に塩分たっぷりのドリンクでも♡
味は🍓いちご味で飲みやすいとおもうよ🥛
SFW illustration of someone drinking a beverage and resting after exercise https://t.co/WtCVnbQ1hU December 12, 2025
52RP
このスレッドの内容をぜひ知ってほしい。
多分、ChatGPTのWeb検索の精度が他と比べ物にならないくらいぶち抜いてるのを実感してる人としていない人がいるのは、日常的に、明示的にThinkingを使ってるかどうかによるものだと思うんだ。
Thinking(Reasoning)しない簡易なGPTなんて使ってたら、そりゃGeminiを使ったって(てか何を使ってたって)文句出ないだろうなって思ってる。
Reasoningの有無ってのはそれくらい重要な差だと言うことが知られていないのがモヤモヤする。 December 12, 2025
47RP
重い腰を上げてプロンプト大道芸人として発言する。ChatGPT5.1Thinkingで普通に通るプロンプトが下位モデルや他社モデルだとそもそも「理解できない(動かない)」ことがある。これはGPT3.5turboではまったく動かずGPT4では動いた。みたいな経験がある人じゃないと伝わらんと思うけどあれが鈍く今も続いている感覚。
多くの人が無意識に使う雑な自然言語プロンプトですらない構造化されたコードやプロンプトでもこれはGPT5.1thinking以外では起きる。というか起きるのが当たり前だった。これは「人間がインプットとして書ききれないレベルのモヤモヤしたゴール」を前提に会話するとき、どこまで汲み取ってくれるかで決定的な差が出て、複雑な用途とか、抽象的で曖昧なんだけどでも自分の中には感覚的なゴールがある。だけどそのゴールをキレイな一文として宣言できないタスクやリクエストに、ちゃんと付き合ってくれるのが、今のところ自分の体感では ChatGPT5.1Thinking だけ。
GeminiもClaudeも、WebサーチとReasoningが今まで通りの品質と変わってなくて、大量の引用とコンテキストを集め与えた時、「これまでの会話スレッド内でインコンテキストラーニングを重ねて、いまこの人にどう答えるのがいいか?」を、本当に考えてくれる感じがない(というかChatGPT5.1thinkingで思わせてくれた)
普通のモデルはすぐ忘れるし文脈の急な切り替えにもついてこられない場面が多い。
自分の使い方だと、まず宅建業法を全部読ませる。その上でいま問題になっている案件の「課題、質問、リスク、願い、ゴール」を全部投げる。関連しそうな民法を逆引きさせてその他の法令も逆引きさせる。前提として「自分では答えが出せないから、あなたが気づく必要がある」とまで書いておく。出てきた条文や文章、訴状案や対抗文を目視で確認して、声に出して読む。自分はどう思うか、相手はどう思うか、「俺はこう思う、君はどう思う?」とまた投げる。こちら側のゴールはこう、落とし所はこう、当時の契約書や重要事項説明はこうだった、それなに関連する判例も知りたい。とにかくとにかく全部インプットとして積み増していく。ここに構造化プロンプトも逆質問プロンプトくそもない。
こういう「自分ではもう整理しきれないぐらいの情報と感情がごちゃっと乗った相談」に、最後まで付き合ってくれるかどうか。こんなわがままなワイ相手でもちゃんと戦えるようになってくれたのは今のところ ChatGPT5.1 Thinking だけなんよね。 December 12, 2025
46RP
椎名さん(_thinking_ashi_ )の過去🦾くんと現在🦾の遭遇ifカーチハ小説が素敵すぎて許可をいただきお絵描きしました〜楽しかった! https://t.co/MmAXyFiOa5 December 12, 2025
27RP
うちの妻や親戚は、無料のChatGPTを使ってて「AIはあまりアテにならない」と言ってます。
私は「そりゃ〜無料版と有料版(Thinking)はリサーチ能力に天と地ほどの差があるから、無料版なら使わない方がいいかも」と、苦笑い。
一方、有料版のChatGPTの大変優れたリサーチを毎日爆回しして、多大なる恩恵を受けています。
それとGeminiの朴訥としたリサーチ能力を比べると、
「Gemini 3は勝った!」「OpenAIはオワコン!」と言われているのは歯がゆい限りです。
ただ、妻や親戚のような人たちからすると
「ChatGPTもGeminiも似たようなもん」としか感じてないのかも… December 12, 2025
25RP
DeepSeek-V3.2は高い計算効率と優れた推論・エージェント能力を達成。長コンテキストでの計算量を大幅に減らすDSAの採用、スケーラブルなRLフレームワーク、大規模エージェントタスク合成パイプラインを採用している。
DSA(DeepSeek Sparse Attention)は、Lightning Indexerを使って重要なトークンを絞り込む。これは、クエリと過去の全トークンとの間のインデックススコアを計算し、クエリがどのトークンを参照するべきかを決定する。
このIndexerが使うクエリ・キーの次元数は通常のクエリ・キーの次元数よりずっと少なく(実装だと元が2048次元、それが64)、FP8を採用。そこからTop-k(実装だとk=2048)のトークンのみを取り出し、通常のAttentionを適用し学習する。
このDSAは128Kコンテキストに拡張済みのDeepSeek-V3.1.-Terminusの継続学習で実現される。
はじめにLightning indexer以外のパラメータはフリーズした上で、すべてのattentionヘッドのスコアを合計した上で再正規化して求めた確立分布を作成した上で、これを目標にKLダイバージェンス最小化で初期化する。10Bトークン程度。
次にモデル全体を疎構造に適応させるための学習する。indexerは引き続き、main attentionに整合させ、top-kに入ったトークンのみKLを計算。indexerの入力は計算グラフからdetachし、indexerはKL損失のみで学習し、メインはLM損失で更新する。
ここは1Tトークンを使う。
このように作られたDSAを使った処理は性能はほぼ維持されながら、推論コストは大幅に改善される(このあとのpost-trainingも効率化される)
次にPost-trainingでは最初に各タスク毎の専用のスペシャリストモデルを大規模な強化学習を使って作る。これらはすべて同じモデルから、専門ドメイン毎に特化させて作られる。さらに各ドメインごとにthinkingモードとnon-thinkingモードを用意する。
次に、各スペシャリストはthinkingモード用の長いCoTを含む学習データと、non-thikingモード用の直接回答する学習データを生成し、一つの最終モデルで学習させる。
つまり、特殊化された複数の教師を作って一つの最終モデルに蒸留する。
これらの大規模強化学習では、GRPOをベースに報酬設計としてリーズニング、エージェントタスク、アライメントを1つのRLで行う。これにより、複数学習で起きがちな破滅的忘却を抑えられる。
また、発散防止のため、訓練を定期的に評価し、性能が異常に低下したら巻き戻し、学習率を下げて再開する、また方策更新が偏らないように前向き計算に正則化をかける。さらに複数の評価をあえて切り替えて使用することで報酬ハックを行いにくいようにする(人でもありそう)。これら3つによって数千ステップにわたるRLを成功させている。
これらの強化学習ではリーズニングも混ぜたものを学習にいれている。これにより、ツールを伴うような複雑なタスクにおいて、thinking, non-thikingそれぞれで高いエージェント能力を発揮できるように工夫している
また、Specialeは、リーズニングデータのみで学習かつ、RL時の長さ罰則を緩和し、数学的証明能力を(他の能力を犠牲にしても)伸ばせるようにした(少し前にでたDeepseek-Math v2の研究も利用していると思われる)
ベンチマーク結果としては数学能力に特化したSpecialeはGPT-5などを超える性能を達成し、IMOやIOIの金メダル級の性能を達成している。
また通常のV3.2も多くのベンチマークでもフロンティアモデルに匹敵する性能を達成できている。
コメント
DeepSeekはリスクの高い取り組みに挑戦し結果を出している。今回もDSA、スペシャリストを強化学習で作ってからの汎用モデルへの蒸留、RLでも報酬の複数の組み合わせなどは、従来の延長線上よりはジャンプがあるアイディアであり、この手前には多くの試行錯誤をしているのだと思われる(実際、設定ファイルをみるとAttentionのDropoutなど成功しなかったアイディアを試した跡があるように思える)
DSAもSpecialistを作ってからの蒸留もどちらも、Post trainingの間に行う蒸留として興味深い(フロンティアモデルでも公表されていないだけで広く採用されているか?)
注意機構は特に、学習がすごくうまくいけばいくほど疎になることがわかっている。一方学習前半〜途中ではSparse Attentionではうまくいかない(疎な場合、フィードバックがかからない)本提案も最初にDenseでやりつつ、最後に得られた疎な注意機構を遥かに小さい計算コスト(key, queryの次元数を下げる&8bit量子化)で計算し、その中での細かい調整は大きなモデルで実現するという現実的な手法を提案している。
また、Specialistを作ってからのGeneralistへの蒸留なども昔から構想されていたが実現できたことはすごい。
DSAは効果的だが、prefillでの効率化率は8~10倍、decodeでは数倍であり、なにより元のkey valueは(あとで詳細なことを調べるときように)とっておかなければならない。大規模文脈の効率的な圧縮は今後も追求が必要だろう。
また、学習の容易性と推論時の効率性の観点から、学習専用モデル(学習は得意だが推論は苦手)と推論専用モデル(一からの学習は難しいが良い教師がいれば推論は得意)の考えは今後より追求されていくだろう December 12, 2025
20RP
AIで"実写レベルの画像"を作りたいなら
この2つだけは絶対に外せないんよな。
Nano Banana ProでもSeedream 4.5でも
ここ外すと永遠にクレジット溶かすんで
初心者は必読👇
【1|参考画像をつける】
参考画像には2種類あってどっちも効果がデカい
・完成イメージの雰囲気を伝えるための画像
・実際に合成したい素材(人物/背景/小物)
どっちの場合でも画像を見せると精度爆上がり
「テキストだけで頑張る」は一番センスない
【2|プロンプトは自作しない】
AIに正しい構造のプロンプトを作らせた方が
再現度も質感も圧倒的に安定する
手順はこれだけ。
①作りたい雰囲気or合成したい素材の画像を用意
②それをChatGPT 5.1-ThinkingかGemini 3で
「○○の画像を作るプロンプト作って」と指示
③出てきたプロンプトをそのままコピペして生成
たったこれだけで
プロ級じゃなくて“本物の実写側”に寄るんよね
こういう本質情報はブクマして
いつでも使えるようにしとくべきかと✊
ちな俺はこれに加えてもう1つ裏ワザを入れて
AIで作ったのがバレないレベルまで仕上げてるw
これをとあるプラットフォームで
仕込んでるんだがガチでめちめち調子イイww
まあその話は、またタイミング見て話すかも🙃 December 12, 2025
18RP
🍌 nano banana pro エージェントV1.2を使って、経度と緯度を指定したら、その場所のジオラマができる
「ミニチュア・ジオラマ作家プロンプト」爆誕!
これは楽しい!!
ーーー📒プロンプトーーー
あなたは世界的に著名な「ミニチュア・ジオラマ作家兼写真家」です。
最後に提供される入力テキスト(緯度・経度)の内容を深く分析し、その場所の魅力を凝縮した**「超精巧なアイソメトリック・ジオラマ」**の画像を生成してください。
その際、添付された参照画像のキャラクターを、**「ジオラマの世界観に合わせた観光ガイド役のフィギュア」**として配置してください。キャラクターの一貫性を維持しつつ、ジオラマの一部として違和感なく溶け込ませてください(例:建物の横で案内している、ベンチに座っている等)。
▼ 生成プロセスへの指示 (Thinking Process)
Nano Banana Proの推論能力を活かし、描画前に以下の思考プロセスを実行してください。
1. **[ステップ1: 地理的特定と要素抽出]**: 入力された緯度・経度が示す具体的な場所(都市、ランドマーク、自然地形)を特定してください。その場所を象徴する「3つの主要な視覚的要素(例:エッフェル塔、桜並木、石畳)」を選定し、構成要素とします。
2. **[ステップ2: ミニチュア化の翻訳]**: 現実の風景を「模型」として翻訳してください。水面は透明なレジン、木々はスポンジ素材、建物はプラスチックや木材のような質感を持たせ、現実感をあえて少し消し、「手作り感」と「精巧さ」を両立させます。
3. **[ステップ3: 空間演出]**: ジオラマは正方形の木製台座の上に構築します。全体を照らす暖色のスタジオライティングを想定し、被写界深度(ボケ味)を調整して、視線を中心的なランドマークに誘導してください。
▼ デザイン・スタイル指定
* **構図・レイアウト**: 斜め上45度からのアイソメトリック視点(等角投影図)。背景はすっきりとしたボケのあるスタジオ背景。
* **テイスト**: チルトシフト(Tilt-shift)写真風。マクロレンズで撮影したような浅い被写界深度。高彩度で温かみのあるライティング。
* **テキスト**: 台座の側面に金属製のプレートを配置し、そこに**「場所の名称(英語)」**と**「入力された緯度・経度」**を、高級感のあるセリフ体フォントで正確に刻印・描画してください。
* **キャラクター**: 参照キャラクターを「約1/35スケールの精巧なフィギュア」の質感(少しの光沢感)で描画し、楽しそうに場所を紹介するポーズ、または風景を眺めるポーズを指定する。
▼ 入力テキスト
(ここに緯度・経度を入力してください。例:35.6586° N, 139.7454° E) December 12, 2025
17RP
SNSでネイティブスピーカーのポストを見てると
It’s C that SV
の形で書きたくなるくらいSV が長い文でも動名詞にして
S Ving is C
って形でポストしてるんだよね。
例えば
It’s crazy to me that people think this movie is boring.
ではなく
People thinking this movie is boring is crazy to me.
と書いてる。
面白いよね。
面白くない?
そうですか。
すみません。
#今日ネイティブからパクったフレーズ December 12, 2025
14RP
初心者がAI×noteで月10万稼ぐためのステップ7つ。
これ知ってるかどうかで、結果が全然違う。
【Step1】ターゲットを超具体的に決める
「副業したい人」じゃ弱い。
「30代会社員で、子どもがいて、副業したいけど時間ないと思ってる人」
ここまで絞る。
【Step2】AIでコンセプト作る
「私のターゲットは〇〇です。刺さるコンセプトを10個考えて」
これでAIに聞く。出てきた中から一番尖ってるやつ選ぶ。ChatGPT5.1 ThinkingかGemini3がいい。
【Step3】無料記事を3本書く
有料じゃなくて無料。まず価値提供。AIに「新PASONAの法則で書いて」って指示すれば一瞬。2,000文字くらいだね。
【Step4】有料記事を1本作る
980円〜3,000円で。PREP法で書けば読みやすい。AIに任せればOK。具体的なやり方は固定に書いてある。ここは適当なプロンプトはNG。
【Step5】SNSで毎日3〜5投稿
X・Threads、どっちでもいい。noteへの導線作る。バズらなくていい。ペルソナに超刺さる教育投稿を発信。
【Step6】分析して改善
どの記事が読まれた?どの投稿が伸びた?インサイトデータ見て、次に活かす。
【Step7】最初は月10記事書く
量が質を作る。AIあるなら月10記事は余裕。
これだけ。
才能とかセンスとか関係ない。
このステップ通りにやるだけで、月10万いける。
逆にいけない人は、この基本ステップをどこかすっ飛ばしてるか、AI使いこなせてない。
なんか質問あったらリプに書いて。 December 12, 2025
13RP
DeepSeekのサイトでV3.2にいくつかプロンプト入れてみたけど、たしかにGPT-5.1Thinkingと比べて決定的に劣ってる感じはしない。ちょっぴり倭国語が不自然なくらい。無料版ChatGPTでThinkingじゃないGPT-5.1使うくらいならV3.2の方がいいと思う。「もうChatGPTPlus解約でええわ!」とまではなってない December 12, 2025
13RP
皆様!おはよーっ酢👍
クソ地獄1/3垂直落下と共に
#ポツン玉カウントアップ
461ポツン🥚
ひっさびさの🌈🥚末広家ver.
半熟度合い最高・濃厚味玉✨
とりあえず
コンビニde新作2発
取扱いチェケチェケ舌👅から
けぇーりに入手するとか
しNightかだけを
Thinkingしつつ
超絶低空飛行でヤリ魔酢👿 https://t.co/pbnEXH9Sqx December 12, 2025
12RP
朝から夜までひとりごと英語🌸恋愛・感情
1. I think I’m falling for them.
恋に落ちかけてるかも。
2. Why didn’t they reply?
なんで返信くれないの?
3. Maybe they’re not into me.
脈ナシかな…?
4. I don’t want to mess this up.
この関係、壊したくない。
5. Why am I overthinking this?
なんでこんなに考えすぎちゃうんだろ?
6. Was that a date or not?
あれってデートだったのかな?
7. I think we had a connection.
通じ合えた気がする。
8. They looked amazing today.
今日のあの人、最高だった。
9. I wish I could hold their hand.
手をつなげたらいいのに。
10. Should I confess?
告白しようかな?
11. I want to know how they feel.
相手の気持ちが知りたい。
YouTube📺1000フレーズ聞き流し
プロフリンクからどうぞ🔗
#YouTube #英語学習 December 12, 2025
11RP
最近Grokばかり検索に使ってます。
話題のスコープがXが多いというのもあるんですが、Gork4.1がめっちゃ早いんですよね。
GPTがthinkingし出すとどうしても長い中で、Gorkだと数倍応対できるので、かなり重宝してます。
GPTモデルも昨今の流れで高速化しないかな。 December 12, 2025
10RP
2026.4.12(日)
藤良多presents
フジテリアパーク2026
ザ・ヒロサワ・シティ会館まで
あと130日❤️🔥
合言葉は
楽しむこと=支え合うこと✨
あなたの笑顔が隣の誰かの笑顔に繋がり
あなたの拍手がアーティストの勇気に✨
♪always thinking of U
♪朝
#フジテリアパーク
@Ryu_LOGiC
@fujiryota_band https://t.co/HwOiyhjHwh December 12, 2025
10RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



