CAP 芸能人
0post
2025.11.30 02:00
:0% :0% (50代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
海外でバズってるNanoBanaan Pro
「ドローン空撮プロンプト」が気持ちいい
場所を伝えるだけでいい感じに
ドレーン風の写真をくれる
(引用元あるよ)
プロンプトが好きなので
複数枚出るように参考しながら改変した
「ドローン空撮4Pプロンプト」
↓
---
下記のpromptを実行し
必ずnanobanana proで画像を生成せよ
説明はしないで複数枚必ず順次create imageしてください
INSERT_LANDMARK_NAME=大阪の太陽の塔
{
"customInputs": {
"landmarkName": "{INSERT_LANDMARK_NAME}",
"#comment": "以下に生成したいバリエーションの数だけオブジェクトを追加してください。",
"variations": [
{
"description": "【バリエーション1:圧倒的な没入感の超ローアングル(あおり)】",
"angleSpecification": "地面すれすれの極低空(高度10m〜30m)から被写体を見上げる劇的なローアングル。カメラをやや斜めに傾けつつ、手前の地面〜中距離の構造物〜遠景の空までを一体的に見せることで、被写体が空を覆い尽くすほど巨大で迫力ある『うわぁ…!』と驚く没入感を生み出す。現実のドローンで実際に飛行可能な位置と角度に限定する。",
"timeAndWeather": "夕暮れのゴールデンアワー。劇的な茜色の空と長い影。太陽は地平線から15°〜35°程度の高さ。",
"aspectRatio": "2:3 (縦長で高さを強調)"
},
{
"description": "【バリエーション2:幾何学的な美しさを捉えるダイナミック俯瞰】",
"angleSpecification": "真上“に近い”ハイアングル(完全な直下視ではなく、10°〜20°程度の斜めを残した高角度)からの俯瞰撮影。高度40m〜80mの現実的なドローン高度に限定し、衛星やGoogle Earthのような地図視点には絶対にしない。被写体と周囲の環境が織りなす幾何学的な模様や配置の美しさを、ミニチュアのように精巧かつ立体的なパララックスを保ったまま捉える。",
"timeAndWeather": "正午前後の快晴。ほぼ真上からの強い光で影を短くし、形状とパターンをくっきり際立たせる。",
"aspectRatio": "1:1 (正方形で配置とシンメトリーを強調)"
},
{
"description": "【バリエーション3:動的な緊張感を生むシネマティック・ダッチアングル】",
"angleSpecification": "高度40m〜120mのリアルなドローン高度から、ランドマークを主役に据えたシネマティックな斜め俯瞰ショット。カメラを意図的に傾けたダッチアングル(斜め構図)とし、画面の対角線方向にランドマークと周囲の街並みや地形が流れるように配置されることで、強いスピード感とドラマチックな緊張感を生み出す。奥行きのあるパララックスと立体感を維持したまま、『うわぁ…!』と感じる大胆な構図にする。",
"timeAndWeather": "嵐の前触れのような劇的な曇天。重厚な雲とコントラストの強い光が、シルエットや輪郭を強く浮かび上がらせる。",
"aspectRatio": "21:9 (シネマティックな横長。映画のワンシーンのような迫力を強調)"
},
{
"description": "【バリエーション4:王道シネマティック斜め俯瞰(教科書的ベストアングル)】",
"angleSpecification": "高度60m〜120mの現実的なドローン高度から、ランドマーク全体とその周辺環境を一望できる王道シネマティック斜め俯瞰。カメラの俯角は30°〜45°程度とし、ランドマークは画面中央からわずかにオフセットして配置、道路や川・海岸線・街並みなどのリーディングラインが自然にランドマークへ視線を誘導する構図にする。前景〜中景〜遠景の三層構造を明確に保ち、スケール感と立体感を最大化して『これぞドローン空撮』という教科書的な“うわぁ…”アングルにする。",
"timeAndWeather": "黄金に染まるサンセット直前〜直後のゴールデンアワー。空は暖色グラデーションから高空に向けてやや青みが残り、街やランドマークの光と空の色がドラマチックに共鳴する時間帯。",
"aspectRatio": "16:9 (シネマティックな横長でランドマークと環境の広がりを両立)"
}
]
},
"generationSettings": {
"targetResolution": "Render strictly at native 4K (3840×2160 or equivalent based on each variation’s aspect ratio).",
"resolutionDiscipline": "No artificial upscaling; all detail must originate from true high-resolution generation. If the model uses internal hires or upscaler modes, they must be used only to refine genuine high-resolution detail, not to invent fake sharpness."
},
"promptDetails": {
"mainDirective": "Generate a set of multiple, ultra-high-resolution, completely real 4K aerial photographs of {INSERT_LANDMARK_NAME}. Each image must be a breathtaking, elite-level drone shot that makes viewers exclaim 'wow,' strictly following the specific angle instruction for each variation while maintaining absolute realism and physically achievable camera positions.",
"wowAnglePrinciples": {
"#comment": "『うわぁ…!』と驚く角度を、現実にドローンで撮影可能な範囲で最大化するための共通ルール。",
"corePrinciple": "Capture the landmark from the most awe-inspiring, cinematic, physically achievable drone angle that evokes a strong 'wow' reaction while preserving realism.",
"heightRange": "In general, keep real drone altitude between 40m and 120m for standard aerial shots, and between 10m and 40m for ultra-low immersive angles. Never exceed realistic drone flight envelopes.",
"tiltGuideline": "Use a dramatic oblique downward angle (30°–55°) for標準的な空撮バリエーション、または各variationの指定に従ってローアングル/ハイアングル/ダッチアングル/王道斜め俯瞰を構成する。",
"parallaxDepth": "Always preserve strong natural parallax: foreground, midground and background must overlap with cinematic depth, never flattening into a map-like view.",
"heroFraming": "Frame {INSERT_LANDMARK_NAME} as the clear hero subject, using real photographic composition (rule of thirds, leading lines, authentic horizon placement).",
"dynamicView": "Prefer dynamic diagonals, sweeping lines and a sense of motion or flow in the composition, as long as it remains physically plausible for a real drone.",
"noBoringAngles": "Avoid flat, high, neutral, or purely documentary angles. Within each variation’s constraints, always choose the most beautiful, striking and intentional angle a real expert drone pilot would capture."
},
"commonPrinciples": {
"#comment": "すべてのバリエーションに共通する、リアリティと物理法則に関する絶対条件。",
"realismWithoutCompromise": "Captured exactly as {INSERT_LANDMARK_NAME} exists today with zero fictional changes. All lighting, materials, geography, atmosphere, and structural details must reflect real-world physics and present-day accuracy.",
"positionBiasSuppression": {
"purpose": "Fully eliminate Google Earth–style top-down or satellite biases, except where a high-angle is explicitly described for a specific variation, and even then keep it within realistic drone altitude and with preserved parallax.",
"rules": [
"Absolutely no satellite-like or GIS-style map views.",
"No orthographic or perfectly flat map-like projection.",
"No excessive elevation or horizon flattening beyond real drone capabilities.",
"No automatic straightening of roads, coastlines or city grids; preserve their real irregularity.",
"Camera must retain real drone-level parallax and cinematic depth at all times."
]
},
"timeOfDayAndLightingPhysics": "Sunlight direction, shadow length, color temperature, and atmospheric gradients must reflect real solar azimuth/elevation for the specified time. Golden hour must have warm, soft light and long shadows; midday must have short, sharp shadows; dramatic cloudy scenes must have realistic contrast and diffusion.",
"weatherInterpretation": "Weather must behave exactly like true meteorological conditions. No fantasy clouds, no surreal sky colors. Cloud shapes, density, haze and visibility must follow real atmospheric behavior for the specified time and location.",
"cameraAndSensor": "Simulate DJI Inspire 3 with Zenmuse X9 Air full-frame camera and a 24mm rectilinear lens with zero distortion. Use natural dynamic range, real exposure discipline, accurate highlight rolloff and crisp but natural sharpness. No synthetic HDR, no over-sharpening, no plastic or CGI-like textures.",
"realisticSensorModeling": "Simulate a real full-frame 8K capture downsampled to 4K for maximum natural clarity. Preserve true noise characteristics at low native ISO without excessive denoising.",
"detailLevel": "All details must be organic and physically accurate: foliage texture, rooftop materials, street irregularities, water surface behavior, reflections, micro shadows and atmospheric depth cues must look like real aerial photography.",
"stylization": "Zero stylization. No cinematic color grading, no film-like tints, no painterly brushstroke effects, no CGI look. Pure documentary-level realism that could be mistaken for real drone footage."
},
"variationExecutionInstructions": "For each item in 'customInputs.variations', generate one image by combining the 'wowAnglePrinciples' and 'commonPrinciples' with the specific 'angleSpecification', 'timeAndWeather' and 'aspectRatio' defined for that variation. Each variation must still feel like a deliberate, elite-level 'wow' shot, not just a neutral documentation photo.",
"perVariationLogic": {
"angleAndComposition": "Strictly execute the specific 'angleSpecification' defined for the current variation. The composition must dramatically emphasize the core intent described in the specification (immersion, geometric beauty, cinematic tension, textbook cinematic overview, etc.), avoiding any neutral, flat, or boring documentary-style angles. Maximize depth and scale based on the chosen angle while staying within physically achievable drone flight paths.",
"timeAndWeather": "Render the scene according to the 'timeAndWeather' defined for the current variation, ensuring physically accurate lighting, exposure, shadow behavior, atmospheric scattering and visibility.",
"aspectRatio": "Apply the 'aspectRatio' defined for the current variation, and adapt framing so that the landmark remains the hero subject within that frame shape."
}
},
"negativePrompt": "boring angle, neutral view, eye-level view, flat lighting, satellite angle, google earth perspective, orthographic view, map-like view, gis-style capture, flattened depth, unrealistic altitude, surreal atmosphere, hdr blooming, fantasy clouds, fake reflections, invented buildings, impossible geometry, synthetic textures, over-sharpening, plastic look, painterly style, cgi render, low resolution, blurry details"
} November 11, 2025
1RP
彼得·林奇的【PEG】指标与25条股票投资黄金法则
彼得·林奇(Peter Lynch,1944年1月19日出生)是美国历史上最著名的基金经理之一,被誉为“历史上最成功的主动型股票基金经理”和“华尔街股神”之一。
主要成就:
1977年至1990年担任富达(Fidelity)公司旗下的麦哲伦基金(Magellan Fund)经理,这13年间,他将基金资产从1800万美元管理到140亿美元(增长约777倍)。
年平均复合回报率达到29.2%,是同期标普500指数的近3倍,被称为“投资界的传奇业绩”。
他管理的麦哲伦基金一度成为全球资产规模最大的主动管理股票基金。
彼得·林奇发明的、也是他最常用、最喜欢的一个选股指标就是 PEG(有时候也叫“林奇PEG”)。
PEG的定义
PEG = 市盈率(PE) ÷ 每股收益年增长率(EPS Growth Rate)
市盈率(PE)= 当前股价 ÷ 每股收益(越低越便宜)
每股收益增长率(G)= 公司未来3-5年预计的年化盈利增长率(单位:%)
公式写出来就是: PEG = PE ÷ G
彼得·林奇对PEG的判断标准(他书中明确写过的)
他最经典的一句话是:
“PEG低于1的股票,我几乎从没亏过钱。”
“理想的股票是PEG在0.5以下的成长股。”
林奇使用PEG时的几个关键提醒(他反复强调)
- 增长率要“合理可预期”,不能用分析师最乐观的数字,要用自己判断的保守数字。
- 最好用于成长股利不高的成长型公司(成长率15%-50%之间最理想)。
- 对周期性公司要特别小心,盈利大起大落会导致PEG失真。
- PEG不是唯一指标,还要结合负债率、现金流、竞争优势一起看。
~~~~~~~~~~~~~~~~~~~~~~
彼得·林奇在书中为读者列举的25条股票投资黄金法则:
1. Investing is fun, exciting, and dangerous if you don’t do any work.
投资很有趣、很刺激,但如果你不做功课,也很危险。
2. Your investor’s edge is not something you get from Wall Street experts. It’s something you already have. You can outperform the experts if you use your edge by investing in companies or industries you already understand.
你的投资优势不是华尔街专家给你的,而是你已经拥有的。只要投资你熟悉的公司或行业,你就能胜过专家。
3. Over the past three decades, the stock market has come to be dominated by a herd of professional investors. Contrary to what you might think, this great rotation has had no negative effect on the performance of individual investors.
过去30年,股市被职业投资人组成的“羊群”主导。但和你想的不同,这并没有让散户表现更差。
4. Every year there are several surprises in the stock market. In a good year, half the surprises are pleasant ones.
每年股市都会有几件意想不到的事。好年景里,有一半是好惊喜。
5. If you don’t study any companies, you have the same success buying stocks as you do in a poker game if you bet without looking at your cards.
如果你不研究公司,买股票的胜率就跟打扑克不看牌一样。
6. Time and again you hear that “you can’t time the market. But nobody can predict the economy, interest rates, or the stock market, so drop that cliché from your repertoire.
老是说“没人能预测市场”,但既然没人能准确预测经济、利率和股市,那就别再拿这句话当借口了。
7. If you study 10 companies, you’ll find 1–2 bargains; if you study 50 companies, you’ll find 4–5 bargains. The more companies you study, the better the bargains you can discover.
研究10家公司,你能找到1–2个便宜货;研究50家,你能找到4–5个。研究越多,发现的机会越多。
8. Behind every stock there is a company. Find out what it’s doing.
每只股票后面都有一家公司,搞清楚它在干什么。
9. Companies that no analyst follows often bring the greatest returns.
没人跟踪的公司,往往带来最大回报。
10. If you find a stock with little or no institutional ownership, you’ve found a potential winner.
机构持股很少甚至没有的股票,往往是潜在的大赢家。
11. Never invest in any company before you’ve done the homework on the company’s earnings prospects, financial condition, competitive position, etc.
在没做功课(盈利前景、财务状况、竞争地位等)之前,绝不要投资任何公司。
12. The extravagance of any corporate office is in direct proportion to the stupidity of the corporation’s management.
公司办公室越奢华,管理层越蠢。(相关度极高)
13. When insiders are buying, it’s a good sign—unless they happen to be buying because they’re being forced to buy by the company’s stock-option plan.
高管大量买入是好信号——除非他们是被强制认股权计划逼着买的。
14. Never invest in a company without understanding its financial statements.
不懂财报的公司,绝不投。
15. Avoid hot stocks in hot industries. Great companies in cold or lukewarm industries often produce better returns.
避开热门行业里的热门股,冷门或不被看好的行业里的伟大公司往往回报更高。
16. When yields on long-term government bonds exceed the dividend yield of the S&P 500 by 6 percent or more, sell stocks and buy bonds.
当长期国债收益率比标普500股息率高6%或以上时,卖股票买债券。(这条是林奇自己标注的“最不靠谱的一条”)
17. Small companies (micro-caps) often produce the best returns, but you have to be able to find the good ones.
小盘股往往回报最高,但前提是你得能挑到好公司。
18. The best stock to buy may be the one you already own.
最好买的股票,可能就是你已经持有的那只。
19. A sure cure to take the fun out of investing is to try to make it into a full-time job.
把投资当成全职工作,是让它失去乐趣的最快方法。
20. Never fall in love with a stock; always have an open mind.
永远不要爱上一只股票,要保持开放心态。
21. It’s not a sin to sell a winner to take profits.
卖掉赢家落袋为安不是罪过。
22. The bigger the company, the less likely it is to grow rapidly.
公司越大,越难高速成长。
23. In business, competition is never as healthy as total domination.
对企业来说,竞争永远不如完全垄断“健康”。
24. All else being equal, a 20-percent decline in the market is a buying opportunity.
其他条件不变时,市场下跌20%就是买入机会。
25. There’s no shame in losing money on a stock. Everybody does it. What is shameful is to hold on to a stock, or, worse, to buy more of it, when the fundamentals are deteriorating.
在一只股票上亏钱没什么丢人的,谁都会亏。最丢人的是基本面已经恶化了,你却死抱不放,甚至越跌越买。 November 11, 2025
1RP
引用された話が正しいかどうか、私は確信が持てません。というのも、私自身の記憶とは大きく異なるからです。
2018年のSDK刷新以前、VRChatでは厳格なトライアングル制限が設けられていました。最初は5,000、次に10,000、そして最終的には20,000という制限です。これらの制限は2018年半ばに撤廃され、現在の「アバターパフォーマンスランク」制度に置き換えられました。
私は「ポリゴン」ではなく「トライアングル」という用語を強調します。なぜなら、パフォーマンスチェックは常にトライアングルを基準としていたからです。これは以下の理由で重要です。
1. ゲームエンジンはポリゴンを自動的にトライアングルへ変換する。
2. 参考までに、70,000ポリゴンは14万以上のトライアングルに相当し、これはVRChatの現在推奨されているガイドラインを大きく超えています。
この用語の違いは重要です。2018年のSDKは、VRChatの設計思想における論理的な転換点でした。ハード制限を課す代わりに、ユーザーが安全設定を通じて自分が見たいものを制御できるようにしたのです。これにより、プレイヤーはパフォーマンスと創造性を自分の好みに合わせて調整できるようになりました。各ユーザーが「正しい」と考える基準は異なるため、単一の制限を強制することは不可能です。ユーザー自身に制御を委ねる方が、はるかに洗練されたアプローチです。
当時、一部のユーザーはSDKを改造して制限を回避していました。しかし2018年半ば以降、ハードなトライアングル制限は一切課されていません。存在するのはパフォーマンスカテゴリとガイドラインだけです。だからこそ私は混乱しています。私の記憶とパッチノートの記述が、引用されたツイートと完全には一致しないのです。そしてTupper氏の反応も同じだと思います。
関連する話題として、GPUはトライアングルのレンダリングに非常に効率的になっています。FLOPS(毎秒浮動小数点演算)は頂点やピクセルの計算を容易にします。例えば、NVIDIA RTX 3060 GPUは約12.7 TFLOPSを実現し、毎秒12兆以上の浮動小数点演算を処理できます。これは数十億のトライアングルを毎秒処理できる計算になります。しかし、最終的な最適化の問題はそれほど単純ではありません。
この効率性により、現代のゲームに登場する「ヒーローキャラクター」や「主役キャラクター」は10万〜15万トライアングルを使用することが多く、武器のような近接表示されるオブジェクトは3万〜4万トライアングルに達することも珍しくありません。
それでも、レンダリング性能はトライアングル数だけで決まるわけではありません。例えば「クアッドオーバードロー」のように、GPUが重複するピクセルを非効率的に処理する問題があり、小さなトライアングルや細いトライアングルはレンダリングコストが不釣り合いに高くなることがあります。場合によっては2倍のコストになることもあります。したがって最適化は非常に繊細な作業であり、同じトライアングル数でもトポロジーや解像度、スクリーンレンダリングによって性能コストは大きく異なります。
要するに、最適化は単純なトライアングル数に還元できません。ディテール、効率性、創造的意図のバランスを慎重に取る必要がある、複雑で経験に基づくプロセスです。
結論として、これがVRChatがユーザー生成コンテンツへのアプローチを変えた理由です。単一の数値指標で全てのアイテムを分類することはできません。これは非常に繊細で深いプロセスであり、意図的な設計思想が必要で、単に「トライ数を減らす」だけでは解決できません。
さらに言えば、レンダリングコストが高い要素は他にも存在します。代表的なのはシェーダーです。例えば屈折表現を体全体に適用するようなマテリアルは、大規模な空間でレンダリングする際に非常に高価です。また、毛皮シェーダーに極端に高いテッセレーション値を設定するケースも同様です。しかしVRChatは安全設定を通じてそのようなアバターをブロックするための十分なツールを提供しているので、大きな問題にはなりません。私は、クリエイターに単純にトライ数を減らすことを強制するよりも、ユーザーに安全設定の正しい使い方を教えることの方がはるかに重要だと考えます。もちろん一部の人はトライアングル数を減らすべきですが、それで議論が終わるわけではありません。
I’m not entirely sure the quoted story is correct, as I remember the events quite differently.
Before the 2018 SDK overhaul, VRChat enforced hard triangle limits. Firstly with 5,000, then 10,000, and eventually 20,000. These restrictions were lifted in mid‑2018 and replaced with the system we know today: Avatar Performance Ranking.
I emphasize triangles rather than polygons because performance checks were always based on triangles. This is important for two reasons:
1. Game engines automatically convert polygons into triangles.
2. For context, 70,000 polygons equates to well over 140,000 triangles, which far exceeds VRChat’s current recommended guidelines.
This terminology matters because the 2018 SDK marked a logical shift in design for VRChat. Instead of enforcing hard limits, VRChat empowered users to control what they see through personalized safety settings. This allowed players to balance performance and creativity according to their own preferences. It's going to be impossible to enforce limits since each user has their own idea of what is correct. Allowing users to control what they see is a far more nuanced approach.
Back then, some users even modified the SDK to bypass the limits. Since mid‑2018, however, no hard triangle caps have been imposed. Only performance categories and guidelines. This is why I’m confused: my recollection of the past and the patch notes don’t seem to align perfectly with what was written in the quoted tweet. And I believe Tuppers reaction is the same.
On a related note, GPUs have become extremely efficient at rendering triangles. FLOPS (floating‑point operations per second) make vertex and pixel calculations relatively straightforward. For example, an NVIDIA RTX 3060 GPU can deliver around 12.7 TFLOPS, meaning it can perform over 12 trillion floating‑point operations per second. This could be billions of triangles per second. But the end issue for optimisation isn't so simple.
This efficiency explains why modern “hero” or "halo" characters in games often use 100,000–150,000 triangles, and why detailed weapons can reach 30,000–40,000 triangles due to their proximity to the player’s viewpoint.
Still, rendering performance isn’t determined by triangle count alone. Issues like quad overdraw where the GPU processes overlapping pixels inefficiently can make small or thin triangles disproportionately expensive to render. Think about 100% more expensive to render. Optimisation is therefore a nuanced discipline: two meshes with the same triangle count can have vastly different performance costs depending on topology, resolution, and screen rendering.
In short, optimization can’t be reduced to simple triangle counts. It’s a complex, experience‑driven process that requires careful balancing of detail, efficiency, and creative intent.
To conclude, this is why VRChat changed their approach to user generated content. You cannot simply use a single numerical metric and conclude every item can fit into said category. It's a very nuanced and in-depth procedure that requires intentional thought to get right and can't be boiled down to simply "reducing tri's".
With that said, there are far more expensive rendering items. Shaders being the best example where users are using refraction on the materials which are placed on the body which is very expensive to render in large spaces. Or the best example, extremely high tesselation values on fur shaders. However, VRChat gives users the adequate tools to block said avatars via safety settings so it's not too big of a problem. I think teaching users how to properly setup safety settings is far more important than forcing creators to just simply reduce tri's. Whilst some should definitely reduce their triangle count, it's not where the conversation ends. November 11, 2025
うおお90s adidasの金ロゴキャップキター‼︎ ラメ黒とか反則級に渋いじゃん…俺も欲しいわマジで!
OLD ADIDAS SHINNING CAP 90s 廃盤
https://t.co/MBCgoLHFKj November 11, 2025
わぁ〜セブンティフォーの新作キャップ出てる!ネイビーが可愛すぎて欲しいなぁ♡笑
【新作】SEVENTY FOUR TWILL BALL CAP ネイビー 新品
https://t.co/boEVEt3N5Z November 11, 2025
うわっvaultroomのアクアクキャップ出てるじゃん!ベージュめっちゃ欲しいんだけど誰か俺の分も買ってくれよ〜😂
vaultroom AKUAKU CAP / BGE
https://t.co/dyJNNrKtAg November 11, 2025
お、かわええキャップ見つけた!ベージュの色合いとロゴ刺繍がたまらんね。私も欲しいー!
【新作】SEVENTY FOUR TWILL BALL CAP ベージュ 新品
https://t.co/euYg61qTgX November 11, 2025
うわケープホーンのエスケル黒38新品出てんだけど軽すぎて反則じゃね?欲しくて死にそう
CAPE HORN ダウン ブラック 新品 未使用
https://t.co/rtOAZwpzjQ November 11, 2025
やれやれ、supremeのバンダナデニムキャップ青とか可愛すぎて俺の頭乗せたら即むっちり天使になるじゃん…羨ましいなぁ笑笑
supreme Bandana Jacquard Denim Camp Cap
https://t.co/KYlizye55g November 11, 2025
#MeAndTheeSeries EP.3
Theeはホンマに面白い😂
そしてCAP姿のPeachは可愛い🥰
#MeAndTheeSeriesEP3
@ppnaravit @phuwintang https://t.co/mSEjWFYKSB November 11, 2025
赤のキャップにXLのTシャツ付いてるの出てて、ちょっと欲しい…ってなってる😂
the union THE COLOR WORKING CLASS S.CAP
https://t.co/RhveTD8EnA November 11, 2025
Nano Banana Proで緯度経度を使わないで画像を9つのカメラショットで生成するパターンもお手軽で良い感じです✨
モデルの画像を1枚アップロードするだけで簡単に生成できます!
(細かな補足は引用をご確認ください)
【プロンプト(緯度経度を使わない版)】
Generate a cohesive 3x3 grid cinematic contact sheet featuring 9 distinct, photorealistic camera shots of the subject(s) from the input image.
Location & Setting:
The environment for all 9 shots must be directly derived from the uploaded input image, accurately reflecting its specific location, local time, and weather.
Emotional Theme:
The overall emotional theme for the 9 shots is: [楽しい / 嬉しい / 切ない / 穏やか / 好奇心旺盛 / 決意 etc. - ここに希望の感情を記入]. Each shot should subtly reinforce this theme.
Style & Emotion:
The 9 shots must maintain a consistent, dramatic, and emotionally profound mood. Subject's facial expressions must dynamically adapt to the narrative emphasis of each unique perspective, while strongly conveying the overall Emotional Theme.
9 Shot Coverage (Focus on Content & Angle):
1. Full Environment View: Subject small in a vast, atmospheric environment.
2. Full Body Shot: Entire subject visible, emphasizing presence against the backdrop.
3. Mid-Body Shot: Knees-up view, capturing an emotionally charged stance.
4. Upper Body Shot: Waist-up; focus on expressive posture and interaction.
5. Intimate Chest-Up Shot: Chest-up; intimate framing, highlighting the gaze and inner feeling.
6. Tight Face Shot: Close-up on the face, clearly conveying a specific, unstated emotion.
7. Macro Detail Shot: Extreme close-up on hands, texture, or eyes, revealing a narrative element.
8. Upward Gaze Shot: Looking up from below (worm's eye view); emphasizing quiet power or resolve.
9. Downward Gaze Shot: Looking down from above (bird's eye view); suggesting reflection or vulnerability.
Strict Constraints:
Maintain strict consistency (same subject, clothes, lighting) across all 9 panels. Depth of field must shift realistically (bokeh in close-ups). Absolutely NO text, logos, labels, watermarks, symbols, numbers, letters, or typography should appear in any of the 9 generated images. November 11, 2025
FACS、それこそGCAPやF-47、J-36といった各国の第6世代戦闘機に比肩するかもしれなかった計画だけに、今回の縮小は残念だなと https://t.co/yuONMnoUy1 November 11, 2025
CAPロゴ白✨
ほんとに
めちゃくちゃいい匂いです
めちゃくちゃ好みです
めちゃくちゃジョングクです
優しい香りです
自分への早目の🎄🎁✨ https://t.co/I2DNkn0qFA https://t.co/Wis0a43Cnu November 11, 2025
星描いたメッシュキャップ可愛すぎて死にそう…誰か買って一緒に被ってよ…🌸
最終値下げ momentel star drawing mesh capBlue
https://t.co/qdrNzuE6yH November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。









