在传统的摄影或影视拍摄中,导演喊一声“换个85mm镜头”,摄影师只需要转动卡口。场景没变,光线没变,演员没变,变的只是视野范围和透视关系。
但在 AI 绘画(Gemini, Midjourney, Stable Diffusion)的世界里,这简直是噩梦。
当你把提示词从 wide angle shot(广角)改成 close-up telephoto(长焦特写)时,AI 往往会“脑补”出两个完全平行宇宙的画面。
为什么 AI 听不懂“变焦”?我们又该如何解决?
首先我们要理解 AI 的逻辑:它没有物理镜头,只有语义关联。
当你输入 "16mm (广角)",模型联想到的不仅仅是“宽视野”,还有“宏大的风景”、“复杂的建筑结构”、“深景深(全都清晰)” 。
当你输入 "85mm (长焦)",模型联想到的是“人像特写”、“背景虚化(Bokeh)”、“空间压缩” 。
所以,当你修改焦距数值时,你实际上是在告诉 AI “换个题材画”。这就是导致场景元素(由广角的建筑变成长焦的人像)发生剧烈漂移的根本原因。
要实现完美的“同一场景、不同焦距”,目前最硬核的解决方案不是死磕 Seed 值,而是利用 Outpainting(外绘/Zoom Out)技术。
黄金法则:永远先生成长焦特写,再向外扩展。
AI 很难在广角大图中“无中生有”地画出精细的主角面部细节;但 AI 非常擅长根据一张精细的特写,去“脑补”周围合理的背景。
第一步:生成 85mm 核心特写 先用长焦提示词,生成一张细节完美的主体图。这是你的“视觉锚点”。
一名赛博朋克武士,霓虹雨光倒映在头盔面罩上;使用 85mm 镜头拍摄,f/1.8 光圈,浅景深,将主体与背景分离
冬眠
博主专注于技术、阅读与思考。在这里记录学习、思考与生活。
