据 1M AI News 监测,AI 视频公司 Luma Labs 发布图像生成模型 Uni-1,采用自回归 Transformer 架构,在单一模型内同时完成推理和像素生成,与 Midjourney、Stable Diffusion 等主流扩散模型的技术路线完全不同。模型不依赖「先理解再交给另一个模型画」的两段式流程,而是在生成过程中持续推理,分解指令、解析约束、规划构图后再渲染。
在专门评估推理能力的 RISEBench 基准中,Uni-1 总分 0.51,超过谷歌 Nano Banana 2(0.50)和 OpenAI GPT Image 1.5(0.46)。空间推理得分 0.58,领先 Nano Banana 2 的 0.47;逻辑推理得分 0.32,是 GPT Image 1.5(0.15)的两倍以上。在目标检测基准 ODinW-13 上,Uni-1 得分 46.2 mAP,几乎追平谷歌 Gemini 3 Pro(46.3)。Luma 称,同一模型去掉生成训练后理解能力下降 2.3 分,证明学会画图反过来提升了模型的视觉理解。人类偏好 Elo 评分中,Uni-1 在总体质量、风格编辑和参考图生成三项排名第一,仅文本生图排第二。
定价方面,2K 分辨率文本生图约 $0.09/张,低于 Nano Banana 2 的 $0.101 和 Nano Banana Pro 的 $0.134,高分辨率下便宜约 10% 至 30%。模型已在 lumalabs.ai 免费开放试用,API 接入通过候补名单逐步开放。
Luma Labs 总部位于旧金山,团队约 150 人,此前以视频生成工具 Dream Machine 知名。CEO Amit Jain 此前透露,Uni-1 驱动的 Luma Agents 创意平台已与阳狮集团(Publicis Groupe)、阿迪达斯、马自达等品牌合作,曾将一个原本预算 1500 万美元、耗时一年的广告项目压缩至 40 小时完成,费用不到 2 万美元。
币须知道