过去几年图像AI的进化逻辑是“哪块短板补哪块”,Images 2.0不再单点拔高,而是把指令理解、语言渲染、风格还原、格式适配整合进同一个模型做系统性优化。一个能画图的模型是工具,一个能读懂需求、搜索参考、输出全套不同尺寸物料的模型,是视觉工作系统。Images 2.0更接近后者

美国当地时间4月21日,OpenAI正式发布新一代图像生成模型ChatGPT Images 2.0,官方将其定位为“从渲染工具到视觉系统”的跨越式升级

过去我们评价图像模型,看的是画面质量。这次不一样:Images 2.0是一个为视觉工作流而生的模型。它首次将推理能力融入图像生成,整合了网页搜索、多图批量输出和自我校验机制


实测免费用户:每24小时最多生成8张图片


文字渲染精度大幅提升,日语、中文、韩语等非拉丁文字首次实现“语言融入设计”而非硬贴字符;桌面截图理解能力直接内置进模型;单次提示最多可输出八张风格连贯的图像,角色和道具保持跨图一致性。