新加坡,[日期] – 新加坡国立大学(NUS)近日推出了一款名为OmniConsistency的图像风格迁移模型,旨在解决复杂场景下风格化图像一致性问题。该模型基于大规模配对的风格化数据进行训练,采用两阶段训练策略,将风格学习与一致性学习解耦,从而在多种风格下保持图像的语义、结构和细节一致性。

在人工智能(AI)图像处理领域,风格迁移技术一直备受关注。它允许用户将一张图像的内容与另一张图像的风格相结合,创造出全新的视觉效果。然而,在处理复杂场景时,传统风格迁移模型往往难以保持图像的一致性,导致风格退化或内容失真。

OmniConsistency的出现,正是为了解决这一难题。该模型的核心优势在于其两阶段训练策略。第一阶段,模型独立训练多个风格特定的LoRA(Low-Rank Adaptation)模块,每个模块专注于捕捉特定风格的独特细节。第二阶段,模型在配对数据上训练一致性模块,动态切换不同的风格LoRA模块,确保一致性模块专注于结构和语义的一致性,避免吸收特定风格的特征。

OmniConsistency的主要功能包括:

  • 风格一致性: 在多种风格下保持图像的风格一致性,避免风格退化。
  • 内容一致性: 在风格化过程中保留原始图像的语义和细节,确保内容的完整性。
  • 风格无关性: 与任意风格的LoRA模块无缝集成,支持多种风格的风格化任务。
  • 灵活性: 支持灵活的布局控制,无需依赖传统的几何约束(如边缘图、草图、姿态图)。

技术原理方面,OmniConsistency采用了以下关键技术:

  • 一致性LoRA模块: 在条件分支中引入低秩适应(LoRA)模块,仅对条件分支进行调整,避免干扰主网络的风格化能力。
  • 条件令牌映射(CTM): 低分辨率条件图像引导高分辨率生成,基于映射机制确保空间对齐,减少内存和计算开销。
  • 特征重用: 在扩散过程中,缓存条件令牌的中间特征,避免重复计算,提高推理效率。
  • 数据驱动的一致性学习: 构建高质量的配对数据集,包含22种不同风格的2,600对图像,基于数据驱动的方式学习语义和结构的一致性映射。

据新加坡国立大学研究团队介绍,OmniConsistency在实验中展现出与GPT-4o相当的性能,且提供更高的灵活性和泛化能力。该模型支持与任意风格的LoRA模块无缝集成,实现高效且灵活的风格化效果。

OmniConsistency的应用场景广泛,包括:

  • 艺术创作: 将各种艺术风格应用于图像,帮助艺术家快速生成风格化的作品。
  • 内容生成: 在内容创作中,快速生成符合特定风格的图像,提升内容的多样性和吸引力。
  • 广告设计: 为广告和营销材料生成风格一致的图像,提升视觉效果和品牌一致性。
  • 游戏开发: 快速生成游戏中的风格化角色和场景,提高开发效率。
  • 虚拟现实(VR)和增强现实(AR): 生成风格化的虚拟环境和元素,增强用户体验。

目前,OmniConsistency的项目地址已公开,包括GitHub仓库、HuggingFace模型库和arXiv技术论文。此外,研究团队还提供了在线体验Demo,供用户体验该模型的强大功能。

项目地址:

OmniConsistency的发布,标志着图像风格迁移技术在复杂场景应用方面取得了重要突破。未来,随着AI技术的不断发展,我们有理由相信,图像处理领域将涌现出更多创新性的解决方案,为艺术创作、内容生成、广告设计等领域带来更多可能性。

参考文献:

  • Showlab. (2024). OmniConsistency: Consistent Generation for Image Stylization. arXiv preprint arXiv:2505.18445.

(完)


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注