Author: Chimy

  • Stable Diffusion 3 – Stability AI推出的新一代图像生成模型

    Stable Diffusion 3是什么

    Stable Diffusion 3 是由 Stability AI 开发的一款先进的文本到图像生成模型,是 Stable Diffusion 系列模型的最新迭代,旨在通过文本提示生成高质量的图像。该模型相较于上代模型在多个关键方面(如文本渲染能力、多主题提示能力、图像质量等)进行了改进,使其在生成图像的质量和多样性上都有显著提升。

    Stable Diffusion 3

    Stable Diffusion 3的主要特点

    • 改进的文本渲染能力:Stable Diffusion 3 在处理文本渲染方面有显著提升,能够更准确地生成包含文字的图像,减少了乱码和错误。
    • 可扩展的参数量:Stable Diffusion 3 提供了不同规模的模型,参数量从 800M 到 8B 不等,这使得它能够在多种设备上运行,包括便携式设备,降低了 AI 大模型的使用门槛。
    • 多主题提示支持:新模型支持多主题提示,允许用户通过一个文本提示生成包含多个元素或主题的复杂图像,提高了创作的灵活性。
    • 图像质量提升:Stable Diffusion 3 在图像质量上进行了优化,提供了更高的分辨率和更好的色彩饱和度,使得生成的图像更加逼真和细致。
    • Diffusion Transformer 架构:该模型采用了 Diffusion Transformer(DiT架构),一种结合了 Transformer 和扩散模型的技术(OpenAI 的 Sora 也采用了该技术),提高了模型的效率和生成图像的质量。
    • Flow Matching 技术:Stable Diffusion 3 还采用了 Flow Matching 技术,一种提高采样效率的方法,通过回归固定条件概率路径来实现无模拟训练,从而提高了模型的训练和采样速度。

    如何使用Stable Diffusion 3

    Stable Diffusion 3 的发布,标志着生成式 AI 领域和开源领域的一个重要进步,尤其是在图像生成和文本理解方面。目前,Stable Diffusion 3 尚未全面开放,但用户可以提交申请以尝试使用。

    Stable Diffusion 3生成的图片样例

    Stable Diffusion 3生成的图片(组一)

    Stable Diffusion 3生成的图片(组二) Stable Diffusion 3生成的图片(组三)

    Stable Diffusion 3生成的图片(组四)

    Stable Diffusion 3生成的图片(组五)

  • SDXL-Lightning – 字节跳动推出的文本到图像生成模型

    SDXL-Lightning是什么

    SDXL-Lightning是由字节跳动的研究团队推出的一种基于扩散模型的文本到图像生成技术,旨在解决传统扩散模型在图像生成速度和计算成本上的局限性。该模型基于 SDXL(Stable Diffusion XL)架构,通过结合渐进式和对抗式蒸馏方法,实现了在一步或少数几步内快速生成1024像素分辨率的高质量图像。这种方法在保持图像质量的同时,显著提高了生成速度,解决了传统扩散模型在生成速度和计算成本上的瓶颈。

    SDXL-Lightning

    SDXL-Lightning的官网入口

    SDXL-Lightning实时图片生成

    SDXL-Lightning的主要特点

    • 快速生成高质量图像:SDXL-Lightning 能够在极短的时间内生成高分辨率(1024px)的图像,支持一步或少步生成,用户可以迅速从文本描述中得到高质量的图像结果。
    • 渐进式蒸馏:该方法通过训练学生Student模型来预测数据流的下一个位置,而不是直接预测当前位置的梯度。这允许模型在生成过程中跳过多个步骤,从而加快图像生成速度。
    • 对抗式蒸馏:SDXL-Lightning结合了对抗性训练,通过引入鉴别器网络来区分真实图像和生成图像,以提高生成图像的真实感和质量。
    • 模型和权重开源:SDXL-Lightning 提供了开源的模型和权重,包括LoRA(Low-Rank Adaptation)版本和完整的UNet权重。研究人员和开发者可以轻松地访问和使用这些资源,进行进一步的研究和开发。
    • 兼容性和扩展型:SDXL-Lightning 支持与现有的LoRA模块和控制插件(ControlNet)兼容,可以轻松地集成到现有的图片生成系统(如SD WebUI、ComfyUI)中,为用户提供更多的创作灵活性。

    SDXL-Lightning的技术原理

    • 扩散模型(Diffusion Models)扩散模型是一种生成模型,通过模拟从数据分布到噪声分布的连续过程来生成新的数据样本。这个过程通常涉及求解一个随机微分方程(ODE),并且需要多个推理步骤来生成高质量的图像。
    • 渐进式蒸馏(Progressive Distillation)渐进式蒸馏是一种训练策略,训练学生模型来预测教师模型在多个推理步骤中的中间状态。该方法允许学生模型在较少的推理步骤中生成图像,从而加快生成过程。
    • 对抗式蒸馏(Adversarial Distillation)对抗式蒸馏利用鉴别器网络来区分真实图像和生成图像。学生模型被训练以生成能够“欺骗”鉴别器的图像,使其认为这些图像是由教师模型生成的。该方法有助于提高生成图像的质量。
    • 鉴别器设计SDXL-Lightning使用预训练的扩散模型的U-Net编码器作为鉴别器的骨干网络。这种设计允许鉴别器在潜在空间中操作,从而支持在所有时间步长上的鉴别,并且具有很好的泛化能力。
    • 损失函数和训练技术为了平衡质量和模式覆盖,SDXL-Lightning在蒸馏过程中使用对抗式损失。此外,还采用了其他训练技术,如在多个时间步长上训练学生网络和鉴别器,以及在x0预测形式中切换模型,以提高训练的稳定性。
    • 模型训练和评估
      • 在训练过程中,首先使用均方误差(MSE)损失进行蒸馏,然后在后续阶段切换到对抗式损失。在每个阶段,首先使用条件目标来保持ODE流,然后使用无条件目标来放松模式覆盖要求。
      • 评估模型性能时,使用了Fréchet Inception Distance (FID) 和CLIP分数等指标,以定量比较生成图像的质量和多样性。
  • VideoPoet – 谷歌推出的AI视频生成模型

    VideoPoet是什么

    VideoPoet是由谷歌的研究团队开发的一种基于大模型的AI视频生成方案,支持从文本、图像或视频输入中合成高质量的视频内容,并生成匹配的音频。VideoPoet的核心优势在于其多模态大模型的设计,可以处理和转换不同类型的输入信号,无需特定数据集或扩散模型,就能够实现多种风格和动作的视频输出,支持生成时长10秒的视频。

    Google VideoPoet

    VideoPoet的官网入口

    VideoPoet的主要功能

    • 文本到视频转换:VideoPoet能够根据文本描述生成相应的视频内容。用户可以输入一段描述,然后模型便会生成与描述相符的视频片段。
    • 图像到视频动画:除了文本,VideoPoet还可以根据静态图像生成动画。例如,用户可以上传一张图片,然后模型会将其转换成动态的视频。
    • 视频风格化:VideoPoet能够改变现有视频的风格,如将视频转换成油画风格、卡通风格或其他艺术形式。
    • 视频编辑和扩展:模型支持对视频进行编辑,如改变视频中物体的动作或添加新的元素。此外,它还能够扩展视频内容,生成更长的视频片段。
    • 视频到音频转换:VideoPoet 还可以从视频中生成音频,意味着它可以为无声视频配上音效或音乐。
    • 多模态学习:VideoPoet 支持跨模态学习,能够在视频、图像、音频和文本之间进行学习和转换,实现更复杂的创作任务。

    VideoPoet的主要功能

    VideoPoet的技术原理

    • 多模态输入处理:VideoPoet能够接收和处理不同类型的输入信号,如图像、视频帧、文本和音频波形。这些输入通过特定的分词器(tokenizers)转换为离散的标记(tokens),然后被模型处理。
    • 解码器架构:VideoPoet采用了解码器(decoder-only)的Transformer架构。该架构通常用于自然语言处理(NLP)任务,但在VideoPoet中被扩展到视频生成任务。解码器能够根据输入的标记序列预测输出序列,这在视频生成中意味着能够生成连续的视频帧。
    • 预训练与任务适应:VideoPoet的训练分为两个阶段。在预训练阶段,模型通过多种多模态生成目标在自回归变换器框架内进行训练。这为模型提供了一个强大的基础,可以适应各种视频生成任务。在任务适应阶段,预训练的模型可以进一步微调,以提高特定任务的生成质量或执行新任务。
    • 多模态词汇表:为了处理不同类型的输入,VideoPoet构建了一个统一的多模态词汇表。这个词汇表包含了图像、视频和音频的标记,使得模型能够理解和生成跨模态内容。
    • 自回归生成:VideoPoet在生成视频时采用自回归方法,这意味着模型在生成每一帧时都会考虑到之前所有帧的信息。这种方法有助于保持视频内容的连贯性和一致性。
    • 超分辨率模块:为了提高视频输出的分辨率和质量,VideoPoet引入了一个专门的空间超分辨率(SR)变换器模块。这个模块在语言模型输出的基础上工作,通过局部窗口注意力机制来提高计算效率,并生成更高分辨率的视频。
    • 零样本视频生成:VideoPoet展示了在没有见过特定输入数据分布的情况下处理新文本、图像或视频输入的能力,这被称为零样本视频生成。这表明模型具有很强的泛化能力。
    • 任务链式处理:由于VideoPoet在预训练阶段学习了多种任务,它能够将这些任务链式组合起来,执行新的、在训练中未明确教授的任务,如视频编辑和风格化。
  • DiT – 基于Transfomer架构的扩散模型

    DiT是什么

    DiT(Diffusion Transformers)是一种新型的扩散模型,由William Peebles(Sora的研发负责人之一) 与纽约大学助理教授谢赛宁提出,结合了去噪扩散概率模型(DDPMs)和Transformer架构。扩散模型是一种生成模型,通过模拟数据的逐步去噪过程来生成新的样本。DiT的核心思想是使用Transformer作为扩散模型的骨干网络,而不是传统的卷积神经网络(如U-Net),以处理图像的潜在表示。近期伴随OpenAI视频生成模型Sora的大热,DiT被视为Sora背后的技术基础之一而广受关注。

    DiT模型

    在DiT中,图像首先通过一个自动编码器(如变分自编码器VAE)被压缩成较小的潜在表示,然后在这个潜在空间中训练扩散模型。这样做的好处是可以减少直接在高分辨率像素空间训练扩散模型所需的计算量。DiT模型通过Transformer的自注意力机制来处理这些潜在表示,这使得模型能够捕捉到图像的长距离依赖关系,从而生成高质量的图像。

    DiT的官网入口

    DiT的技术原理

    DiT的技术原理

    1. 数据准备
      • 使用一个预训练的变分自编码器(VAE)将输入图像编码成潜在空间的表示。这个潜在表示通常是图像的低维表示,例如,将256×256×3的RGB图像编码成32×32×4的潜在向量。
      • 这个潜在表示随后被用作DiT模型的输入。
    2. 分块化(Patchification)
      • 输入的潜在表示首先通过一个称为“patchify”的过程,将其分割成一系列的小片段(patches),每个片段对应于Transformer模型的一个输入标记(token)。这个过程类似于将图像分割成小块,以便模型可以逐块处理。
      • 每个片段通过线性嵌入转换为一个固定维度的向量,然后添加位置编码(positional embeddings),以便模型能够理解片段在图像中的位置。
    3. Transformer Blocks模块
      • 输入的标记序列通过一系列的Transformer块进行处理。这些块包括自注意力层、前馈神经网络以及层归一化等组件。
      • 在DiT中,研究者们尝试了不同的Transformer块设计,包括自适应层归一化(adaLN)、交叉注意力(Cross-Attention)和上下文条件(In-Context Conditioning)等,以处理条件信息,如时间步长(timesteps)和类别标签(class labels)。
    4. 条件扩散过程
      • 在训练过程中,DiT模型学习逆向扩散过程,即从噪声数据中恢复出清晰的图像。这个过程涉及到预测噪声的统计特性,如均值(mean)和方差(covariance)。
      • 使用变分下界(Variational Lower Bound, VLB)来训练模型,这涉及到最小化预测噪声和真实噪声之间的均方误差(MSE)。
    5. 样本生成
      • 在训练完成后,可以通过DiT模型生成新的图像。首先,从标准正态分布中采样一个潜在表示,然后通过DiT模型逆向扩散过程,逐步去除噪声,最终解码回像素空间,得到生成的图像。
    6. 可扩展性
      • DiT模型的可扩展性体现在通过增加Transformer的层数、宽度或输入标记的数量来提高模型的计算量(Gflops),从而提高生成图像的质量。这种可扩展性使得DiT模型能够在不同的分辨率和复杂度下生成高质量的图像。

    DiT模型通过这种方式,利用Transformer的强大表达能力和扩散模型的生成能力,实现了在图像生成任务中的高效和高质量输出。

    DiT的关键特点

    • 基于Transformer的架构DiT采用了Transformer作为其核心架构,这使得模型能够处理图像的序列化表示,并通过自注意力机制捕捉图像中的长距离依赖关系。
    • 潜在空间操作DiT在潜在空间中训练,这通常比直接在像素空间训练更高效。通过使用变分自编码器(VAE)将图像编码到潜在空间,DiT减少了计算复杂度。
    • 可扩展性DiT展示了出色的可扩展性,通过增加模型的计算量(以Gflops衡量),可以显著提高生成图像的质量。这种可扩展性允许DiT在不同的分辨率和复杂度下生成图像。
    • 条件生成能力DiT支持条件生成,能够根据给定的类别标签生成特定类别的图像。这种能力使得DiT在特定领域的图像生成任务中非常有用。
    • 自适应层归一化(adaLN)DiT使用了自适应层归一化技术,这是一种在Transformer块中使用的归一化方法,通过学习来调整层归一化的参数,从而提高模型的表达能力和训练效率。
    • 多种Transformer块设计DiT探索了不同的Transformer块设计,包括自适应层归一化(adaLN)、交叉注意力(Cross-Attention)和上下文条件(In-Context Conditioning),以处理条件信息。
    • 高效的训练过程DiT在训练过程中表现出高度的稳定性,即使在没有使用学习率预热和正则化技术的情况下,也能稳定地训练到高性能。
    • 生成图像的多样性和质量DiT能够生成具有高视觉质量和多样性的图像。通过调整类条件生成的指导强度,可以在生成图像的清晰度和多样性之间进行权衡。
    • 高计算效率在生成图像时,DiT能够在保持高图像质量的同时,实现较高的计算效率。这使得DiT在资源有限的环境中也具有吸引力。
    • 应用潜力DiT在图像生成领域具有广泛的应用潜力,包括艺术创作、游戏开发、虚拟现实、数据增强等,尤其是在需要生成高质量图像的场景中。
  • Boximator – 字节推出的控制视频生成中对象运动的框架

    Boximator是什么?

    Boximator是由字节跳动的研究团队开发的一种视频合成技术,旨在生成丰富且可控的运动,以增强视频合成的质量和可控性。该技术通过引入两种类型的约束框(硬框和软框)来实现对视频中对象位置、形状或运动路径的精细控制。

    Boximator

    Boximator的工作原理

    Boximator的工作原理基于视频扩散模型,它通过引入一种新的控制机制来增强视频合成的精细度和可控性。以下是Boximator工作原理的关键步骤:

    1. 对象选择与框定义
      • 用户在视频的起始帧或条件帧中使用硬框(Hard Box)来选择和精确定位对象。这些硬框定义了对象的精确边界。
      • 对于需要更宽松控制的场景,用户可以定义软框(Soft Box),这些框提供了一个对象必须存在的大致区域,允许对象在该区域内自由移动。
    2. 对象ID与框关联
      • Boximator为每个对象分配一个唯一的对象ID,这个ID以RGB颜色空间表示,使得每个对象的框都有一个独特的“颜色”。这样,模型可以跨帧跟踪和控制同一个对象。
    3. 视频扩散模型集成
      • Boximator作为一个插件,与现有的视频扩散模型(如PixelDance和ModelScope)集成。在训练过程中,基础模型的权重被冻结,以保留其预训练的知识,而只训练新增的控制模块。
    4. 自跟踪技术
      • 为了简化模型学习框-对象关联的过程,Boximator引入了自跟踪技术。在训练阶段,模型被训练生成彩色的边界框,这些框的颜色与对象ID相对应。模型需要在每一帧中生成正确的框并将其与Boximator的约束对齐。
    5. 多阶段训练过程
      • Boximator的训练分为三个阶段。第一阶段使用硬框约束,帮助模型建立对坐标和ID的基本理解。第二阶段引入软框,通过随机扩展硬框来增加训练的难度。第三阶段继续使用软框,但不生成可见的边界框,而是让模型内部保留这种关联。
    6. 推理阶段
      • 在推理(生成视频)阶段,Boximator在用户定义的框之外的帧中插入软框。这些软框通过线性插值和放松处理来生成,确保对象大致遵循预期的运动轨迹,同时给予模型足够的灵活性来引入变化。
    7. 运动控制与质量评估
      • Boximator通过平均精度(AP)分数来评估运动控制的准确性,这涉及到比较生成的视频中的检测到的边界框与真实边界框的一致性。
      • 视频质量则通过Fréchet Video Distance(FVD)分数和CLIP相似性分数(CLIPSIM)来衡量。

    通过这些步骤,Boximator能够在视频合成过程中实现对对象运动的精细控制,同时保持视频的高质量和逼真度。

    Boximator视频合成

    Boximator的应用场景

    • 电影和电视制作在电影和电视剧的后期制作中,Boximator可以用来生成或修改场景,例如添加或移除角色、调整动作场景,或者创造复杂的特效,而无需昂贵的现场拍摄。
    • 游戏开发游戏开发者可以使用Boximator来创建动态的游戏场景和角色动画,特别是在需要高度定制化或快速迭代内容时,这可以大大节省开发时间和成本。
    • VR和AR内容创作在虚拟现实(VR)和增强现实(AR)领域,Boximator可以用来生成逼真的虚拟环境和交互式对象,为用户提供沉浸式的体验。
  • V-JEPA:Meta推出的视觉模型,可以通过观看视频来学习理解物理世界

    V-JEPA是什么?

    V-JEPA(Video Joint-Embedding Predictive Architecture,视频联合嵌入预测架构)是由Meta的研究人员推出的一种新型的视频自监督学习方法,它专注于通过特征预测来学习视频的视觉表示。这种方法的核心思想是让模型能够预测视频中一个区域(称为目标区域y)的特征表示,这个预测基于另一个区域(称为源区域x)的特征表示。这种预测过程是在没有外部监督(如标注或预训练图像编码器)的情况下进行的,完全依赖于视频数据本身的结构和内容。

    Meta V-JEPA

    V-JEPA 的与众不同之处在于它的自我监督学习方法,该方法可以预测抽象特征空间内视频的缺失部分,而不是填充缺失像素的生成方法。该技术不是通过手动标注,而是通过像人类一样的被动观察来建立对视频片段的概念理解。

    V-JEPA的主要特点

    • 自监督学习:V-JEPA不依赖于预训练的图像编码器、文本、负例、像素级重构或其他形式的外部监督。它完全通过视频数据自身的特征预测来学习视觉表示。
    • 特征预测目标:V-JEPA的核心目标是预测视频帧之间的特征表示。这种目标允许模型学习到视频中的时间连续性和空间结构,而不仅仅是像素级别的信息。
    • 联合嵌入架构:V-JEPA采用了一种特殊的网络架构,其中包括一个编码器(x-encoder)和一个预测器(predictor)。编码器负责提取视频帧的特征表示,而预测器则基于这些特征来预测目标帧的特征。
    • 多块掩蔽策略:在训练过程中,V-JEPA使用多块掩蔽策略来处理视频帧。这种方法通过在视频的不同时间点上掩蔽不同的区域,迫使模型学习到更加鲁棒和全面的视频表示。
    • 高效的预训练数据集:V-JEPA在由200万个视频组成的大规模数据集上进行预训练,这些视频来自多个公共数据集,如HowTo100M、Kinetics-400/600/700和Something-Something-v2。
    • 无需模型参数调整:V-JEPA训练出的模型在多种下游任务上表现出色,且无需对模型参数进行调整。这意味着模型可以直接在冻结的状态下进行评估,或者通过少量的微调(fine-tuning)来适应新任务。
    • 标签效率:V-JEPA在有限的标注数据下也能取得良好的性能,这表明它在标签效率方面具有优势,这对于数据标注成本高昂的场景尤为重要。
    • 跨模态性能:V-JEPA不仅在视频任务上表现出色,如动作识别和运动分类,而且在图像任务上也有竞争力,如ImageNet图像分类。
    • 快速训练:V-JEPA在训练过程中表现出较高的效率,能够在相对较短的时间内学习到有效的视觉表示,这使得它在大规模视频数据集上的应用成为可能。

    V-JEPA的工作原理

    V-JEPA的工作原理基于自监督学习,它通过预测视频帧之间的特征表示来训练模型。

    V-JEPA的工作原理

    以下是V-JEPA工作流程的详细步骤:

    1. 视频预处理:首先,从输入视频中随机抽取一系列帧(例如16帧),并将这些帧转换为适合模型处理的格式。这通常包括将视频帧的空间分辨率调整到模型所需的大小(如224×224像素),并将帧序列转换为一系列空间-时间(spatio-temporal)的“tokens”。
    2. 编码器(Encoder):视频帧通过一个视觉Transformer(ViT)编码器,这个编码器将视频帧转换为一系列特征表示。编码器通常由多个Transformer层组成,能够捕捉视频帧之间的空间和时间关系。
    3. 掩蔽(Masking):在视频帧的特征表示中,随机选择一部分区域进行掩蔽(masking),这些掩蔽的区域将作为预测目标。掩蔽可以是短距离(short-range)或长距离(long-range),以确保模型能够学习到视频内容的不同尺度特征。
    4. 预测器(Predictor):预测器网络接收编码器输出的特征表示,并尝试预测被掩蔽区域的特征。预测器通常是一个较窄的Transformer,它通过学习视频帧之间的特征关系来生成预测。
    5. 损失函数:V-JEPA使用一个损失函数来衡量预测特征与实际特征之间的差异。这个损失函数通常是L1损失,它计算预测特征和目标特征之间的平均绝对误差。
    6. 训练过程:在训练过程中,模型通过反向传播算法调整编码器和预测器的权重,以最小化损失函数。同时,编码器的权重会以指数移动平均(EMA)的方式更新,以保持模型的稳定性。
    7. 下游任务评估:预训练完成后,V-JEPA模型可以在各种下游任务上进行评估,如动作识别、运动分类等。在这些任务中,模型可以通过一个称为“attentive probe”的轻量级网络来提取视频的特征表示,然后用于分类或其他任务。
    8. 微调(Fine-tuning):如果需要,V-JEPA模型可以在特定任务上进行微调。这通常涉及到在预训练模型的基础上添加一个或多个全连接层,并在有标签的数据集上进行训练。
  • Depth Anything – Tiktok等推出的单目深度估计模型

    Depth Anything是什么?

    Depth Anything是由来自Tiktok、香港大学和浙江大学的研究人员推出的一个为单目深度估计(Monocular Depth Estimation, MDE)设计的深度学习模型,旨在处理各种情况下的图像并估计其深度信息。该模型的核心特点是利用大规模的未标注数据来增强模型的泛化能力,使其能够在没有人工标注深度信息的情况下,对各种场景的图像进行准确的深度预测。

    Depth Anything

    Depth Anything的官网入口

    Depth Anything的主要特点

    • 鲁棒性:Depth Anything能够在各种环境条件下,如低光照、复杂场景、雾天和超远距离等情况下,提供准确的深度估计。
    • 零样本学习:模型能够在没有特定数据集训练的情况下,对未见过的图像进行深度估计,具有很强的泛化能力。
    • 数据增强:通过使用数据增强工具,如颜色抖动和高斯模糊,以及CutMix等空间扰动,模型能够在训练过程中学习到更丰富的视觉知识,从而提高其对未知图像的处理能力。
    • 语义辅助感知:Depth Anything利用预训练的编码器(如DINOv2)来提供丰富的语义信息,这有助于模型更好地理解场景内容,从而提高深度估计的准确性。
    • 多任务学习:模型不仅能够进行深度估计,还能够在多任务学习框架下进行语义分割,这表明它有潜力成为一个通用的多任务编码器,适用于中层和高层的视觉感知任务。

    Depth Anything的工作原理

    Depth Anything的工作原理基于深度学习和大规模数据集的结合,特别是利用未标注数据来增强模型的泛化能力。

    Depth Anything的工作原理

    以下是其工作原理的关键步骤:

    1. 数据收集与预处理
      • 首先,研究者们设计了一个数据引擎,用于从多个公共大型数据集中收集原始未标注的图像,这些图像覆盖了广泛的多样性,如不同的场景、光照条件和天气状况。
      • 然后,使用预训练的单目深度估计(MDE)模型对这些未标注图像进行深度预测,生成伪标签(pseudo labels),这些伪标签将用于后续的训练过程。
    2. 模型训练
      • 在第一阶段,使用从公共数据集中收集的标注图像训练一个教师模型(teacher model),这个模型将作为后续学生模型(student model)的基础。
      • 在第二阶段,学生模型在教师模型的帮助下,结合标注图像和伪标签图像进行联合训练。这一过程称为自训练(self-training)。
    3. 数据增强与挑战
      • 为了提高模型的鲁棒性,研究者们在未标注图像上应用了强扰动,如颜色失真和空间剪切(CutMix),迫使模型在训练过程中学习到更鲁棒的表示。
    4. 语义辅助
      • 为了增强模型的场景理解能力,研究者们采用了辅助特征对齐损失(feature alignment loss),使得学生模型在特征空间中与预训练的语义分割模型(如DINOv2)保持一致。这有助于模型在深度估计任务中更好地理解场景内容。
    5. 模型微调和评估
      • 在训练完成后,Depth Anything模型可以通过微调来适应特定的深度估计任务,如使用NYUv2和KITTI数据集的度量深度信息进行微调,以进一步提高其在特定任务上的性能。

    Depth Anything的应用场景

    • 机器人导航:在机器人领域,准确的深度信息对于机器人理解周围环境、规划路径和避免障碍物至关重要。Depth Anything可以帮助机器人在复杂或未知的环境中进行有效的导航。
    • 自动驾驶:自动驾驶系统需要精确的深度信息来识别道路、车辆、行人和其他障碍物,以确保安全驾驶。Depth Anything可以提供这些关键信息,增强自动驾驶车辆的环境感知能力。
    • 增强现实(AR)和虚拟现实(VR):在AR和VR应用中,Depth Anything可以用来估计现实世界中的深度信息,从而实现更自然和逼真的虚拟对象与现实世界的融合。
    • 3D重建:通过单目图像估计深度,Depth Anything可以辅助3D建模和重建,为建筑、城市规划、文化遗产保护等领域提供支持。
    • 游戏开发:在游戏开发中,Depth Anything可以用来增强游戏的视觉效果,通过估计场景深度来实现更真实的光影效果和景深效果。
  • AnimateDiff – 扩展文生图模型生成动画的框架

    AnimateDiff是什么?

    AnimateDiff是由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员推出的一款将个性化的文本到图像模型扩展为动画生成器的框架,其核心在于它能够利用从大规模视频数据集中学习到的运动先验知识,可以作为 Stable Diffusion 文生图模型的插件,允许用户将静态图像转换为动态动画。该框架的目的是简化动画生成的过程,使得用户能够通过文本描述来控制动画的内容和风格,而无需进行特定的模型调优。

    AnimateDiff

    AnimateDiff的官网入口

    AnimateDiff的功能特色

    • 个性化动画生成:AnimateDiff允许用户将个性化的文本到图像模型(如Stable Diffusion)转化为动画生成器。这意味着用户可以输入文本描述,模型不仅能够生成静态图像,还能生成与文本描述相符的动画序列。
    • 无需模型特定调整:AnimateDiff的核心优势在于它不需要对个性化模型进行额外的调整。用户可以直接使用框架中预训练的运动建模模块,将其插入到个性化T2I模型中,实现动画生成。
    • 保持风格特性:在生成动画的过程中,AnimateDiff能够保持个性化模型的领域特性,确保生成的动画内容与用户定制的风格和主题保持一致。
    • 跨领域应用:AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,使得用户可以在不同风格和主题之间自由切换,创作多样化的动画内容。
    • 易于集成:AnimateDiff的设计使得它易于与现有的个性化T2I模型集成,用户无需具备深厚的技术背景即可使用,大大降低了使用门槛。

    AnimateDiff的工作原理

    AnimateDiff的工作原理

    1. 运动建模模块的插入:首先,AnimateDiff在现有的文本到图像模型中插入一个专门设计的运动建模模块。这个模块负责理解和生成动画中的运动信息,它被设计为能够在模型的不同分辨率层次上工作,以确保生成的动画在细节上保持一致性。
    2. 视频数据训练:运动建模模块通过在大规模视频数据集上进行训练,学习视频中的运动模式。这个训练过程是在模型的冻结状态下进行的,即基础T2I模型的参数保持不变,以避免影响其原有的图像生成能力。
    3. 时间维度的注意力机制:AnimateDiff使用标准的注意力机制(如Transformer中的自注意力)来处理时间维度。这种机制允许模型在生成动画的每一帧时,都能够考虑到前一帧和后一帧的信息,从而实现平滑的过渡和连贯的动作。
    4. 动画生成:待运动建模模块训练完成,它就可以被插入到任何基于同一基础文生图模型的个性化模型中。在生成动画时,用户输入文本描述,模型会结合文本内容和运动建模模块学习到的运动先验知识,生成与文本描述相符的动画序列。
  • MotionCtrl – 腾讯等推出的视频生成模型的运动控制器

    MotionCtrl是什么

    MotionCtrl是由来自腾讯、香港大学、上海AI实验室、清华大学、广东工业大学等机构的研究人员推出的一个为视频生成模型设计的统一且灵活的运动控制器,能够独立地控制视频中的相机运动和物体运动视角。该系统由两个主要模块组成:相机运动控制模块和物体运动控制模块,可以与潜在视频扩散模型协同工作,以实现对生成视频中运动视角的精确控制。

    MotionCtrl

    MotionCtrl的官网入口

    MotionCtrl的功能特色

    • 搭配模型生成视频:MotionCtrl能够搭配视频生成模型(如VideoCrafter、Stable Video Diffusion)根据文本提示生成视频,这些视频不仅包含静态图像,还包括连贯和流畅的运动效果。
    • 控制相机运动:用户可以指定相机在视频中的运动方式,例如平移(左右、上下移动)、缩放(放大或缩小)、旋转(顺时针或逆时针转动)等,MotionCtrl能够根据这些指令生成相应的视频。
    • 控制物体运动:MotionCtrl能够控制视频中物体的运动轨迹,比如物体在场景中的移动路径、速度和方向,使得物体的运动与文本描述或用户指定的轨迹相匹配。
    • 组合运动控制:MotionCtrl不仅能够独立控制相机和物体运动,还能够同时控制两者,实现复杂的运动效果,如相机在追踪物体的同时进行平移或旋转。
    • 适应多种相机姿态和轨迹:经过训练后,MotionCtrl能够适应各种不同的相机姿态和物体运动轨迹,无需为每种新情况重新训练模型。

    MotionCtrl的工作原理

    MotionCtrl的工作原理主要基于两个核心模块:相机运动控制模块(CMCM)和物体运动控制模块(OMCM),以及它们与潜在视频扩散模型(LVDM)的协同工作。

    MotionCtrl的工作原理

    以下是MotionCtrl工作原理的详细步骤:

    1. 相机运动控制(CMCM)
      • CMCM接收一系列相机姿态(包括旋转矩阵和位移矩阵),这些姿态描述了相机在视频中的运动路径。
      • CMCM通过与LVDM中的时间变换器(temporal transformers)交互,将相机姿态信息融合到视频生成过程中。
      • 在时间变换器的第二个自注意力模块中,相机姿态序列被扩展并与时间步信息结合,然后通过全连接层处理,以便在后续的时间变换器中使用。
      • 这样,生成的视频将遵循指定的相机运动,如平移、缩放和旋转,从而实现对全局场景运动的控制。
    2. 物体运动控制(OMCM)
      • OMCM负责处理视频中物体的运动轨迹,这些轨迹通常表示为物体在每一帧中的空间位置。
      • OMCM利用卷积层和下采样操作从轨迹中提取多尺度特征,并将这些特征空间地融合到LVDM的卷积层中。
      • 通过这种方式,OMCM能够指示视频中物体在每一帧中的位置,实现对物体局部运动的控制。
    3. 训练策略
      • MotionCtrl的训练分为两个阶段。首先,使用Realestate10K数据集训练CMCM,这个数据集包含了视频剪辑和相机姿态注释,但缺少物体运动轨迹。
      • 然后,使用WebVid数据集和通过ParticleSfM算法合成的物体运动轨迹来训练OMCM。这个数据集包含了视频剪辑、标题和物体运动轨迹。
      • 在训练过程中,CMCM和OMCM作为适配器模块(adapter-like modules)被添加到预训练的LVDM模型上,允许它们独立训练,而不影响LVDM的其他部分。
    4. 视频生成
      • 在视频生成阶段,MotionCtrl根据文本提示,结合相机姿态和物体运动轨迹,生成与文本描述相符的视频。
      • LVDM首先从噪声中生成视频的潜在表示,然后CMCM和OMCM根据给定的运动条件调整视频的全局和局部运动,最终生成具有指定运动效果的视频。
  • Genmo – AI生成视频、图片和动画的平台

    Genmo是什么

    Genmo是一个专注于人工智能的创意平台,用户可以在 Genmo 上创建视频、动画、图像等。该平台提供了一系列的工具和服务,旨在帮助用户通过AI技术轻松创作和分享各种形式的艺术和媒体内容,让内容创作更加便捷和高效,同时激发用户的想象力和创造力。

    Genmo AI

    Genmo的主要功能

    • 文本到视频生成:Genmo AI 的一个主要功能是能够将文本描述转换为视频内容。其提供的 Genmo Replay 是一个先进的文本到视频生成模型,可以根据用户输入的简短描述合成高质量的视频片段。这些视频具有高清输出和逼真的视觉效果,支持多种宽高比,适合在不同的社交媒体平台上分享。
    • 3D资产和动画:Genmo Chat 允许用户生成3D资产,如3D模型和360度视频。用户可以上传图片并将其转换为3D,或者请求生成特定的3D对象。
    • 图像编辑和动画:用户可以上传静态图片并指示 Genmo 对图片的特定部分进行动画处理。例如,用户可以要求 Genmo 仅对夜空进行时间流逝动画,而保持其他部分静止。
    • 电影生成和编辑:Genmo AI 可以帮助用户从头开始生成和编辑电影。用户可以提出电影的概念,Genmo 会协助生成想法、场景和过渡,甚至自动选择与剧情相匹配的过渡和文本叠加。
    • 脚本创作和预告片生成:Genmo AI 还可以帮助用户创作电影脚本,并根据脚本生成预告片。用户可以与 Genmo 合作,细化创意,然后由 Genmo 生成相应的视觉内容。
    • 照片编辑:Genmo AI 支持使用自然语言指令来编辑和创建照片,用户可以指示AI替换内容或改变图像风格。
    • 应用图标设计:Genmo AI 还可以生成应用图标,并根据用户反馈生成图标的不同变体。

    Genmo Text to Video

    如何使用Genmo生成视频

    1. 访问Genmo的官网(genmo.ai),点击左下角Login按钮进行登录
    2. 在左侧的Create列选择Videos,然后输入视频描述
    3. 设置视频比例、时长、相机视角、视频效果等
    4. 最后点击Submit提交等待视频生成即可

    Genmo AI的产品价格

    • 免费版:每天提供免费的100积分用户生成作品、带有水印、基于 CC-BY-NC 4.0 的许可证
    • Turbo付费版:10美元每月,每天提供1000积分、生成的作品无水印、可用于商业用途

    Genmo的价格