Blog

  • Stable Video 3D (SV3D) – 多视角合成和3D生成模型,由Stability AI推出

    Stable Video 3D是什么

    Stable Video 3D(简称SV3D)是由Stability AI公司开发的一个多视角合成和3D生成模型,能够从单张图片生成一致的多视角图像,并进一步优化生成高质量的3D网格模型。该模型在之前发布的Stable Video Diffusion模型的基础上进行了改进,提供了更好的质量和多视角体验。相较于其他的3D生成模型,SV3D的主要优势在于其使用视频扩散模型而不是图像扩散模型,这在生成输出的泛化性和视角一致性方面提供了显著的好处。

    Stable Video 3D (SV3D)

    Stable Video 3D的功能特性

    • 多视角视频生成:SV3D能够从单张图片输入生成多个视角的视频内容。用户可以从不同的方向和角度查看对象,每个视角都是高质量的,并且保持了视角之间的一致性。
    • 3D网格创建:通过使用生成的多视角视频和Stable Video 3D模型,用户可以创建对象的3D网格。这些3D网格是从二维图像中推断出来的,可以用于各种3D应用,如游戏开发、虚拟现实、增强现实等。
    • 轨道视频生成:Stable Video 3D提供了生成围绕对象的轨道视频的能力,允许用户创建围绕对象旋转或移动的视频,提供了一种动态的视角体验。
    • 相机路径控制:SV3D支持沿着指定的相机路径创建3D视频,用户可以精确控制视频的视角和相机运动,为创作提供了更高的自由度。
    • 新视角合成(NVS):SV3D在新视角合成方面取得了显著进展,能够从任何给定的角度生成一致且逼真的视图,提高了3D生成的真实感和准确性。

    Stable Video 3D的官网入口

    Stable Video 3D的工作原理

    SV3D的架构

    1. 新视角合成(NVS):
      • 输入图像:用户提供的单张2D图像作为输入,该图像包含一个或多个对象。
      • 相机姿态控制:定义一个相机轨迹,包括一系列的角度(仰角和方位角),用于控制生成图像的视角。
      • 潜在视频扩散模型:使用一个训练有素的潜在视频扩散模型(如Stable Video Diffusion – SVD),该模型能够根据输入图像和相机姿态生成一系列新的视角图像。这些图像模拟了围绕3D对象的轨道视频。
    2. 3D表示优化:
      • 粗略3D重建:使用生成的多视角图像作为目标,通过训练一个NeRF(Neural Radiance Fields)模型来重建3D对象的粗略表示。这个步骤在较低分辨率下进行,以捕捉对象的大致形状和纹理。
      • 网格提取:从训练好的NeRF模型中提取一个初步的3D网格,通常使用Marching Cubes算法。
      • 精细优化:采用DMTet(Deep Marching Tetrahedra)表示来进一步细化3D网格,这个步骤在高分辨率下进行,以提高细节的准确性和网格的质量。
    3. 改进的3D优化技术:
      • 掩蔽分数蒸馏采样(SDS)损失:为了提高不可见区域的3D质量,SV3D引入了一种掩蔽分数蒸馏采样损失。这种损失函数专注于在训练过程中填充和优化那些在参考视角中不可见的区域。
      • 解耦照明模型:SV3D还提出了一种解耦照明模型,该模型独立于3D形状和纹理进行优化,以减少由于固定照明条件导致的渲染问题。
    4. 训练和评估:
      • 数据集:SV3D在包含多样化3D对象的数据集上进行训练,如Objaverse数据集。
      • 评估:通过与真实世界的3D数据和其他NVS方法的比较,评估SV3D生成的多视角图像和3D网格的质量。
  • VLOGGER – 谷歌推出的图像到合成人物动态视频的模型

    VLOGGER是什么

    VLOGGER AI是谷歌的研究团队开发的一个多模态扩散模型,专门用于从单一输入图像和音频样本生成逼真的、连贯的人像动态视频。该模型的主要功能在于使用人工智能模型,将一张静态图片转换成一个动态的视频角色,同时保持照片中人物的逼真外观。此外,VLOGGER还能够根据音频来控制人物动作,不仅仅是面部动作和嘴唇同步,还包括头部运动、目光、眨眼以及上身和手部手势,从而将音频驱动的视频合成推向了一个新的高度。

    Google VLOGGER AI

    VLOGGER的官网入口

    VLOGGER的功能特性

    • 图像和音频驱动的视频生成: VLOGGER能够根据单张人物图像和相应的音频输入生成说话人类的视频。用户只需提供一张图片和一段音频,VLOGGER将生成一个视频中的人物,其面部表情、嘴唇动作和身体语言与音频同步。
    • 多样性和真实性: VLOGGER生成的视频具有高度的多样性,能够展示原始主体的不同动作和表情,同时保持背景的一致性和视频的真实性。
    • 视频编辑: VLOGGER可以用于编辑现有视频,例如改变视频中人物的表情,使其与原始视频的未改变像素保持一致。
    • 生成移动和说话的人物: VLOGGER可以从单张输入图像和驱动音频生成说话面部的视频,即使没有视频中人物的原始视频资料。
    • 视频翻译: VLOGGER能够将一种语言的视频转换为另一种语言的视频,通过编辑唇部和面部区域以匹配新的音频,实现跨语言的视频内容适配。

    VLOGGER的工作原理

    VLOGGER的工作原理主要基于一个两阶段的流程,结合了音频驱动的运动生成和时间连贯的视频生成。

    VLOGGER AI的工作原理

    第一阶段:音频驱动的运动生成

    1. 音频处理:VLOGGER首先接收一段音频输入,这可以是语音或音乐。如果输入是文本,它也会通过文本到语音(TTS)模型转换为音频波形。
    2. 3D运动预测:接着,系统使用一个基于变换器(Transformer)架构的网络来处理音频输入。这个网络被训练来预测与音频同步的3D面部表情和身体姿势。网络使用多步注意力层来捕捉音频的时间特征,并生成一系列的3D姿势参数。
    3. 生成控制表示:网络输出的是一系列预测的面部表情(θe i)和身体姿势的残差(∆θb i)。这些参数随后用于生成控制视频生成过程的2D表示。

    第二阶段:时间连贯的视频生成

    1. 视频生成模型:VLOGGER的第二个阶段是一个时间扩散模型,它接收第一阶段生成的3D运动控制和一张参考图像(即输入的单一人物图像)。
    2. 条件化视频生成:视频生成模型是一个基于扩散的图像到图像翻译模型,它利用预测的2D控制来生成一系列帧,这些帧按照输入的音频和3D运动参数进行动画处理。
    3. 超分辨率:为了提高视频质量,VLOGGER还包括一个超分辨率扩散模型,它将基础视频的分辨率从128×128提升到更高的分辨率,如256×256或512×512。
    4. 时间外延:VLOGGER使用时间外延(temporal outpainting)的技术来生成任意长度的视频。它首先生成一定数量的帧,然后基于前一帧的信息迭代地生成新的帧,从而扩展视频的长度。

    数据集和训练

    • VLOGGER在名为MENTOR的大规模数据集(2200个小时和800000个身份)上进行训练,这是一个包含大量身份和动态手势的大规模数据集。训练过程中,模型学习如何根据3D姿势参数和输入图像生成连贯的、高质量的视频序列。
  • Open-Sora – 开源的类Sora架构的视频生成模型和复现方案

    Open-Sora是什么

    Open-Sora是由Colossal-AI团队开源的视频生成模型,旨在复现OpenAI的Sora视频生成产品。Open-Sora同样基于DiT架构,通过三个阶段训练:大规模图像预训练、大规模视频预训练和高质量视频数据微调,以生成与文本描述相符的视频内容。该开源解决方案涵盖了整个视频生成模型的训练过程,包括数据处理、所有训练细节和模型检查点,供所有对文生视频模型感兴趣的人免费学习和使用。

    Open-Sora

    Open-Sora的官网入口

    Open-Sora的模型架构

    Open-Sora模型采用当前流行的Diffusion Transformer(DiT)架构,使用华为开源的PixArt-α高质量文本到图像生成模型,并通过添加时间注意力层将其扩展为生成视频。具体设计如下:
    Open-Sora的架构

    核心组件

    • 预训练的VAE (变分自编码器):VAE是用于数据压缩的组件,它将输入的视频数据映射到一个潜在空间的低维表示。在Open-Sora中,VAE的编码器部分在训练阶段用于压缩视频数据,而在推理阶段,它从潜在空间中采样高斯噪声并生成视频。
    • 文本编码器:这个组件负责将文本提示(如描述视频内容的句子)转换为文本嵌入,这些嵌入随后与视频数据结合,以确保生成的视频符合文本描述。
    • STDiT (Spatial Temporal Diffusion Transformer):这是Open-Sora的核心组件,一个利用空间-时间注意力机制的DiT模型。STDiT通过串行地在二维空间注意力模块上叠加一维时间注意力模块来建模视频数据中的时序关系。此外,交叉注意力模块用于对齐文本的语义信息。

    架构设计

    • 空间-时间注意力机制:STDiT模型的每一层都包含空间注意力模块和时间注意力模块。空间注意力模块处理视频帧的二维空间特征,而时间注意力模块则处理帧之间的时序关系。这种设计使得模型能够有效地处理视频数据中的空间和时间维度。
    • 交叉注意力:在时间注意力模块之后,交叉注意力模块用于将文本嵌入与视频特征融合,确保生成的视频内容与文本描述相匹配。
    • 训练与推理流程:在训练阶段,VAE的编码器将视频数据压缩,然后与文本嵌入一起用于训练STDiT模型。在推理阶段,从VAE的潜在空间中采样出噪声,与文本提示一起输入到STDiT模型中,生成去噪后的特征,最后通过VAE的解码器解码得到最终的视频。
      Open-Sora模型训练过程

    Open-Sora的复现方案

    Open-Sora的训练复现方案参考了Stable Video Diffusion (SVD)的工作,分为三个阶段:大规模图像预训练、大规模视频预训练和高质量视频数据微调。通过这三个阶段的训练复现方案,Open-Sora模型能够逐步提升其视频生成的能力,从基础的图像理解到复杂的视频内容生成,最终达到高质量的视频生成效果。

    第一阶段:大规模图像预训练

    在第一阶段,模型通过大规模图像数据集进行预训练,以建立对图像内容的基本理解。这个阶段的目的是利用现有的高质量图像生成模型(如Stable Diffusion)作为基础,来初始化视频生成模型的权重。通过这种方式,模型能够从图像数据中学习到丰富的视觉特征,为后续的视频预训练打下坚实的基础。

    第二阶段:大规模视频预训练

    第二阶段专注于大规模视频数据的预训练,目的是增强模型对视频时间序列的理解。在这个阶段,模型通过大量的视频数据进行训练,以学习视频中的时序关系和动态变化。为了提高模型的泛化能力,需要确保视频题材的多样性。此外,模型在这个阶段会加入时序注意力模块,以更好地处理时间序列数据。这个阶段的训练会在第一阶段的基础上进行,使用前一阶段的权重作为起点。

    第三阶段:高质量视频数据微调

    最后一个阶段是对模型进行微调,使用高质量的视频数据来进一步提升生成视频的质量和真实感。在这个阶段,虽然使用的视频数据量可能比第二阶段少,但视频的时长、分辨率和质量都会更高。微调过程有助于模型捕捉到更加细致和逼真的视频内容,从而生成更加符合用户期望的视频。

  • Grok-1 – 马斯克旗下xAI开源的大模型,参数量3140亿

    Grok-1是什么

    Grok-1 是由马斯克旗下的人工智能初创公司 xAI 开发的一款大型语言模型,是一个混合专家(MoE)模型,拥有 3140 亿参数,使其成为目前参数量最大的开源大语言模型。Grok-1 的开发和训练过程遵循了开源的原则,其权重和网络架构已经公开,基于Apache 2.0许可,允许用户自由地使用、修改和分发,用于个人和商业用途。

    Grok-1

    Grok-1的官网入口

    Grok-1的模型信息

    根据xAI官方的模型介绍(https://x.ai/model-card/),Grok-1的信息如下:

    项目 详细信息
    模型细节 Grok-1是一个基于Transformer的自回归模型,预训练用于下一个token预测。该模型通过来自人类和早期Grok-0模型的广泛反馈进行了微调。初始版本的Grok-1具有8192个token的上下文长度,并在2023年11月发布。
    预期用途 Grok-1旨在用作Grok聊天机器人背后的引擎,用于包括问答、信息检索、创意写作和编码辅助在内的自然语言处理任务。
    局限性 虽然Grok-1在信息处理方面表现出色,但是需要人类审查Grok-1的工作以确保准确性。Grok-1语言模型没有能力独立搜索网络。在Grok中部署时,搜索工具和数据库增强了模型的能力和事实性。即使在访问外部信息源的情况下,模型仍然可能产生幻觉。
    训练数据 Grok-1发布版本使用的训练数据来自截至2023年第三季度的互联网和xAI的AI训练人员提供的数据。
    评估 Grok-1在一系列推理基准任务和精选的外国数学考试问题上进行了评估。xAI已与早期alpha测试者接触,评估了包括对抗性测试在内的Grok-1版本。xAI正在通过Grok早期访问扩大我们的早期采用者范围,以便进行封闭beta测试。

    Grok-1的技术细节

    • 基础模型和训练:Grok-1是基于大量文本数据进行训练的,没有针对任何具体任务进行微调。这意味着它是一个通用的语言模型,可以应用于多种不同的自然语言处理任务。它的训练从头开始,使用JAX库和Rust语言组成的自定义训练堆栈。
    • 参数数量:Grok-1拥有3140亿个参数,是目前参数量最大的开源大语言模型。这些参数在给定token上的激活权重为25%,表明了模型的规模和复杂性。
    • 混合专家模型(MoE):Grok-1采用了混合专家系统的设计,这是一种将多个专家网络(expert networks)结合起来的方法,以提高模型的效率和性能。在Grok-1中,每个token从8个专家中选择2个进行处理。
    • 激活参数:Grok-1的激活参数数量为860亿,这比Llama-2的70B参数还要多,表明其在处理语言任务时的潜在能力。
    • 嵌入和位置嵌入:Grok-1使用旋转嵌入而非固定位置嵌入,这是一种处理序列数据的方法,可以提高模型处理长文本的能力。Tokenizer词汇大小为131,072,类似于GPT-4,嵌入大小为6,144。
    • Transformer层:模型包含64个Transformer层,每层都包含一个解码器层,由多头注意力块和密集块组成。多头注意力块有48个头用于查询,8个头用于键/值(KV),KV大小为128。密集块(密集前馈块)的加宽因子为8,隐藏层大小为32,768。
    • 量化:Grok-1还提供了一些权重的8bit量化内容,这有助于减少模型的存储和计算需求,使其更适合在资源有限的环境中运行。
    • 运行要求:由于Grok-1是一个规模较大的模型(314B参数),因此需要有足够的GPU内存的机器才能运行。据估计,可能需要一台拥有628GB GPU内存的机器(每个参数2字节)。
  • AutoDev – 微软推出的AI编程和程序开发智能体框架

    AutoDev是什么

    AutoDev是由微软的研究人员推出的一个AI编程工具,专门设计用于自主规划和执行复杂的软件工程任务,如代码编写、调试、测试和版本控制等。AutoDev的目标是提高软件开发的效率和质量,同时减少开发人员在某些重复性或繁琐任务上的负担。

    AutoDev

    AutoDev的主要功能

    • 目标定义与任务分配:用户可以定义复杂的软件工程目标,AutoDev将这些目标分配给自主AI智能体来实现。这包括但不限于代码编写、测试、构建和部署等任务。
    • 代码生成:AutoDev能够根据用户的需求生成代码,这可能包括新功能的实现、现有代码的改进或优化等。
    • 测试生成与执行:AutoDev可以创建测试用例,并执行这些测试来验证代码的正确性。它能够分析测试结果,并在必要时对代码进行调整以修复错误。
    • 代码维护与调试:AutoDev能够对现有代码进行审查和维护,包括识别和修复潜在的错误、优化代码性能以及更新代码以适应新的需求。
    • 版本控制:AutoDev支持Git操作,可以帮助管理代码版本,包括提交、推送和合并等操作。
    • 文件编辑与管理:AutoDev可以执行文件编辑任务,如添加、修改或删除代码库中的文件内容。
    • 检索与信息提取:AutoDev能够从代码库中检索信息,帮助完成如代码复用、模式识别和知识提取等任务。
    • 构建与执行:AutoDev可以编译、构建和执行代码库,确保代码的可运行性和性能。
    • 多智能体协作:AutoDev的架构支持多个智能体协同工作,每个智能体都有特定的角色和责任,共同完成复杂的软件工程任务。
    • 对话管理:AutoDev通过对话管理器与用户进行交互,管理会话历史,并确保用户与AI智能体之间的有效沟通。
    • 安全与隐私维护:AutoDev在Docker环境中执行任务,确保操作的安全性和隐私性,防止潜在的安全风险。
    • 自我评估与迭代:AutoDev能够自我评估其生成的代码和测试,通过迭代过程不断改进和优化任务执行的效果。

    AutoDev的架构组成

    AutoDev主要由四个功能模块组成,该技术架构设计使其能够自动化复杂的软件工程任务,同时保持高效、安全和可控。这种架构允许AutoDev在没有人类干预的情况下自主完成任务,同时提供了灵活性,允许用户根据自己的需求定制AutoDev的行为。

    AutoDev的工作流程

    1. 对话管理器(Conversation Manager)
      • 负责初始化和管理会话历史。
      • 维护来自AI智能体和评估环境的操作结果。
      • 包含解析器、输出组织器和对话终止器,用于解释代理响应、组织输出信息和决定会话结束的时机。
    2. 工具库(Tools Library)
      • 提供了一系列命令,使AI智能体能够对代码库执行操作。
      • 包括文件编辑、检索、构建与执行、测试与验证、Git操作和通信等类别的命令。
    3. 代理调度器(Agents Scheduler)
      • 负责协调AI智能体以实现用户定义的目标。
      • 使用循环、基于令牌或基于优先级的算法来决定代理参与对话的顺序和方式。
    4. 评估环境(Evaluation Environment)
      • 在Docker容器中运行,安全地执行文件编辑、检索、构建、执行和测试命令。
      • 提供了一个简化的界面给AI智能体,抽象了底层命令的复杂性。
    5. AI智能体(Agents)
      • 由大型语言模型(如OpenAI GPT-4)和为代码生成优化的小型语言模型组成。
      • 接收目标和对话历史,根据规则和行动配置指定行动。
    6. 规则、行动和目标配置
      • 用户通过YAML文件配置规则和操作来启动流程。
      • 定义了AI代理可以执行的命令(操作)和用户可以启用/禁用的特定命令。
  • Follow-Your-Click – 腾讯等开源的图像到视频模型,可生成局部动画

    Follow-Your-Click是什么

    Follow-Your-Click是一个由来自腾讯公司(混元团队)联合清华大学和香港科技大学的研究人员共同研发的图像到视频(Image-to-Video,简称I2V)生成模型,允许用户通过简单的点击和简短的动作提示来生成局部图像动画,从而将静态图像转换为动态视频。该模型旨在解决现有的大多数图像到视频方法并不具备局部动画的特性,只能移动整个场景。

    Follow Your Click

    Follow-Your-Click的官网入口

    Follow-Your-Click的主要功能

    • 简单友好的交互:Follow-Your-Click提供了直观的用户控制界面,用户可以通过简单的点击来指定动画区域,并通过简短的提示词来定义动画类型和动作。
    • 局部动画生成:用户可以通过点击图像中的特定区域,使这些区域产生动画效果。即用户可以选择图像的任何部分,并为其添加动态效果,如让物体微笑、摇摆或移动。
    • 多对象动画:模型支持对图像中的多个对象同时进行动画处理,允许用户创建更为丰富和复杂的动态场景。
    • 简短动作提示:用户只需提供简短的动作描述,模型就能够理解并生成相应的动画效果。简化了动画制作过程,使得用户无需进行复杂的操作或提供冗长的描述。
    • 高质量视频生成:模型采用了先进的技术策略,如第一帧遮罩策略和基于光流的运动幅度控制,以确保生成的视频具有高质量和真实感。
    • 运动速度控制:模型还允许用户控制动画对象的运动速度,通过精确的控制来满足不同的动画需求。

    Follow-Your-Click的工作原理

    1. 用户交互用户首先通过点击图像上的特定位置来选择需要动画化的对象区域。这种交互方式简单直观,不需要用户进行复杂的操作或提供详细的描述。接着,用户提供一个简短的动作提示,如“摇动身体”或“微笑”,来指定所选区域应执行的动作。
    2. 图像分割为了将用户的点击转换为可以用于动画的区域掩码,框架集成了SAM(Segment Anything)工具。SAM是一个可提示的图像分割工具,能够根据用户的点击生成高质量的对象掩码。Follow Your Click工作架构
    3. 第一帧遮罩策略为了提高视频生成质量,框架采用了第一帧遮罩策略。在训练过程中,输入图像的潜在表示(latent representation)会被随机遮罩一部分,以增强模型学习时间相关性的能力。这种方法显著提高了生成视频的质量。
    4. 运动增强模块为了使模型能够更好地响应简短的动作提示,框架设计了一个运动增强模块。该模块通过一个新的交叉注意力层来增强模型对动作相关词汇的响应。在训练阶段,该模块使用短动作提示进行训练,而在推理阶段,这些提示被输入到运动增强模块和U-Net的交叉注意力模块中。
    5. 基于光流的运动幅度控制传统的运动强度控制依赖于调整每秒帧数(FPS)。然而,这种方法不能精确控制单个对象的运动速度。为了准确学习运动速度,框架提出了一种基于光流的运动幅度控制方法。通过计算光流的平均幅度并将其投影到位置嵌入中,可以在所有帧中一致地应用运动强度。
    6. 视频生成在推理阶段,用户点击的位置和简短的动作提示被用来生成动画视频。模型结合了用户指定的区域掩码和动作提示,生成了一系列连贯的动画帧,同时保持了输入图像的其余部分静止。
  • Comflowy – 基于 ComfyUI 工作流转化为 AI 工具的平台

    Comflowy是什么

    Comflowy 是专注于将 ComfyUI 工作流转化为盈利工具的平台,帮助 AI 创作者高效实现从创意到收入的转变。简洁的界面设计,让用户轻松将工作流转化为熟悉的应用界面,支持全球主要货币,方便创作者向全球用户销售作品。Comflowy 提供了超过 100 个预安装的扩展,无需手动下载和安装,避免了常见错误,还配备了强大的云 GPU,避免“CUDA 内存不足”问题,速度提升 10 倍,拥有 80GB 内存。支持市场上所有主流 AI 模型,包括一些闭源模型,用户只需按需付费,节省成本。

    Comflowy

    Comflowy的主要功能

    • 系统化教程:提供更完善、系统的 ComfyUI 和 Stable Diffusion 教程,帮助用户更好地理解和使用这些工具。
    • 互动交流:设有 Discord 社群,供用户交流学习、分享经验和讨论问题。
    • 内容数据库:建立 Workflow 和模型内容数据库,方便用户分享和获取高质量的工作流模板,同时帮助用户选择合适的 AI 模型。
    • 工作流管理:软件内置了工作流管理功能,允许用户查看、管理和运行历史工作流。用户无需手动导出和保存他们的工作流,从而提高了工作效率。
    • 强大的模型支持:Comflowy 支持加载 ComfyUI 内的所有模型,无需重新下载,不会占用额外的存储空间。兼容 ComfyUI 的各种第三方插件,扩展了功能和可能性。用户可以通过 Comflowy 使用市场上所有主流的 AI 模型,包括一些闭源模型,如 Ideogram 和 Flux Pro。
    • 灵活的节点系统:Comflowy 采用基于节点的工作流设计,用户可以通过连接不同的节点来影响 AI 的输出结果。例如,添加 LoRA 节点可以生成特定风格的图像, InstantID 节点则可以创建与原始图像面部特征相同的图像。
    • 用户友好的界面:软件对用户体验进行了优化,提供了更加直观和友好的界面设计,使得用户在使用过程中感到更加舒适和便捷。

    Comflowy的官网地址

    如何使用Comflowy

    • 使用 Comflowy 云端版本
      • 注册账号:访问 Comflowy 的官方网站,注册账号。云端版本需要付费订阅,不支持免费试用。
      • 生成第一张图片:注册完成后,登录云端版本,新建一个工作流。运行默认工作流,点击底部的 Run 按钮启动工作流。云端版本支持多种 GPU 选项,推荐使用 A10G,具体介绍可查看帮助中心文档。
      • 尝试内置模板:云端版本内置了多种工作流模板,可以直接选择使用。
    • 使用 Comflowy 本地版本
      • 安装:访问 Comflowy 官网 或 GitHub 页面下载安装包。根据操作系统选择适合的版本(Windows 或 Mac),下载并安装。
      • 下载模型:根据电脑配置选择合适的模型:
        • 显存小于 4GB 或内存小于 16GB 的设备,推荐使用 Stable Diffusion v1.5。
        • 显存大于 8GB 或内存大于 16GB 的设备,推荐使用 Stable Diffusion XL。
        • 模型下载完成后,将模型文件放入 checkpoint 文件夹中。
      • 导入模型:打开 Comflowy,切换到 Models 界面,点击右上角的 Model Folder 按钮,进入 checkpoint 文件夹,将下载好的模型放入其中。点击 Refresh 按钮,完成模型导入。
      • 生成第一张图片:点击 My Workflow 界面,点击 New Workflow 按钮,进入工作流界面。在节点下拉框中选择之前导入的模型,点击 Generate 按钮,等待生成完成。
      • 进阶学习:学习 Stable Diffusion 的基础知识,更好地理解 AI 图像生成原理。根据需求学习文生图或图生图的相关技巧。

    Comflowy的应用场景

    • 室内设计:通过 ControlNet 模型,Comflowy 可以根据提供的设计底图生成具有相同结构的图像。例如,使用 Canny 模型可以生成与原图构图一致但风格不同的室内设计图。
    • 快速手绘生成:设计师可以通过导入手绘草图,用 AI 生成可供商用的设计稿。例如,使用 Scribbles 模型可以快速将手绘稿转化为高质量的设计图。
    • 艺术风格转换:添加 LoRA 节点可以生成特定风格的图像,例如将普通照片转换为油画或动漫风格。
    • 视频生成:Comflowy 支持生成视频内容,用户可以通过构建工作流来生成动态的视觉效果。
  • Pix2Gif – 微软推出的静态图像转动态GIF的扩散模型

    Pix2Gif是什么

    Pix2Gif是由微软研究院的研究人员提出的一个基于运动引导的扩散模型,专门用于将静态图像转换成动态的GIF动画/视频。该模型通过运动引导的扩散过程来实现单张图像到GIF的生成,利用文本描述和运动幅度提示作为输入,来引导图像内容的动态变化。此外,Pix2Gif还引入了感知损失,以保持生成的GIF帧与目标图像在视觉上的一致性和连贯性。

    Pix2Gif

    Pix2Gif的官网入口

    Pix2Gif的功能特性

    • 文本引导的动画生成:用户可以通过输入文本描述来指导模型生成符合特定主题或动作的GIF动画,模型会根据文本内容理解并创造出相应的动态视觉效果。
    • 运动幅度控制:Pix2Gif允许用户指定运动幅度,从而控制GIF中动作的强度和速度。这为用户提供了精细的运动控制能力,可创造出从缓慢微妙到快速剧烈的不同动态效果。
    • 运动引导的图像变换:模型使用运动引导变形模块来根据文本提示和运动幅度在空间上变换源图像的特征,创造出连贯的动态帧。
    • 感知损失优化:为了确保生成的GIF在视觉上与源图像保持一致,Pix2Gif采用了感知损失函数,以保持高级视觉特征的一致性,如颜色、纹理和形状等。

    Pix2Gif的工作原理

    Pix2Gif的工作原理基于扩散模型的原理,结合了文本引导和运动幅度控制来生成动态GIF动画。以下是Pix2Gif工作原理的详细步骤:

    Pix2Gif的工作原理

    1. 输入处理
      • 文本提示:用户提供一个描述所需动画内容的文本提示。
      • 运动幅度:用户还可以指定一个运动幅度值,该值量化了期望在GIF中表现的运动强度。
    2. 特征提取与编码
      • 源图像编码:源图像通过一个编码器(例如VQ-VAE)转换成潜在空间中的向量表示。
      • 文本嵌入:文本提示通过预训练的语言模型(如CLIP)处理,得到文本的嵌入表示。
      • 运动嵌入:运动幅度值也被嵌入为一个向量,以便与文本嵌入一起作为模型的条件输入。
    3. 运动引导变形
      • FlowNet (FNet):一个子网络,根据文本和运动嵌入生成一个光流特征图,该图表示图像中的运动方向和幅度。
      • WarpNet (WNet):另一个子网络,它使用光流特征图和源图像的潜在表示来生成一个变形后的潜在表示。
    4. 潜在扩散过程
      • 逆扩散:Pix2Gif模型在潜在空间中执行逆扩散过程,这是一个逐步去除噪声以生成清晰图像的过程。
      • 条件生成:在逆扩散过程中,模型使用文本嵌入和运动嵌入作为条件,引导生成过程以符合用户的输入提示。
    5. 感知损失
      • 高级特征一致性:为了确保生成的图像在视觉上与源图像保持一致,模型使用感知损失函数,这通常涉及到比较预训练深度网络(如VGG网络)中的特征图。
    6. 输出生成
      • 图像解码:最终,模型输出的潜在表示被解码成像素空间中的图像帧,形成动态的GIF动画。
    7. 端到端训练
      • 优化:整个模型通过端到端的方式进行训练,最小化由真实图像、文本提示和运动幅度定义的损失函数。
  • Transformer Debugger – OpenAI开源的理解和分析大模型内部的工具

    Transformer Debugger是什么

    Transformer Debugger (TDB) 是由 OpenAI 的对齐团队(Superalignment)开发的一款工具,旨在帮助研究人员和开发者更深入地理解和分析 Transformer 模型的内部结构和行为。Transformer 模型是一种深度学习架构,广泛应用于自然语言处理(NLP)领域,特别是在机器翻译、文本生成和理解等任务中。

    Transformer Debugger

    TDB 的核心功能是提供了一种无需编写代码即可快速探索模型结构的方式,结合了自动可解释性技术和稀疏自动编码器,使得用户能够直观地查看和分析模型的特定行为,例如模型为何在给定的输入(prompt)下选择输出特定的token,或者模型的注意力机制为何关注输入文本中的某些特定部分。

    GitHub源码地址:https://github.com/openai/transformer-debugger

    Transformer Debugger的功能特性

    • 无需编码的模型探索:TDB 允许用户在不编写代码的情况下探索模型结构,使得研究和调试过程更加直观和高效。
    • 前向传递干预:用户可以干预模型的前向传递过程,观察不同操作如何影响模型的输出,从而更好地理解模型的决策过程。
    • 组件级分析:TDB 能够识别并分析对模型行为有显著贡献的特定组件,如神经元、注意力头和自动编码器的潜在表示(latents)。
    • 自动生成解释:工具可以自动生成解释,展示导致特定组件激活的原因,帮助用户理解模型的内部工作机制。
    • 可视化界面:通过 Neuron viewer,一个基于 React 的应用程序,TDB 提供了一个用户友好的界面,用于展示和分析模型组件的信息。
    • 后端支持:Activation server 作为后端服务器,为 TDB 提供必要的数据支持,包括从公共 Azure 存储桶读取和提供数据。
    • 模型和数据集支持:开源内容包括 GPT-2 模型及其自动编码器的简单推理库,以及一些整理好的激活数据集示例,方便用户进行实验和分析。

    如何安装和设置Transformer Debugger

    1. 首先确认电脑上已安装python/pip以及node/npm等工具
    2. 建议使用虚拟环境(非必选)
      # 如果已在虚拟环境,先取消激活
      deactivate
      # 创建新的虚拟环境
      python -m venv ~/.virtualenvs/transformer-debugger
      # 激活新的虚拟环境
      source ~/.virtualenvs/transformer-debugger/bin/activate
    3. 设置完环境后,按以下步骤操作:
      git clone git@github.com:openai/transformer-debugger.git
      cd transformer-debugger
      
      # 安装神经元解释器
      pip install -e .
      
      # 安装pre-commit钩子
      pre-commit install
      
      # 安装神经元查看器
      cd neuron_viewer
      npm install
      cd ..
    4. 要运行 TDB 应用程序,请按照说明设置激活服务器后端神经元查看器前端

  • ELLA – 腾讯推出的扩散模型适配器,可增强语义对齐

    ELLA是什么

    ELLA(Efficient Large Language Model Adapter,高效的大模型适配器)是由腾讯的研究人员推出的一种新型方法,旨在提升文本到图像生成模型在处理复杂文本提示时的语义对齐能力。现有的扩散模型通常依赖于CLIP作为文本编码器,在处理包含多个对象、详细属性和复杂关系等信息的长文本提示时存在局限性。因此,研究团队提出了ELLA,使用一个时序感知语义连接器(TSC)来动态提取预训练LLM中的时序依赖条件,从而提高了模型解释复杂提示的能力。

    ELLA

    ELLA的官网入口

    ELLA的功能特性

    • 语义对齐增强:ELLA通过与大型语言模型(LLM)的结合,提高了扩散模型对文本提示中包含的多个对象、详细属性和复杂关系的理解能力,从而生成与文本更贴合的图像。
    • 时序感知语义提取:ELLA的Timestep-Aware Semantic Connector(TSC)模块能够根据扩散过程中的不同时间步动态提取语义特征,使得模型能够在生成图像的不同阶段关注不同的文本信息。
    • 无需重新训练:ELLA的设计允许其直接应用于预训练的LLM和U-Net模型,无需对这些模型进行额外的训练,从而节省了大量的计算资源和时间。
    • 兼容性:ELLA可以与现有的社区模型(如Stable Diffusion)和下游工具(如ControlNet)无缝集成,提升这些模型和工具在处理复杂文本提示时的表现。

    ELLA的工作原理

    ELLA的主要工作原理是通过一个轻量级的、可训练的时序感知语义连接器(TSC)模块,将强大的LLM的语义理解能力与现有的图像生成扩散模型相结合,从而在不重新训练整个系统的情况下,提高模型对复杂文本提示的理解和图像生成的质量。
    ELLA的工作原理

    1. 文本编码:首先,ELLA使用一个预训练的大型语言模型(LLM)来编码输入的文本提示。该LLM能够理解复杂的文本,包括多个对象、属性和关系,并提取出丰富的语义特征。
    2. 时序感知语义连接器(TSC):ELLA的核心是一个名为TSC的模块,它负责将LLM提取的文本特征与图像生成模型(如U-Net)的扩散过程相结合。TSC模块根据生成过程中的不同时间步长动态地提取和调整语义特征,以便更好地对齐文本提示和生成的图像内容。
    3. 冻结的U-Net:在ELLA的架构中,U-Net模型(用于图像生成的扩散模型)和LLM保持冻结状态,即它们的参数在ELLA的训练过程中不会被更新。这样可以避免重新训练整个模型,节省资源并保持原有模型的性能。
    4. 语义特征适应:TSC模块接收来自LLM的文本特征和时间步嵌入,然后输出固定长度的语义查询。这些查询通过交叉注意力机制与U-Net模型交互,指导图像生成过程中的噪声预测和去噪步骤。
    5. 训练TSC模块:尽管LLM和U-Net保持冻结,但TSC模块是需要训练的。它在包含高信息密度的文本-图像对数据集上进行训练,学习如何根据文本提示的不同部分和扩散过程的不同阶段提取和适应语义特征。
    6. 生成图像:在生成图像时,ELLA的TSC模块会根据文本提示和当前的扩散时间步,提供条件性的特征给U-Net模型。这些特征帮助U-Net在每个时间步生成与文本更紧密对齐的图像。
    7. 评估和优化:使用如Dense Prompt Graph Benchmark(DPGBench)这样的基准测试来评估增强模型的性能。根据评估结果,可能需要对TSC模块或训练过程进行微调,以进一步优化模型的表现。