Category: AI项目和框架

  • StarVector – 开源多模态视觉语言模型,支持图像和文本到 SVG 生成

    StarVector是什么

    StarVector 是开源的多模态视觉语言模型,ServiceNow Research、Mila – Quebec AI Institute 和 ETS Montreal 联合开发,专注于将图像和文本转换为可缩放矢量图形(SVG)代码。 模型采用多模态架构,能同时处理图像和文本信息,直接在 SVG 代码空间中操作,生成标准的、可编辑的 SVG 文件。StarVector 在包含超过 200 万个 SVG 样本的 SVG-Stack 数据集上训练,提供 StarVector-1B 和 StarVector-8B 两种规模,满足不同需求。

    StarVector

    StarVector的主要功能

    • 图像到 SVG 的转换(Image-to-SVG):能将图像直接转换为 SVG 代码,实现图像的矢量化。
    • 文本到 SVG 的生成(Text-to-SVG):可以根据文本指令生成相应的 SVG 图形。

    StarVector的技术原理

    • 多模态架构:StarVector 采用多模态架构,将视觉和语言模型无缝集成。通过视觉编码器(如 Vision Transformer 或 CLIP 图像编码器)提取图像的视觉特征,然后通过适配器(Adapter)将这些特征映射到语言模型的嵌入空间,生成视觉标记。这些视觉标记与文本嵌入一起输入到语言模型中,实现对图像和文本的统一处理。
    • 图像编码与视觉标记生成:图像编码器(如 Vision Transformer)将输入图像分割成小块并转换为隐藏特征。通过非线性适配器投影到语言模型的嵌入空间,形成视觉标记。能捕捉图像的关键视觉特征,如形状、颜色分布和结构布局。
    • 语言模型与 SVG 代码生成:StarVector 使用基于 StarCoder 的语言模型,在训练期间,模型通过 SVG 代码的下一个标记预测任务进行监督学习。在推理阶段,模型基于输入图像的视觉标记来自回归地预测 SVG 代码。
    • 大规模数据集训练:StarVector 在包含超过 200 万个 SVG 样本的 SVG-Stack 数据集上进行训练。数据集涵盖了多样化的 SVG 样本,支持图像到 SVG 和文本到 SVG 的多样化任务。StarVector 引入了 SVG-Bench 评估基准,用于全面评估模型性能。
    • 性能优势:StarVector 在图像到 SVG 和文本到 SVG 的任务中表现出色。生成的 SVG 文件更紧凑、语义更丰富,有效利用了 SVG 原语。在 SVG-Bench 基准测试中,StarVector 在多个指标上优于传统方法和深度学习基线模型。

    StarVector的项目地址

    StarVector的应用场景

    • 图标生成:根据文本描述或图像输入快速生成 SVG 图标,用于网页导航栏、按钮等。
    • 艺术创作:艺术家可以用 StarVector 将创意草图或文字描述转化为矢量艺术作品,方便后续编辑和修改。
    • 动画制作:生成的 SVG 图形可以作为动画制作的基础元素,进一步开发成动态效果。
    • 编程教育:学生可以通过 StarVector 学习 SVG 代码的生成和编辑,提高编程和图形设计能力。
    • 技术图表生成:根据文本描述生成技术图表,如流程图、结构图等,用于工程文档和技术说明。
    • 数据可视化:将数据可视化为 SVG 图形,方便在网页或报告中展示,同时保持图形的可编辑性和可扩展性。
  • Reve Image – Reve 推出的全新 AI 图像生成模型

    Reve Image是什么

    Reve Image 是 Reve 推出的全新 AI 图像生成模型。专注于提升美学表现、精确的提示遵循能力以及出色的排版设计,能生成高质量的视觉作品。模型在生成图像时展现出强烈的设计感,作品简洁大气,具有海报风格的视觉冲击力。对用户输入的提示词理解能力出色,简单描述能优化生成令人惊艳的效果。

    Reve Image

    Reve Image的主要功能

    • 强大的图像生成能力:Reve Image 专注于提升美学表现,生成的图像在色彩搭配、光影处理和细节刻画上表现出色,具有强烈的视觉冲击力。
    • 精确的提示遵循:用户只需输入简单的关键词或复杂的场景描述,能快速理解并生成符合预期的图像。
    • 优秀的排版设计:Reve Image 能根据图像内容和用户需求自动调整文本和图形的布局,使整体设计更加和谐美观。
    • 支持多种生成模式:模型支持文生图(Text-to-Image)和图生图(Image-to-Image)两种模式。

    Reve Image的技术原理

    • 深度学习架构:Reve Image 使用先进的深度学习架构,如生成对抗网络(GAN)或扩散模型,架构能通过大量图像数据进行训练,生成高质量的图像。
    • 自然语言处理:模型通过自然语言处理技术理解用户输入的提示词,简单的关键词或复杂的场景描述,能准确地将其转化为图像生成的参数。
    • 美学优化:Reve Image 在色彩搭配、光影处理和细节刻画方面进行了优化,能生成具有强烈视觉冲击力的图像。
    • 智能排版:模型能根据图像内容和用户需求自动调整文本和图形的布局,使整体设计更加和谐美观。

    如何使用Reve Image

    • 访问官网:打开 Reve Image 的官方网站 ,平台已开放免费测试。注册账号登录。
    • 输入提示词:在生成界面输入你的描述性提示词。Reve Image 能精确理解提示词,生成符合描述的图像。
    • 选择生成模式:Reve Image 支持文生图(Text-to-Image)和图生图(Image-to-Image)两种模式,根据需求选择合适的模式进行创作。
    • 调整参数(可选):如果需要,可以调整生成参数,如分辨率、风格等,优化生成效果。
    • 生成图像:点击生成按钮,等待模型生成图像。生成后的图像可以直接下载或保存。

    Reve Image的应用场景

    • 广告设计:在广告设计领域,设计师可以通过简单的关键词或复杂的场景描述,快速生成符合品牌形象的视觉素材,提升品牌知名度和美誉度。
    • 社交媒体内容创作:Reve Image 为社交媒体内容创作者提供了丰富的视觉素材,助力他们制作更具吸引力的图文和视频内容。可以根据自己的需求选择合适的素材和模板进行创作,提高内容的吸引力和用户参与度。
    • 艺术创作:Reve Image 在艺术创作领域能根据艺术家的描述生成具有独特风格和情感表达的图像。
    • 产品设计:在产品设计领域,Reve Image 可以帮助设计师快速生成产品的视觉原型,在设计初期能直观地展示产品的外观和功能。
    • 教育与学习:Reve Image 在教育领域可以用于生成教学辅助图像,帮助学生更好地理解和记忆知识。
  • BlockDance – 复旦联合字节推出的扩散模型加速方法

    BlockDance是什么

    BlockDance 是复旦大学联合字节跳动智能创作团队推出的用在加速扩散模型的新方法。BlockDance 基于识别重用相邻时间步中结构相似的时空特征(STSS),减少冗余计算,提升推理速度,最高加速 50%。BlockDance 专注于去噪后期的结构特征,避免因重用低相似度特征导致的图像质量下降。BlockDance引入 BlockDance-Ada,基于强化学习动态分配计算资源,根据不同实例的复杂性调整加速策略,进一步优化内容质量和推理速度。

    BlockDance

    BlockDance的主要功能

    • 加速推理过程:基于减少冗余计算,将 DiTs 的推理速度提升 25% 至 50%,提高模型在实际应用中的效率。
    • 保持生成质量:在加速的同时,保持与原始模型一致的生成效果,确保图像和视频的视觉质量、细节表现和对提示的遵循程度。
    • 动态资源分配:基于 BlockDance-Ada,根据不同生成任务的复杂性动态调整计算资源分配,实现更优的速度与质量平衡。
    • 广泛的适用性:支持无缝应用于多种扩散模型和生成任务,如图像生成、视频生成等,具有很强的通用性。

    BlockDance的技术原理

    • 特征相似性分析:在扩散模型的去噪过程中,相邻时间步的特征之间存在高度相似性,尤其是在模型的浅层和中层模块中。模块主要负责生成图像的结构信息,结构信息在去噪过程的早期阶段就已经相对稳定。BlockDance 基于分析特征的相似性,识别出结构相似的时空特征(Structurally Similar Spatio-Temporal,STSS),作为加速的关键点。
    • 缓存与重用机制:将去噪过程分为“缓存步骤”和“重用步骤”。在缓存步骤中,模型保存当前步骤中某些模块的特征输出。在后续的重用步骤中,模型直接使用之前缓存的特征,跳过模块的重复计算,节省计算资源。
    • 动态决策网络(BlockDance-Ada):引入 BlockDance-Ada,基于强化学习的轻量级决策网络。根据当前生成任务的复杂性(例如图像的结构复杂性、对象数量等),动态决定哪些步骤应该进行缓存,哪些步骤能进行重用。动态调整机制让 BlockDance 在不同的生成任务和模型上实现更优的速度与质量平衡。
    • 强化学习优化:用强化学习中的策略梯度方法训练决策网络。基于设计奖励函数,平衡图像质量和计算效率之间的权衡。奖励函数包括图像质量奖励(如视觉美感、对提示的遵循程度)和计算奖励(如重用步骤的比例)。基于最大化预期奖励,决策网络能学习到最优的缓存和重用策略,在保持生成质量的同时实现最大的加速效果。

    BlockDance的项目地址

    BlockDance的应用场景

    • 图像生成:加速艺术创作、游戏设计等高质量图像生成,保持视觉质量。
    • 视频生成:提升视频创作、动画制作等任务的速度,维持视觉和时间一致性。
    • 实时交互:用在 VR、AR 等实时应用,快速响应用户输入,提升体验。
    • 大规模内容生成:高效生成大量图像和视频,降低计算成本,提高效率。
    • 资源受限环境:在移动设备、边缘计算等资源有限场景中高效运行,无需额外训练。
  • DeepMesh – 清华和南洋理工推出的 3D 网格生成框架

    DeepMesh是什么

    DeepMesh 是清华大学和南洋理工大学研究人员提出的 3D 网格生成框架,基于强化学习和自回归变换器生成高质量的 3D 网格。通过两项关键创新来优化网格生成:一是高效的预训练策略,结合了新型标记化算法和改进的数据处理流程;二是引入强化学习(特别是直接偏好优化,DPO),实现生成网格与人类偏好的对齐。DeepMesh 能根据点云和图像条件生成具有复杂细节和精确拓扑结构的网格,在精度和质量方面均优于现有方法。

    DeepMesh

    DeepMesh的主要功能

    • 高质量 3D 网格生成:DeepMesh 能生成具有丰富细节和精确拓扑结构的 3D 网格,适用于各种复杂的几何形状。
    • 点云条件生成:DeepMesh 可以根据输入的点云数据生成对应的 3D 网格,适用于从稀疏点云到密集点云的各种场景。
    • 图像条件生成:DeepMesh 支持基于图像的条件生成,能根据输入的 2D 图像生成 3D 网格。

    DeepMesh的技术原理

    • 自回归变换器:DeepMesh 采用自回归变换器作为核心架构,包含自注意力层和交叉注意力层。能逐步生成网格的面,通过条件输入(如点云或图像)来预测网格的顶点和面。对于点云条件生成任务,DeepMesh 结合了感知器编码器来提取点云特征,将其集成到变换器模型中。
    • 高效预训练策略:DeepMesh 引入了一种改进的标记化算法,通过局部感知的面遍历和块索引坐标编码,显著缩短了序列长度,同时保留了几何细节。框架采用了数据整理和处理改进策略,过滤低质量网格数据,通过截断训练策略提高训练效率。
    • 强化学习与人类偏好对齐:DeepMesh 引入了直接偏好优化(DPO),通过人工评估和 3D 指标设计评分标准,收集偏好对用于强化学习训练。使生成的网格在几何精度上准确,在视觉效果上更符合人类审美。
    • 端到端可微分的网格表示:DeepMesh 支持端到端可微分的网格表示,拓扑可以动态变化。这种可微分性使模型能通过梯度下降进行优化,进一步提升生成网格的质量。

    DeepMesh的项目地址

    DeepMesh的应用场景

    • 虚拟环境构建:DeepMesh 可以生成逼真的 3D 网格模型,用于构建虚拟现实中的虚拟场景,如虚拟建筑、虚拟城市等。
    • 动态内容生成:通过强化学习优化,DeepMesh 可以根据游戏中的实时数据动态生成 3D 模型,提升游戏的沉浸感和交互性。
    • 角色动画:DeepMesh 可以生成高质量的 3D 角色模型,支持复杂的动画制作需求,如骨骼绑定和动画渲染。
    • 动态医学模拟:通过强化学习优化,DeepMesh 可以生成动态的医学模型,如心脏运动模拟,帮助医生更好地理解器官的运动和功能。
    • 产品建模:DeepMesh 可以用于生成工业产品的 3D 模型,支持复杂的设计和制造流程。
  • MoshiVis – Kyutai 开源的多模态实时语音模型

    MoshiVis是什么

    MoshiVis 是 Kyutai 推出的开源多模态语音模型,基于 Moshi 实时对话语音模型开发,增加了视觉输入功能。能实现图像的自然、实时语音交互,将语音和视觉信息相结合,让用户可以通过语音与模型交流图像内容。模型在 Moshi 的 7B 基础架构上,增加了约 206M 的适配器参数,集成了 400M 的 PaliGemma2 视觉编码器。通过跨注意力机制和门控机制,MoshiVis 能将视觉信息自然地融入语音流中,保持低延迟和自然对话风格。支持 PyTorch、Rust 和 MLX 三种后端,推荐使用 Web UI 前端进行交互。

    MoshiVis

    MoshiVis的主要功能

    • 视觉输入功能:MoshiVis 能接收图像输入,与语音交互相结合。用户可以通过语音指令与模型交流图像内容,例如询问图像中的场景、物体、人物等信息。
    • 实时交互:模型支持实时语音交互,用户可以自然地与模型对话,无需等待长时间的处理。
    • 多模态融合:MoshiVis 通过跨注意力机制将视觉信息与语音流相结合,模型能同时处理语音和视觉输入。
    • 低延迟与自然对话:MoshiVis 在处理图像和语音信息时,能保持低延迟,确保交互的实时性。模型继承了 Moshi 的自然对话风格,能生成自然流畅的语音回应。
    • 多后端适配:MoshiVis 支持 PyTorch、Rust 和 MLX 三种后端,用户可以根据需求选择合适的后端进行部署。推荐使用 Web UI 前端进行交互
    • 无障碍应用:MoshiVis 适用于无障碍 AI 接口,能帮助视障人士通过语音交互理解视觉场景。

    MoshiVis的技术原理

    • 多模态融合机制:MoshiVis 通过集成轻量级交叉注意模块,将视觉编码器的视觉信息注入到 Moshi 的语音标记流中。使模型能同时处理语音和视觉输入,实现语音与图像内容的交互。具体来说,视觉编码器将图像特征提取出来,然后通过交叉注意力机制与语音流进行融合,模型能理解图像内容并生成与之相关的语音回应。
    • 动态门控机制:为了更好地处理视觉输入与非视觉对话主题之间的切换,MoshiVis 引入了动态门控机制。可以根据对话内容的上下文动态调整视觉信息的影响力,确保模型在讨论图像相关话题时能充分利用视觉输入,在其他话题中减少视觉信息的干扰,提高对话的自然性和流畅性。
    • 参数高效微调:MoshiVis 采用了单阶段、参数高效的微调流程。在训练过程中,模型利用图像-文本和图像-语音样本的混合数据进行训练,降低训练成本并提高模型的适应性。减少了对大规模图像-语音配对数据的需求,保留了语音模型的韵律特征,如说话者的语调。

    MoshiVis的项目地址

    MoshiVis的应用场景

    • 老年人辅助:对于视力不佳或行动不便的老年人,MoshiVis 可以作为智能助手,帮助他们识别物品、阅读文字或获取环境信息。
    • 智能家居控制:在智能家居环境中,用户可以通过语音指令让 MoshiVis 识别房间内的设备或场景,进行相应的控制操作。
    • 视觉辅助学习:在教育领域,MoshiVis 可以帮助学生通过语音交互学习图像内容,例如识别动植物、历史文物等。
    • 社交媒体互动:用户可以上传图片,MoshiVis 通过语音生成有趣的描述或评论,增强社交媒体的互动性。
    • 工业检查:在工业环境中,MoshiVis 可以帮助工人通过语音交互检查设备状态、识别故障部位。
  • RuoYi AI – 全栈式 AI 开发平台,快速搭建个性化 AI 应用

    RuoYi AI是什么

    RuoYi AI 是全栈式 AI 开发平台,提供完整的前端、后台管理及小程序应用,支持灵活修改和分发代码。RuoYi AI 支持本地 RAG 方案,集成 Milvus/Weaviate 等向量库,保障数据隐私与性能。平台内置 SSE、websocket 等网络协议,能对接 OpenAI、ChatGLM 等数十种大语言模型。RuoYi AI 适合企业和个人开发者快速搭建个性化 AI 应用。

    RuoYi AI

    RuoYi AI的主要功能

    • 本地 RAG 方案::集成 Milvus/Weaviate 向量库和本地向量化模型,支持 Ollama 调用本地 LLM,实现高效检索与生成,保障数据隐私。
    • 丰富的模型集成::内置 SSE、websocket 等网络协议,支持对接 OpenAI、ChatGLM、讯飞星火等数十种大语言模型,同时集成MidJourney和 DALLE AI 绘画功能。
    • 强大的多媒体功能:支持 AI 翻译语音克隆和 AI 翻唱等功能,满足多种多媒体需求。
    • 微信扩展功能:支持大模型接入个人微信或企业微信,方便与微信生态深度整合。
    • 丰富插件功能:支持联网插件、SQL 查询插件及 Text2API 插件,扩展系统能力,满足多样化需求。
    • 支付功能:支持易支付、微信支付等多种支付方式。

    RuoYi AI的技术原理

    • 基于 RuoYi 框架:基于 RuoYi 框架开发,继承其模块化设计、权限管理、代码生成器等特性,提供高效的企业级应用开发能力。
    • 本地化 RAG 实现:集成 Milvus/Weaviate 等向量库,实现向量化的知识库检索,结合本地 LLM(如 Ollama),在本地完成知识检索与生成,确保数据隐私和高性能。
    • 多模型集成与通信:基于 SSE(Server-Sent Events)和 Websocket 等网络协议,实现与多种大语言模型的实时通信和对接,支持动态调用不同模型。

    RuoYi AI的项目地址

    RuoYi AI的应用场景

    • 企业级智能管理系统:实现跨国团队即时通讯翻译、自动生成会议PPT、提供个性化语音客服,提升企业沟通效率和客户满意度。
    • 教育领域:开发智能教育助手,为学生提供个性化学习建议、辅导,及创意绘画教学,提升教学质量和学生创造力。
    • 智能客服与客户支持:为企业提供智能客服系统,基于接入企业微信或个人微信,实现自动回答常见问题、处理客户咨询,降低人力成本。
    • 内容创作与多媒体应用:帮助创作者快速生成高质量的演示文稿、音频内容和图像作品,提升内容创作效率和质量。
    • 个人开发者与创新项目:个人开发者快速开发智能聊天机器人、个性化推荐系统等创新应用,实现创意落地。
  • InfiniteYou – 字节跳动开源的身份保持图像生成框架

    InfiniteYou是什么

    InfiniteYou(InfU)是字节跳动智能创作团队推出的基于扩散变换器(Diffusion Transformers,如 FLUX)的身份保持图像生成框架。基于 InfuseNet 将身份特征注入扩散模型,增强身份相似度,保持图像生成能力。InfiniteYou结合多阶段训练策略,包括预训练和监督微调(SFT),用合成的单人多样本(SPMS)数据,提升文本与图像对齐、图像质量和美学效果。InfiniteYou 性能卓越,兼容性强,为生成式 AI 领域做出重要贡献。

    InfiniteYou

    InfiniteYou的主要功能

    • 身份保持:生成的图像高度保留输入身份图像的面部相似度。
    • 文本驱动的图像生成:用户基于文本描述控制生成图像的内容、风格和场景。
    • 高质量图像生成:生成的图像在质量、美学效果和文本对齐方面表现出色。
    • 插件化设计:兼容多种现有方法和工具(如 ControlNets、LoRAs等),支持更复杂的个性化任务。

    InfiniteYou的技术原理

    • InfuseNet:InfuseNet 是 InfiniteYou 的核心组件,类似于 ControlNet,将身份特征注入扩散模型(如 FLUX)。身份特征基于残差连接注入到扩散模型中,避免直接修改注意力层,减少对基础模型生成能力的负面影响。
    • 预训练阶段:基于真实单人单样本(SPSS)数据进行预训练,学习身份图像的重建能力。
    • 监督微调阶段:基于合成的单人多样本(SPMS)数据进行微调,提升文本与图像对齐、图像质量和美学效果。
    • 扩散变换器(Diffusion Transformers):用先进的扩散变换器(如 FLUX)作为基础模型,模型在图像生成方面表现出色。扩散变换器支持生成高质量、高分辨率的图像,为身份保持图像生成提供了强大的基础。
    • 插件化设计:InfiniteYou 支持多种现有方法和工具,如 ControlNets、LoRAs等,提供更大的灵活性和扩展性。用户根据需求选择不同的插件,实现更复杂的个性化任务,如风格化、多概念生成等。

    InfiniteYou的项目地址

    InfiniteYou的应用场景

    • 社交媒体与个人品牌:用户将自己的照片生成不同风格的图像,用在分享或品牌推广。
    • 影视与娱乐:快速生成演员或角色在不同场景下的形象,辅助影视制作和角色设计。
    • 广告与营销:根据目标受众照片生成个性化广告,提升吸引力。
    • 教育与培训:生成虚拟教师或历史人物形象,用于在线教育和历史展示。
    • 艺术与设计:帮助艺术家和设计师快速生成创意草图,探索不同风格。
  • Motia – AI Agent 开发框架,支持多种编程语言、一键部署智能体

    Motia是什么

    Motia 是专为软件工程师设计的 AI Agent 框架,简化 AI 智能体的开发、测试和部署过程。支持多种编程语言,如 Python、TypeScript 和 Ruby,开发者可以使用熟悉的语言编写智能体逻辑,无需学习专有领域特定语言。Motia 提供零基础设施部署,无需复杂配置可一键部署智能体。

    Motia

    Motia的主要功能

    • 零基础设施部署:Motia 提供一键部署功能,无需复杂的 Kubernetes 或其他基础设施知识。开发者可以轻松将 AI 智能体部署到生产环境中,降低了部署门槛。
    • 多语言支持:支持多种编程语言,如 Python、TypeScript 和 Ruby。开发者可以在同一个智能体中混合使用不同语言。
    • 模块化和可组合步骤:采用模块化设计,开发者可以创建可重用的组件。运行时自动进行输入/输出验证,确保数据的准确性和一致性。
    • 内置可观测性:提供可视化的执行图和实时日志记录功能,方便开发者调试和监控智能体行为。开发者可以清晰地看到智能体的执行流程和状态。
    • 即时 API 和 Webhooks:支持通过 HTTP 端点暴露智能体功能,无需编写额外的 API 代码。开发者可以轻松将智能体与外部系统集成。
    • 完全控制 AI 逻辑:Motia 不限制开发者使用的大型语言模型(LLM)、向量存储或推理模式。开发者可以根据需求选择最适合的工具。
    • 交互式工作台:Motia Workbench 是基于浏览器的开发环境,提供交互式流程可视化、实时测试和实时日志流等功能,帮助开发者快速开发和优化智能体。
    • 快速迭代和优化:Motia 的设计使得开发者可以快速迭代智能体逻辑,实验不同方法,持续改进智能系统。

    Motia的技术原理

    • 代码优先开发:开发者可以使用熟悉的编程语言编写智能体逻辑,不是专有领域特定语言(DSL)。
    • 多语言混合使用:在同一智能体中混合使用不同的编程语言,例如使用Python进行机器学习,TypeScript进行类型安全操作,Ruby进行API调用。

    Motia的项目地址

    Motia的应用场景

    • 自动化工作流:创建GenAI驱动的工作流,实现业务流程的自动化。
    • 复杂决策系统:构建需要复杂决策和推理的系统,例如自动化的客户支持或旅行规划。
    • 数据处理管道:开发数据收集、处理和分析的管道,用于商业智能或研究。
    • 智能自动化:实现高级的自动化任务,如自动回复支持邮件或处理表单数据。
  • Soundwave – 港中文深圳开源的语音理解大模型

    Soundwave是什么

    Soundwave是香港中文大学(深圳)开源的语音理解大模型,专注于语音与文本的智能对齐和理解。通过创新的对齐适配器和压缩适配器技术,有效解决了语音和文本在表示空间上的差异,实现了高效的语音特征压缩,能更好地处理语音任务。

    Soundwave

    Soundwave的主要功能

    • 语音与文本对齐:Soundwave 能将语音信号与文本进行精准对齐,通过设计对齐适配器和压缩适配器,将音频序列转换为大模型能够理解的表示空间,同时动态压缩语音序列长度,与文本匹配。
    • 语音翻译:模型在语音翻译任务中表现出色,能将一种语言的语音输入翻译成另一种语言的文本或语音输出。具备高效的对齐能力和强大的语言理解能力。
    • 语音问答:Soundwave 支持语音问答功能,用户可以通过语音提问,模型能理解问题并以语音或文本形式回答。
    • 语音情绪识别:Soundwave 能识别语音中的情绪信息,通过分析语音的音调、语速、强度等特征,判断说话者的情绪状态(如高兴、悲伤、愤怒等)。
    • 多模态交互:模型还支持多模态交互,能结合语音、文本等多种输入形式,提供更丰富的交互体验。

    Soundwave的技术原理

    • 语音与文本对齐:通过设计对齐适配器(Alignment Adapter)和使用 CTC 损失来实现语音和文本的对齐。对齐适配器包含线性层与单层 Transformer Encoder 层,能将音频序列转换到大模型能够理解的表示空间,确保语音和文本能够在同一表示空间中进行交互。
    • 语音特征压缩:在这一阶段,模型通过压缩适配器(Shrinking Adapter)动态压缩语音序列的长度,与文本匹配。首先根据 CTC 预测的峰值选择语义特征,然后基于这些特征从原始序列中查询并收集辅助信息(如副语言信息等),最后将这两类特征融合以实现序列长度的缩减。
    • 监督微调:在微调阶段,模型仅调整 LoRA 参数,基于文本和语音指令数据来提升任务处理能力。通过多种问答格式、语音任务和指令格式的学习,模型增强了指令遵循和语音理解能力。

    Soundwave的项目地址

    Soundwave的应用场景

    • 智能语音助手:Soundwave 可以集成到智能语音助手(如智能家居设备、智能音箱等)中,提供更自然、准确的语音交互体验。用户可以通过语音指令查询信息、控制设备、设置提醒等。
    • 语音翻译:Soundwave 对于跨国会议、旅游、在线教育等场景非常有用,能帮助用户跨越语言障碍,实现无障碍交流。
    • 语言学习辅助:通过语音翻译和语音问答功能,Soundwave 可以帮助学生练习外语发音、理解语法结构,提升语言学习效果。
    • 内容创作:Soundwave 可以用于内容创作领域,例如自动生成视频字幕、音频脚本等。
    • 语音病历转录:医生可以通过语音记录病历,Soundwave 能转换为准确的文字记录,节省医生的时间,提高工作效率。
  • 食神 – 老板电器推出的首个烹饪大模型

    食神是什么

    食神是老板电器推出的首个烹饪垂直领域大模型。基于老板电器46年积累的海量烹饪数据,结合DeepSeek技术,能精准理解烹饪场景需求。用户可通过语音、文字等方式与“食神”交互,获取个性化菜谱推荐、健康膳食规划等服务。能与老板电器的数字厨电产品联动,实现烹饪过程的自动化和智能化。食神能讲解烹饪文化故事,为用户带来情感陪伴和文化体验。

    食神

    食神的主要功能

    • 个性化菜谱推荐:食神能根据用户的饮食偏好、健康数据、历史烹饪记录以及通过面部识别获取的健康状况等信息,为用户精准推荐不同风味的菜谱。
    • 健康膳食规划:通过分析用户的体检报告和健康状况,食神可以为用户生成个性化的健康膳食规划。
    • 多设备联动:与老板电器的数字厨电产品无缝联动,例如油烟机、灶具、蒸箱等,实现烹饪过程的自动化和智能化。
    • 情感陪伴与文化体验:食神提供烹饪功能辅助,讲解烹饪背后的文化故事、营养知识,根据不同节日或场合推荐具有文化特色的菜品。
    • 多模态交互与感知:食神大模型支持多模态交互,包括语音、文字、图片等多种输入方式。能通过面部识别技术感知用户的健康状况,结合用户的饮食记录、体检报告等信息,为用户提供个性化的膳食规划。能通过智能烹饪音箱实时播报、灶具火力自调节等功能,实现与厨电设备的联动。

    食神的技术原理

    • 海量数据积累与整合:食神大模型融合了老板电器46年积累的中式烹饪知识库、私域自研菜谱数据以及真实的用户行为数据。数据涵盖了烹饪文化、营养、健康等多维度信息,构成了其数据护城河。结合了2TB的公域与私域知识库,通过对海量数据的分析和学习,实现了对烹饪场景的深度理解。
    • 基于大模型的微调与优化:食神大模型基于上海人工智能实验室开源的InternLM对话模型,在XiaChuFang Recipe Corpus提供的152万余种中国食谱数据集上,借助Xtuner进行LoRA微调。通过这种方式,模型能更好地适应烹饪领域的特定需求,生成个性化的菜谱和烹饪建议。
    • 场景化与全链路解决方案:食神大模型能实现从烹饪前的菜谱推荐、食材准备,到烹饪中的设备控制、火候调节,再到烹饪后的清洗设备等全链路的解决方案。能根据用户的需求生成菜谱,通过与老板电器全链路产品的协同,完成复杂的烹饪任务。
    • 持续学习与优化:食神大模型具备持续学习的能力,能根据用户的反馈和新的数据不断优化算法。动态学习机制能更好地适应用户的个性化需求,提升烹饪体验。

    食神的应用场景

    • 家庭烹饪:用户可以通过“食神”快速获取适合的菜谱,并联动厨电设备完成烹饪。
    • 健康管理:为用户提供健康膳食规划,帮助用户保持健康的饮食习惯。
    • 文化体验:通过讲解烹饪文化故事和推荐特色菜品,增强用户对烹饪文化的理解和兴趣。