Author: Chimy

  • Traini – AI犬语翻译应用,解读宠物叫声和面部表情

    Traini是什么

    Traini 是AI犬语翻译应用,基于先进的 AI 技术改善宠物主人与宠物之间的沟通和互动体验。应用基于 PetGPT 技术,解读宠物的叫声和面部表情,帮助主人理解宠物的情绪和需求。Traini 提供个性化训练课程,涵盖 200 多种狗技巧和行为训练,配备视频指导,适合从幼犬到成犬的各种训练需求。Traini拥有庞大的宠物社交社区,用户能分享经验、交流心得,与其他宠物主人建立联系。

    Traini

    Traini的主要功能

    • 宠物行为解读:基于 AI 技术解读宠物的叫声和表情,帮助主人理解宠物的情绪和需求。
    • 个性化训练计划:提供 200 多种狗训练课程和视频指导,涵盖基本服从、幼犬训练、如厕训练等,支持定制个性化训练计划。
    • 专业支持与社区互动:支持向专业训练师和 PetGPT 寻求帮助,解决训练问题;拥有宠物主人社区,分享经验、交流心得。
    • 行为优化与健康管理:帮助解决宠物的常见行为问题,如吠叫、啃咬等;可跟踪训练进度,确保效果。

    Traini的官网地址

    Traini的应用场景

    • 宠物主人:解读宠物情绪,进行个性化训练,增强互动与情感连接。
    • 宠物训练师:优化训练计划,分享专业经验。
    • 宠物健康管理专业人士:了解宠物健康状况,提供精准建议。
    • 宠物社交爱好者:与其他宠物主人交流经验,增强社交互动。
    • 宠物相关企业:了解宠物主人需求,推广产品和服务。
  • F-Lite – Freepik联合FAL开源的文生图模型

    F-Lite是什么

    F-Lite是Freepik团队联合FAL开源的10B参数的文生图模型。基于Freepik内部80M有版权的数据集训练,支持商业用途。F-Lite将T5-XXL作为文本编码器,基于抽取第17层特征注入到DiT模型中。训练包括256和512分辨率的预训练,及1024分辨率的后训练,训练成本较高。推出针对丰富纹理和详细提示优化的特殊版本F-Lite Texture。

    F-Lite

    F-Lite的主要功能

    • 文本到图像生成:用户输入文本描述,模型生成与描述匹配的图像。
    • 商用许可:模型在 Freepik 提供的版权安全数据集上训练,生成的图像能用在商业用途。
    • 多分辨率训练:支持 256、512 和 1024 分辨率的图像生成,满足不同场景的需求。
    • 特殊版本优化:推出 F-Lite Texture 版本,针对丰富纹理和详细提示进行优化。

    F-Lite的技术原理

    • 扩散模型架构:基于逆向扩散过程将随机噪声逐步转化为有意义的图像。用文本条件扩散模型,结合文本编码器将文本特征注入到图像生成过程中。
    • 文本编码器:基于T5-XXL 作为文本编码器,提取文本特征。从 T5-XXL 的第 17 层提取特征,而不是最后一层,更好地捕捉文本的语义信息。文本特征用交叉注意力机制注入到扩散模型中,确保生成的图像与文本描述高度相关。
    • 训练策略
      • 多分辨率预训练:模型在 256 和 512 分辨率上进行预训练,学习图像的基本特征。
      • 高分辨率后训练:在 1024 分辨率上进行后训练,生成更高质量的图像。
      • 强化学习训练:基于 GRPO(Gradient-based Reinforcement Policy Optimization)的强化学习训练,提升生成图像的多样性和质量。
    • 优化技术:引入可学习的 register tokens,更好地对齐文本和图像特征。基于残差连接,提升模型的训练稳定性和效率。基于μ-Parameterization 技术优化扩散过程,提升生成图像的质量。

    F-Lite的项目地址

    F-Lite的应用场景

    • 创意设计:为广告、海报、插画等设计提供灵感和视觉素材,提升设计效率和创意多样性。
    • 内容创作:生成社交媒体配图、博客配图等,丰富内容的视觉效果,提升吸引力和传播效果。
    • 游戏开发:快速生成游戏角色、场景和复杂纹理,加速游戏设计和开发流程。
    • 教育与学习:根据教学内容生成相关图像,帮助学生更好地理解和记忆,提升学习效果。
    • 商业与企业:生成产品展示图、品牌宣传图等,用于商业推广和品牌建设,提升品牌形象和市场竞争力。
  • Xiaomi MiMo – 小米开源的首个推理大模型

    Xiaomi MiMo是什么

    Xiaomi MiMo 是小米开源的首个推理(Reasoning)大模型,支持提升模型在复杂推理任务中的表现。模型基于联动预训练和后训练,挖掘大量富推理语料并采用创新的强化学习算法,显著提升数学推理和代码生成能力。MiMo 仅用 7B 参数规模,在公开测评集上超越 OpenAI 的 o1-mini 和阿里 Qwen 的 QwQ-32B-Preview 等更大规模模型。Xiaomi MiMo包含4 个模型版本,预训练模型MiMo-7B-Base、监督微调模型MiMo-7B-SFT、强化学习模型MiMo-7B-RL和MiMo-7B-RL-Zero已开源至 HuggingFace,为开发者提供强大的推理工具。

    Xiaomi MiMo

    Xiaomi MiMo的主要功能

    • 强大的数学推理能力:解决复杂的数学问题,提供准确的推理路径和答案。
    • 高效的代码生成能力:生成高质量的代码,适用于多种编程任务。
    • 优化的推理性能:基于预训练和后训练的联动提升推理能力,用 7B 参数规模超越更大规模的模型,展现出高效的推理性能。

    Xiaomi MiMo的技术原理

    • 预训练阶段:着重挖掘富推理语料,合成约 200B tokens 的推理数据,确保模型见过更多推理模式。基于三阶段训练,逐步提升训练难度,总训练量达到 25T tokens,模型在不同难度的任务中逐步提升能力。
    • 后训练阶段
      • 强化学习算法:推出 Test Difficulty Driven Reward 算法,缓解困难算法问题中的奖励稀疏问题,提升模型在复杂任务中的表现。
      • 数据重采样策略:引入 Easy Data Re-Sampling 策略,稳定强化学习(RL)训练过程。
      • 高效训练框架:设计 Seamless Rollout 系统,加速 RL 训练(2.29 倍)和验证(1.96 倍),提升训练效率。
    • 模型架构优化:针对推理任务优化模型架构,确保在有限参数规模下实现高效推理能力。

    Xiaomi MiMo的项目地址

    Xiaomi MiMo的应用场景

    • 教育领域:辅助数学解题和编程学习,提供解题步骤和代码示例。
    • 科研与学术:协助逻辑推理和算法开发,帮助验证假设和设计实验。
    • 软件开发:生成和优化代码,辅助代码调试和问题解决。
    • 智能客服:解答复杂问题,提升问答系统效率。
    • 游戏娱乐:提供策略建议和智力谜题解答,增加游戏趣味性。
  • RepText – Liblib AI联合Shakker Labs推出的多语言视觉文本渲染框架

    RepText是什么

    RepText 是Shakker Labs 和 Liblib AI推出的多语言视觉文本渲染框架,基于复制字形而非理解文本内容实现高质量的文本渲染。框架基于预训练的单语言文本到图像生成模型,引入 ControlNet 结构、Canny 边缘检测、位置信息及字形潜变量复制技术,精准地渲染用户指定字体和位置的多语言文本。RepText 适用于平面设计、自然场景等多种场景。

    RepText

    RepText的主要功能

    • 多语言文本渲染:支持生成多种语言(包括非拉丁字母)的视觉文本,支持用户指定文本内容、字体、颜色和位置。
    • 精准控制:用户能精确控制文本在图像中的位置和样式,实现高度定制化的文本渲染。
    • 高质量生成:基于创新的技术手段,生成的文本在视觉上与背景协调,且具有较高的清晰度和准确性。
    • 与现有模型兼容:支持与现有的文本到图像生成模型(如基于DiT的模型)无缝集成,无需重新训练基础模型。

    RepText的技术原理

    • 模仿而非理解:RepText的核心思想是模仿字形,而不是理解文本的语义。基于复制字形的方式生成文本,类似于人类学习写字的过程。
    • ControlNet结构:基于ControlNet框架,用Canny边缘检测和位置信息作为条件,指导模型生成文本。避免对文本编码器的依赖,降低对多语言理解的要求。
    • 字形潜变量复制:在推理阶段,RepText从无噪字形潜变量开始初始化,初始化方式为文本生成提供引导信息,提高文本的准确性和颜色控制能力。
    • 区域掩码:为避免在生成过程中对非文本区域造成干扰,RepText引入区域掩码,确保只有文本区域被修改,背景保持不变。
    • 文本感知损失:在训练阶段,RepText引入文本感知损失(基于OCR模型的特征图),提高生成文本的可识别性和准确性。

    RepText的项目地址

    RepText的应用场景

    • 平面设计:用在设计贺卡、海报、宣传册等,精准控制文本的字体、颜色和位置。
    • 自然场景渲染:生成自然场景中的文本,如商店招牌、广告牌、路标等,支持多语言和多种风格的字体。
    • 艺术创作:支持艺术字体和复杂排版的生成,例如书法风格的文本、艺术字效果等,为艺术创作提供灵感和素材。
    • 数字内容创作:在视频游戏、动画、网页设计等领域,快速生成符合场景需求的文本内容,提升内容创作效率。
    • 多语言内容本地化:为全球化的数字内容提供本地化的文本渲染支持,快速生成不同语言版本的视觉文本。
  • 风宇 – 中国气象局联合华为和南昌大学推出的空间天气大模型

    风宇是什么

    风宇是中国气象局联合南昌大学和华为共同推出的全球首个全链式空间天气大模型。模型基于创新的链式训练结构,结合卫星观测数据与数值模式数据,实现太阳风、磁层和电离层的全链式耦合模拟,突破传统模型的算力与实时响应瓶颈。在短临预报与极端事件响应方面表现优异,预测误差控制在国际领先水平。模型广泛应用于卫星通信、航天器轨道管理、电力防护及航空与极地航行安全保障等领域,推动AI与地球空间科学的深度融合。

    fengyu

    风宇的主要功能

    • 空间天气监测与预警:实时监测太阳风、磁层和电离层的变化,提前预警可能影响地球空间环境的极端事件。
    • 卫星通信与导航保障:基于准确预测空间天气变化,减少卫星通信干扰和导航误差,保障卫星系统的稳定运行。
    • 航天器轨道管理:优化航天器轨道设计,避免因空间天气变化导致的轨道偏差,确保航天任务的安全。
    • 电力与基础设施防护:提前预测地磁暴等事件,帮助电力系统采取防护措施,减少对电网的冲击。
    • 航空与极地航行安全提升:为航空和极地航行提供空间天气信息支持,降低因空间天气变化带来的风险。

    风宇的技术原理

    • 全链式耦合:将太阳风、磁层和电离层分别建模,基于耦合优化机制实现多区域、多尺度之间的信息交互与动态响应模拟。链式结构能真实再现太阳风如何影响地球周围环境,及磁场和电离层之间的复杂相互作用。
    • 数据融合:结合卫星的真实观测数据和自主研发的全链式空间天气数值模式生成的数据,形成互相补充、相互印证的数据基础。
    • AI 技术:创新性地将人工智能核心思想与地球系统科学机理深度耦合,基于机器学习算法提升对空间天气变化过程的理解和预测能力,特别是在短临预报与极端事件响应方面表现出色。
    • 预测性能优化:用长达一年的预测性能测试,“风宇”在太阳风、磁层和电离层各区域的24小时短临预测能力表现优异,对全球电子密度总含量的预测误差基本控制在10%以内,处于国际领先水平。

    风宇的项目地址

    风宇的应用场景

    • 卫星通信与导航系统:减少太阳活动对卫星通信信号的干扰,降低导航误差。
    • 航天器轨道管理:避免因空间天气事件导致的轨道偏差或损坏,确保航天任务的安全和高效执行。
    • 电力与基础设施防护:提前预警地磁暴等空间天气事件,帮助电力系统采取防护措施。
    • 航空与极地航行安全:为航空和极地航行提供空间天气信息支持,帮助规划安全的飞行和航行路线。
    • 科学研究与教育:作为先进的空间天气研究工具,为科研人员和教育机构提供数据支持和技术平台。
  • Embodied Reasoner – 浙大联合阿里等机构推出的具身交互推理模型

    Embodied Reasoner是什么

    Embodied Reasoner是浙江大学、中国科学院软件研究所、阿里巴巴集团等机构推出的新型的具身交互推理模型,基于视觉搜索、推理和行动协同完成复杂任务。模型基于模仿学习、自我探索和自我修正的三阶段训练方法,生成多样化的思考过程(如情境分析、空间推理、自我反思等),基于交互历史和空间布局进行高效规划和推理。在AI2-THOR模拟器的多种任务中,Embodied Reasoner显著优于现有的视觉推理模型,在复杂长时序任务中表现出色,减少重复搜索和逻辑不一致问题。

    Embodied Reasoner

    Embodied Reasoner的主要功能

    • 视觉搜索与目标定位:在复杂环境中搜索隐藏或暴露的物体,根据任务要求定位目标。
    • 推理与规划:基于生成多样化的思考过程(如情境分析、空间推理、自我反思等),制定高效的行动策略。
    • 行动执行:根据推理结果执行相应的动作,如导航、抓取、放置等,完成任务。
    • 自我修正与学习:基于反思和自我修正机制,避免重复搜索和逻辑不一致问题,提升任务成功率。
    • 复杂任务处理:擅长处理长时序、多步骤的复合任务。

    Embodied Reasoner的技术原理

    • 数据引擎:通过任务模板和场景元数据自动生成任务指令和对应的“观察-思考-行动”轨迹,包含丰富的思考过程和交互图像。
    • 三阶段训练
      • 模仿学习:在合成的轨迹上进行微调,学习基本的交互技能。
      • 自我探索(拒绝采样):基于采样和评估生成的轨迹,增强模型的探索能力。
      • 自我修正(反思调整):注入异常状态和反思修正错误,提升模型的自适应能力。
    • 多模态交互:结合视觉输入(图像)和语言输出(思考和动作),实现高效的环境交互和任务完成。
    • 推理机制:基于生成长思考序列,模拟人类的推理过程,提升模型在复杂任务中的表现。

    Embodied Reasoner的项目地址

    Embodied Reasoner的应用场景

    • 智能家居:帮助用户在家中寻找物品、操作家电。
    • 仓储物流:在仓库中自动寻找、搬运货物,优化仓储管理。
    • 医疗辅助:协助医护人员在医院或养老院中寻找和整理物品。
    • 工业自动化:在工厂中完成复杂的操作任务,如零件搬运和设备维护。
    • 教育与研究:作为教育工具帮助学生理解任务规划,或用在研究人机交互和机器人智能。
  • 喵记多 – 快手旗下轻雀科技推出的AI笔记工具

    喵记多是什么

    喵记多是快手旗下轻雀科技开发的AI笔记工具,通过AI助手“喵仔”为用户提供便捷的笔记记录、待办提醒和信息管理服务。用户可以通过与“喵仔”聊天的方式快速记录文字、图片、文件等内容,将其转化为笔记。用户能设置待办事项,通过智能提醒功能避免遗忘重要任务。

    喵记多

    喵记多的主要功能

    • 智能笔记记录:用户可以通过与AI助手“喵仔”聊天的方式快速记录文字、图片、文件等内容,并将其转化为笔记。
    • 待办事项管理:支持添加待办事项,并设置提醒时间,确保用户不会遗忘重要任务。
    • 笔记管理与分类:用户可以为笔记设置标签、进行分类整理,并通过关键词搜索快速查找所需内容。
    • 图片搜索与管理:支持图片搜索功能,方便用户查找所需图片资料。
    • 互动式体验:用户可以与“喵仔”互动,增加使用乐趣,还能通过提升亲密度获得更贴心的服务。
    • 智能提醒功能:可以为待办事项设置推送提醒,确保用户不会错过重要任务。

    如何使用喵记多

    • 访问平台:访问喵记多的官方网站,根据手机型号选择扫码下载APP应用,或iOS访问苹果AppStore应用商店下载。
    • 打开应用:打开喵记多的应用,注册或登录。
    • AI笔记记录:用户可以通过与AI助手“喵仔”聊天的方式快速记录文字、图片、文件等内容。发送网页超链接给“喵仔”,会自动爬取网页内容并生成笔记。在聊天中长按消息,点击“喵记一下”即可将消息转化为笔记,方便后续查看和编辑。
    • 待办事项管理:在与“喵仔”的对话中输入“提醒 + 提醒时间 + 事项”即可创建待办事项。回复“我的待办”或“待办列表”,“喵仔”会列出所有未来待提醒的待办事项。
    • 笔记管理:用户可以为笔记设置标签、分类整理,方便查找和管理。支持关键词搜索,快速定位所需笔记内容。笔记支持导出为长图、PDF,或拷贝为文本,方便分享。
    • AI助手互动:用户可以与“喵仔”聊天,增加亲密度,享受更贴心的服务。“喵仔”可以帮忙找图、管理便签,还能回答问题。

    喵记多的应用场景

    • 课堂笔记整理:学生可以在课堂上通过语音输入或文字输入的方式,快速记录重点内容。课后可以与AI助手“喵仔”互动,进一步整理和复习笔记。
    • 资料收集与整理:在学习过程中,用户可以将碎片化的文字、图片、文件等发送给“喵仔”,通过“喵记一下”功能将这些内容转化为笔记。
    • 会议记录与整理:在会议中,用户可以通过语音输入快速记录会议要点。会后,“喵仔”可以帮助整理会议记录,生成清晰的笔记。
    • 任务规划与提醒:上班族可以用“喵记多”设置待办事项,指定提醒时间。通过与“喵仔”对话,用户可以随时查看待办事项列表,确保任务按时完成。
    • 灵感记录:当用户在生活中突发灵感时,可以通过语音或文字快速记录下来。灵感可以随时查看和整理,方便后续进一步发展。
  • SUAPP AI – 为建筑设计行业打造的AI设计渲染工具

    SUAPP AI是什么

    SUAPP AI(灵感AI)是为建筑设计行业打造的 AI 工具,是 SketchUp 的中文门户网站,主要用在建筑设计、室内设计、景观设计等领域。基于AI技术帮助设计师快速生成设计渲染、意向图、动画视频、三维模型,支持提供智能问答服务。SUAPP AI支持丰富的插件扩展,满足从概念设计到施工图制作的多样化需求。工具渲染效果逼真,结合VR等技术能实现沉浸式体验,是设计师和专业人士进行创意表达和项目展示的重要工具。

    ai.suapp

    SUAPP AI的主要功能

    • 图生图(灵感渲染):基于图像生成图像,支持局部重绘、图片拼贴、涂鸦手绘、魔法消除等功能,快速生成高质量渲染效果。
    • 文生图(灵感意向):根据文本描述生成意向图,帮助设计师快速收集灵感。
    • 图生视频(灵感动画):将静态图像生成动态视频,增强设计展示效果。
    • 图片建模(灵感建模):基于图片快速生成三维模型,减少建模时间。
    • AI对话(灵感助手):提供智能问答和设计建议,辅助设计流程。

    如何使用SUAPP AI

    • 在线使用
      • 访问网站:访问SUAPP AI的官方网站,按提示完成注册和登录。
      • 选择工具:在网站上选择,需要的功能,如图生图、文生图、图生视频等。
      • 上传或输入内容:如果是图生图或图片建模,上传相关图片。如果是文生图,输入描述文本。
      • 生成结果:点击“生成”按钮,AI自动处理生成结果。
      • 保存或分享:生成结果后,下载保存或直接分享给他人。
    • SketchUp插件使用
      • 安装插件:在SketchUp官方下载地址下载插件并安装。
      • 打开SketchUp:启动SketchUp软件。
      • 上传或选择内容:在插件界面上传图片或选择模型。
      • 设置参数:根据需求调整参数,如风格、材质等。
      • 生成结果:点击“生成”按钮,AI将在插件中直接生成结果。

    SUAPP AI的应用场景

    • 建筑设计:快速生成建筑意向图和初步渲染效果,辅助方案构思与展示。
    • 室内设计:快速建模、替换材质、调整空间氛围,优化室内设计方案。
    • 景观设计:生成场地模型,快速添加景观元素,提升设计效率。
    • 项目汇报:将静态图生成动态视频,提升图像质量,增强展示效果。
    • 创意激发:基于AI对话获取设计灵感和建议,辅助设计流程。
  • 钛投标 – AI标书生成工具,自动解析招标文件生成精准标书

    钛投标是什么

    钛投标是专为智能化行业设计的AI标书智写工具。通过AI技术快速解析招标文件,精准提取关键信息。结合自有库与通用库双库联动,一键生成高质量标书。智能排版功能可按需定制,确保标书规范美观。钛投标提供数据加密存储与权限管理,保障用户信息安全。

    钛投标

    钛投标的主要功能

    • AI智能解析:自动提取招标文件中的关键信息,确保生成的标书内容精准高效。
    • AI一键生成:结合自有库与通用库双库联动,能快速生成标书内容。
    • AI智能排版:根据用户需求定制排版,标书更加规范且可控。
    • 数据加密存储与权限管理:采用多重加密保护,严格遵循数据隐私法规,确保用户数据安全。

    如何使用钛投标

    • 注册账号:访问钛投标的官方网站,注册或登录,可享受限时半年免费使用。
    • 上传资料或填写需求:输入项目要求或调用已有数据。
    • 智能生成标书:AI自动解析、生成并排版完成。
    • 下载与提交:预览审核后直接下载,支持一键提交。

    钛投标的应用场景

    • 智能化行业招投标:适用于智慧城市、智能制造、物联网、AI应用等企业。
    • 项目竞标提案制作:快速应对招标响应。
    • 政企合同文件编制:满足政策法规遵从、行业标准高的文档要求。
    • 企业内部资源管理:通过自有库、通用库数据管理,提高文档资料的规范性与时效性。
  • Ev-DeblurVSR – 中科大等机构推出的视频画面增强模型

    Ev-DeblurVSR是什么

    Ev-DeblurVSR是中国科学技术大学、合肥综合性国家科学中心人工智能研究所和新加坡国立大学联合推出的视频画面增强模型,能从低分辨率且模糊的视频输入中恢复出高分辨率、清晰的视频。Ev-DeblurVSR引入事件相机捕获的事件信号,用高时间分辨率和丰富的运动信息增强视频的去模糊和超分辨率性能。Ev-DeblurVSR的核心包括互惠特征去模糊模块(RFD)和混合可变形对齐模块(HDA),分别用在帧内去模糊和帧间对齐。Ev-DeblurVSR在多个数据集上表现出色,优于现有方法,尤其在真实数据上,具有更高的准确性和更快的处理速度。

    Ev-DeblurVSR

    Ev-DeblurVSR的主要功能

    • 模糊视频超分辨率处理:将低分辨率且模糊的视频帧恢复为高分辨率且清晰的图像。
    • 基于事件相机数据辅助:借助事件相机捕捉的高时间分辨率和亮度变化信息,恢复丢失的运动细节和纹理。
    • 抗运动模糊和高动态范围:有效减少运动模糊,保留高对比度区域的细节,适用于运动场景和低光照场景。
    • 提供开发和测试支持:开源代码,提供预训练模型、测试数据集和脚本,方便开发者快速上手和验证效果。

    Ev-DeblurVSR的技术原理

    • 事件信号的分类与利用
      • 帧内事件(Intra-frame Events):记录视频帧曝光时间内的运动信息,用在去模糊帧特征。
      • 帧间事件(Inter-frame Events):记录帧与帧之间的连续运动轨迹,用在时间对齐。
    • 互惠特征去模糊模块:基于帧内事件的运动信息去模糊视频帧特征,将视频帧的全局场景上下文信息反馈到事件特征中,增强事件特征的表达能力。基于多头通道注意力机制和交叉模态注意力机制实现帧与事件特征的互惠增强。
    • 混合可变形对齐模块:结合帧间事件和光流信息,用事件的连续运动轨迹和光流的空间信息,改善可变形对齐过程中的运动估计。基于事件引导对齐(Event-Guided Alignment, EGA)和光流引导对齐(Flow-Guided Alignment, FGA)两种分支实现对齐,用可变形卷积网络(DCN)完成最终的特征对齐。
    • 边缘增强损失函数:基于事件信号中的高频信息对像素重建误差进行加权,让模型更关注边缘和高频区域的恢复,提高恢复视频的细节和清晰度。

    Ev-DeblurVSR的项目地址

    Ev-DeblurVSR的应用场景

    • 视频监控:提升模糊监控视频的清晰度,帮助更准确地识别细节。
    • 体育赛事:清晰还原快速运动场景,改善裁判判罚和观众观赛体验。
    • 自动驾驶:减少摄像头拍摄的模糊画面,为自动驾驶系统提供更清晰的环境感知。
    • 影视制作:修复拍摄条件不佳导致的模糊画面,提升影视作品质量。
    • 工业检测:改善因高速运动或设备抖动导致的模糊影像,提高工业检测的准确性。