Category: AI项目和框架

  • smolagents – Hugging Face 开源的轻量级 Agent 构建库

    smolagents是什么

    smolagents 是 Hugging Face 推出的轻量级开源库,简化智能代理的构建过程。极简的代码量(约千行)和直观的API设计,使开发者能快速搭建和部署智能代理。smolagents 支持一流代码代理,支持通过沙盒环境安全执行代理操作,并且可以集成Hugging Face Hub上的模型和工具,支持多种大型语言模型(LLM)。降低了AI开发的技术门槛,推动了AI技术的民主化和普及。

    smolagents的主要功能

    • 轻量级代理开发框架:核心逻辑仅约1000行代码,简化了智能代理的开发过程。
    • 支持多种大语言模型集成:集成了包括 HuggingFace、OpenAI、Anthropic 等在内的多种语言模型。
    • 代码执行代理功能:支持直接通过 Python 代码调用工具,提高了代理的灵活性和可扩展性。
    • 安全的代码执行环境:提供了安全的代码执行环境和沙盒机制,确保执行过程的安全性。
    • HuggingFace Hub 集成:支持通过 HuggingFace Hub 共享和加载工具,方便工具的管理和使用。
    • 简单直观的 API 设计:便于快速开发和部署智能代理。
    • 完整的文档支持和示例代码:提供了丰富的文档和示例代码,帮助开发者快速上手。
    • 支持自定义工具开发和集成:允许开发者根据需求创建自定义工具。
    • 提供多种预置工具:如搜索工具 DuckDuckGoSearchTool,方便快速构建特定功能的代理。

    smolagents的技术原理

    • 模块化设计:smolagents 的模块化设计使其适用于各种场景,如快速原型设计或全面生产环境的应用。
    • 动态代码生成和执行:代理可以根据需要生成并执行代码,解决特定问题。
    • 预训练模型的利用:通过基于预训练模型,开发人员能节省大量时间和精力,无需从零开始定制模型,即可获得强大的性能。

    smolagents的项目地址

    smolagents的应用场景

    • 数据检索与信息获取:smolagents 可以用于构建智能代理,自动化地从互联网上检索和获取信息。
    • 自动化编程任务:smolagents 支持代码执行代理功能,支持代理通过编写代码来执行动作,提高效率和性能。适用于自动化编程任务,如代码生成和脚本自动化。
    • 智能客服与聊天机器人:smolagents 可以用于构建智能客服系统或聊天机器人,通过集成不同的语言模型和工具,提供更加自然和智能的对话体验。
    • 旅行规划与导航:smolagents 可以集成地图API,如Google Maps,来获取旅行时间和路线规划,用于构建旅行计划代理。
    • 快速原型设计:smolagents 的模块化设计使其适用于快速原型设计,支持开发者快速构建和测试智能代理的概念。
  • LAM – 微软推出的大型行动模型,能自主操作Windows程序

    LAM是什么

    LAM是微软推出的名为“Large Action Model”(简称 LAM)的新人工智能模型。与传统语言模型不同,LAM能够自主操作Windows程序,实现真实任务执行。 能理解文本,将用户请求转化为具体行动,如启动程序或控制设备。 LAM是首个专门与Microsoft Office产品和其他Windows应用协同工作的模型。 在Word环境中的测试显示,LAM完成任务的成功率为71%,高于GPT-4的63%,执行速度更快。

    LAM的主要功能

    • 用户意图解读:LAM能从多种输入形式(如自然语言、语音、图像等)中准确理解用户的意图,将其转化为可执行的计划和行动步骤。
    • 行动生成:LAM将用户意图转化为具体的行动指令,行动可能包括图形用户界面(GUI)操作、API调用、机器人物理操作等。
    • 动态规划与适应:LAM能将复杂任务分解为多个子任务,根据环境变化动态调整计划和行动,应对执行过程中的意外情况。
    • 专业化与效率:针对特定环境或任务,LAM基于专业化训练,提高在特定领域的准确性和适应性,同时减少计算开销,提升响应速度。
    • 环境交互:LAM与代理系统集成,能与外部工具互动,维持记忆,并与环境进行接口交互,实现对物理世界的实际影响。
    • 自主执行:LAM能够自主执行任务,包括理解任务、规划行动步骤、执行行动,并根据反馈进行调整。
    • 自动化软件任务:LAM可以执行文档编辑、数据录入和表格处理等办公自动化任务。

    LAM的技术原理

    • 多模态输入理解:LAM能解读自然语言请求、语音命令、图像或视频等多样化输入,理解用户的意图。
    • 数据收集与准备:LAM的训练基于收集用户请求、环境状态和对应行动的数据,这些数据经过清洗和预处理,为模型训练提供基础。
    • 模型训练:使用收集的数据,基于监督式微调、强化学习等技术,训练LAM执行特定行动。
    • 环境集成:将训练好的LAM集成到代理系统中,与环境互动,包括收集观察数据、使用工具、维持记忆和实施反馈循环。
    • 评估:在实际部署前,对LAM进行严格的可靠性、鲁棒性和安全性评估,确保在不同环境和任务中的表现,并有效处理意外情况。

    LAM的应用场景

    • 自动化软件任务:LAM可以执行文档编辑、数据录入和表格处理等办公自动化任务,提高工作效率。
    • 智能家居管理:LAM能控制智能家居设备,如调节灯光、温度和安全监控,为用户提供更加智能化的居住环境。
    • 客户服务与支持:基于聊天机器人提供实时帮助和技术支持,LAM可以自动诊断问题并提供解决方案,改善客户体验。
    • 电子商务:LAM可以自动化在线购物流程,包括产品搜索、下单和支付处理,为用户提供便捷的购物体验。
    • 教育与培训:作为虚拟助教,LAM提供个性化学习计划和教学内容,增强教育的互动性和个性化。
  • Cognita – 面向生产环境的开源、模块化 RAG 框架

    Cognita是什么

    Cognita是开源的模块化RAG(Retrieval Augmented Generation)框架,能帮助开发者构建模块化、易于扩展和部署的生产级应用程序。Cognita用Langchain/LlamaIndex作为底层技术,提供代码组织结构,让每个组件都能通过API驱动,易于管理和扩展。Cognita支持本地部署,提供生产就绪环境及无代码UI支持,默认支持增量索引功能。基于Cognita,用户能轻松地测试和部署RAG系统,支持非技术用户用UI与系统交互。

    Cognita

    Cognita的主要功能

    • 模块化和API驱动的架构:Cognita的每个组件都是模块化的,能用API进行交互,便于集成和扩展。
    • 本地和生产环境支持:支持在本地环境快速设置和测试,提供生产级别的部署选项。
    • 无代码UI:提供一个用户界面,支持非技术用户上传文档和执行问答,无需编写代码。
    • 增量索引:支持增量索引,有效地处理文档更新,减少计算负担。
    • 多文档检索器支持:支持多种文档检索技术,如相似性搜索、查询分解和文档重排。

    Cognita的技术原理

    • 数据索引:基于索引作业,定期扫描数据源中的文件,将他们解析成小块,用嵌入模型生成嵌入向量,存储在向量数据库中。
    • 查询服务:用API服务器(如FastAPI)处理查询,生成答案。涉及用AI网关处理用户查询,与向量数据库交互检索相关信息,最终用LLM生成答案。
    • LLM/嵌入模型部署:将LLM和嵌入模型作为单独的服务部署,基于API进行调用。
    • 向量数据库部署:支持在生产环境中部署向量数据库,支持大规模和可靠的数据存储和检索。
    • RAG组件:将RAG系统分解为多个组件,包括数据源、元数据存储、LLM网关、向量数据库、索引作业和API服务器,每个组件都能用UI或API进行配置和管理。

    Cognita的项目地址

    Cognita的应用场景

    • 问答系统:构建企业级的问答系统,支持用户查询特定信息并从大量文档中获得准确的答案。
    • 知识管理:帮助组织管理和检索内部知识库,包括政策文件、操作手册和FAQ等。
    • 客户支持:在客户服务场景中,自动回答常见问题提高效率,减少响应时间。
    • 内容推荐:基于用户查询和历史行为,推荐相关内容,如文章、视频或产品。
    • 研究和分析:为研究人员提供工具,帮助用户从大量研究文献中快速找到相关信息。
  • Memory Layers – Meta 开源不增加算力时增加大模型的参数方法

    Memory Layers是什么

    Memory Layers是Meta推出的用可训练的键值查找机制为模型增加额外参数的方法,它不会增加浮点运算次数(FLOPs)。基于稀疏激活Memory Layers补充计算密集型的前馈层,提供专门的容量廉价地存储和检索信息。Memory Layers在大规模语言模型中显示出显著的实用性,尤其是在处理事实性任务时,能显著提高模型的性能。基于替换Transformer层中的一个或多个前馈网络(FFN)与记忆层,在不显著增加计算成本的情况下,显著提升模型的事实准确性和知识获取能力。

    memory layers

    Memory Layers的主要功能

    • 参数扩展:支持模型在不增加计算负担(即不增加FLOPs)的情况下增加额外的参数,扩展模型的容量。
    • 信息存储与检索:提供专门的机制存储和检索信息。
    • 补充密集层:与计算密集型的前馈层(feed-forward layers)互补,基于稀疏激活模式提供信息存储和检索的专用容量。
    • 提高事实准确性:在事实性任务中,显著提高语言模型的准确性,让模型更准确地记忆和使用训练数据中的事实。
    • 性能提升:在计算和参数匹配的情况下,让模型性能超过传统的密集模型和混合专家模型。

    Memory Layers的技术原理

    • 键值查找机制:基于简单的键值查找机制工作,其中键和值都编码为嵌入向量。给定查询向量q,及一组键K和值V,输出是值的一个软组合,权重根据q与对应键的相似度确定。
    • 稀疏激活:与传统的注意力机制不同,Memory Layers中的键和值是可训练的参数,而不是激活值。由于键和值的数量通常很大,Memory Layers需要进行稀疏查找和更新,只有与查询最相似的top-k键和对应的值参与输出计算。
    • 产品键查找:为解决大规模记忆中查询-键检索的瓶颈,Memory Layers采用产品量化键(product-quantized keys),用两组较小的键有效地执行全键集的top-k查找。
    • 并行化实现:由于Memory Layers对内存的需求很大,在多个GPU上并行化嵌入查找和聚合实现大规模扩展。
    • 共享记忆参数:用共享的记忆参数池,在不增加参数数量的情况下,基于多个记忆层增加性能。

    Memory Layers的项目地址

    Memory Layers的应用场景

    • 问答系统:在问答系统中,帮助模型记住和检索大量的事实信息,提供准确的答案。
    • 语言模型:在自然语言处理中,增强语言模型的记忆能力,在处理长文本和复杂对话时更加有效。
    • 推荐系统:在推荐系统中存储用户的历史行为和偏好,提供更个性化的推荐。
    • 知识图谱:在知识图谱的应用中,存储和检索实体之间的关系,支持复杂的查询和推理。
    • 对话系统:在对话系统中,帮助模型记住对话历史,让对话更加连贯和自然。
  • Jina Reader – AI 网页解析工具,一键将网页内容转为适配LLM的文本格式

    Jina Reader是什么

    Jina Reader 是 Jina AI 推出的开源工具,能将互联网上的 HTML 网页内容转换为适合大型语言模型(LLMs)处理的纯文本格式。用户只需在网址前添加特定前缀,即可快速提取网页的主要内容,并用结构化文本形式输出,去除不必要的 HTML 标签和脚本。工具支持多种内容格式,包括 Markdown、HTML、Text 等,具备流模式、JSON 模式和自动为图片生成描述的 Alt 生成模式,增强 LLMs 对网页内容的理解。

    Jina Reader

    Jina Reader的主要功能

    • 网页内容提取:将 HTML 网页转换为纯文本格式,去除不必要的标签和脚本。
    • 格式选择:支持将网页内容输出为 Markdown、HTML、Text、Screenshot、Pageshot 等多种格式。
    • 流模式:适用于大型和动态网页,支持更长时间的页面渲染,确保内容的完整性。
    • JSON模式:输出包含 URL、标题和内容的结构化 JSON 数据,便于后续处理。
    • Alt生成模式:为缺少 alt 标签的图片自动生成描述,帮助 LLMs 更好地理解网页中的图像内容。
    • 目标选择器和等待选择器:用 CSS 选择器指定页面中特定部分的内容提取,或等待特定元素出现后再提取内容。

    Jina Reader的技术原理

    • 网页抓取与解析:用网络爬虫技术抓取网页内容。基于 HTML 解析器(如BeautifulSoup或类似的库)解析网页的DOM树结构,提取出网页的文本内容。
    • 内容清洗与结构化:清洗HTML标签、JavaScript代码和CSS样式,只保留纯文本内容。识别和提取网页中的标题、段落、链接、图片等结构化元素。
    • 自然语言处理(NLP):对提取的文本进行自然语言处理,提高文本的质量,例如去除停用词、词干提取等。生成图像的替代文本(alt text),基于视觉语言模型(VLM)为图片生成描述。
    • 动态内容处理:对于单页应用程序(SPA)和动态加载的内容,用如Puppeteer这样的头less浏览器模拟用户交互,等待JavaScript执行完成,捕获最终的页面内容。
    • 流式处理与实时解析:支持流式解析网页内容,对于大型和动态网页尤为重要,能实时处理网页内容。

    Jina Reader的项目地址

    Jina Reader的应用场景

    • 内容聚合与分析:从多个网站自动聚合新闻文章、博客帖子或研究报告,进行内容分析和趋势预测。
    • 搜索引擎优化(SEO):提取网页内容,分析关键词密度和SEO元数据,优化网站排名。
    • 学术研究:从学术期刊和数据库中提取文章,进行文献综述和数据挖掘。
    • 客户服务与支持:自动从FAQs、用户手册和支持论坛中提取信息,提供客户服务和支持。
    • 内容推荐系统:提取网页内容,分析用户兴趣,提供个性化的内容推荐。
  • DeepSeek Artifacts – Hugging Face推出的AI编程工具,基于DeepSeek V3

    DeepSeek Artifacts是什么

    DeepSeek Artifacts是Hugging Face推出的免费AI编程工具,能生成React和Tailwind CSS的前端代码。工具基于DeepSeek V3,主要目标是构建公共的前端代码数据集,用户生成的代码将被收录进这个数据集,用开源模式供所有人使用。DeepSeek Artifacts界面简洁,无需登录注册,支持沙盒环境代码编辑,支持项目保存至本地或GitHub,具有快速生成代码的能力。DeepSeek Artifacts特别适合快速生成组件或简单应用,并且能集成到其他项目中。

    DeepSeek Artifacts

    DeepSeek Artifacts的主要功能

    • 代码生成:DeepSeek Artifacts能自动生成React和Tailwind CSS的前端代码,帮助开发者快速构建界面和组件。
    • 公共数据集构建:工具构建一个公共的前端代码数据集,用户生成的代码将被收录,用开源模式供所有人使用。
    • 沙盒环境:提供沙盒环境,支持用户直接在线上编辑和测试生成的代码。
    • 项目保存与分享:支持将项目保存到本地或创建GitHub仓库,方便代码的分享和版本控制。
    • 快速部署:生成的项目文件能轻松部署到如Netlify等平台,支持快速上线。
    • SEO优化与自定义功能:支持生成包含SEO优化工具的页面,支持API密钥输入和领域细分,自动生成和分组关键字。

    DeepSeek Artifacts的技术原理

    • AI编码器:基于深度学习模型,特别是自然语言处理(NLP)技术,理解和生成代码。
    • 上下文理解:分析用户提供的描述,AI编码器能理解所需的功能和设计要求,生成符合上下文的代码。
    • 开源模式:采用开源模式,支持用户贡献代码,用社区的力量不断改进和扩展数据集。
    • 前端框架集成:集成流行的前端框架React和Tailwind CSS,让生成的代码直接用在现代Web开发。
    • 自动化流程:基于自动化代码生成流程,减少手动编码的工作量,提高开发效率。

    DeepSeek Artifacts的项目地址

    DeepSeek Artifacts应用场景

    • 快速原型开发:开发者快速生成应用原型,验证产品概念,无需从头开始编写代码。
    • 教育和学习:学生和新手开发者构建前端应用,理解代码结构,及实践前端开发流程。
    • 自动化测试:自动生成测试代码,用在前端应用的自动化测试,提高测试效率和覆盖率。
    • 组件库构建:开发者生成可复用的UI组件,构建或扩展组件库。
    • SEO优化:为网站生成SEO友好的页面,提高搜索引擎排名,吸引更多流量。
  • LongDocURL – 中科院联合淘天集团推出的多模态长文档理解基准数据集

    LongDocURL是什么

    LongDocURL是中国科学院自动化研究所和阿里巴巴淘宝天猫集团联合发布的多模态长文档理解基准数据集。专注于评估模型在处理长文档、复杂元素和多样化任务中的理解、推理和定位能力。数据集包含2,325个问答对,覆盖超过33,000页文档,涉及20个子任务,旨在推动文档理解技术的发展。

    LongDocURL的主要功能

    • 长文档理解:评估AI模型对复杂文本内容的理解能力,包括提取核心信息、识别关键段落和细节,以及分析文档结构如标题、图表说明等。
    • 数值推理:考察AI模型处理数据和进行精确计算的能力,特别是理解和处理包含大量数值信息的文档,如财务报告和科研文献中的数据。
    • 跨元素定位:评估模型在长文档中定位和关联不同类型元素(如文本、表格、图表)的能力,这对于理解和推理任务至关重要。
    • 多样化任务:数据集细分为20个子任务,覆盖理解、推理和定位三大任务,基于不同的任务类型和证据来源。
    • 半自动化构建流程:包括文档筛选、问答生成和自动化与人工验证等步骤,确保数据集的质量和多样性。
    • 多类型文档支持:涵盖研究报告、用户手册、书籍等多种类型的文档,平均每份文档长达85.6页,提供丰富的应用场景。

    LongDocURL的技术原理

    • 多模态文档理解:LongDocURL旨在评估模型在处理包含文本、图像和表格等多种模式的长文档时的能力。这涉及到将文档的不同元素(如文本、图像)整合到一个共享的多模态嵌入空间中,以便模型能够理解和推理这些元素之间的关系。
    • 页面检索与问答生成:LongDocURL使用多模态检索模型(如ColPali)来检索与查询最相关的页面,并使用多模态语言模型(如Qwen2-VL)对检索到的页面图像和查询进行视觉问答,生成最终答案。
    • 半自动化构建流程:LongDocURL通过一个半自动化的流程来构建数据集,包括文档提取与过滤、问答生成、自动化验证和人工验证四个模块。这个流程能够高效地从大量文档中生成高质量的问答对,并确保内容的质量。
    • 模型评估:LongDocURL提出了一个新的基准,包含2441个多跳问题,分布在3368个PDF文档中,总计41005页。每个问题都由一个或多个文档中的证据支持,涵盖文本、图像和表格等多种模式,捕捉现实世界文档的典型复杂性和多样性。
    • 任务分类:LongDocURL将任务分为理解、推理和定位三个主要类别,并根据不同的主任务和答案证据进一步细分为20个子任务,支持更细粒度的评估。

    LongDocURL的项目地址

    LongDocURL的应用场景

    • 文档理解:LongDocURL数据集可以用于评估和训练AI模型在处理长文档时的理解能力,包括提取关键信息、解析文档结构等。
    • 数值推理:在金融、会计等领域,LongDocURL可以用于训练AI模型进行数值计算、比较和总结,处理包含大量数值信息的文档。
    • 法律领域:在法律领域,LongDocURL可以帮助AI系统分析大量的法律文书,提供案件相关的信息提取和证据定位。
    • 医疗领域:LongDocURL可以用于分析病历中的文字记录和影像资料,辅助医生进行更全面的诊断。
    • 智能制造:在智能制造领域,LongDocURL可以用于监控生产线上的设备状态,结合操作手册和传感器数据优化生产流程。
    • 科学研究:LongDocURL提供了一个标准化的评估基准,有助于提升模型在科学文档理解任务中的表现,特别是在处理结构化科学文献时。
  • TryOffAnyone – 将模特穿着服装的图像还原成平铺商品图的 AI 工具

    TryOffAnyone是什么

    TryOffAnyone是能将穿着服装的人物照片转换成平铺的服装展示图的AI工具。基于先进的Latent Diffusion Models技术,自动识别并提取照片中的服装区域,然后将其转换为专业平铺效果。对于电商平台来说非常有用,可以降低制作商品图片的成本,同时提供标准化的服装展示效果。TryOffAnyone的特点包括在线图片处理、智能服装识别、自动背景去除和图像优化等。

    TryOffAnyone的主要功能

    • 在线图片URL直接处理:支持直接对在线图片URL进行处理,无需下载图片即可进行服装提取和转换。
    • 智能识别提取服装区域:能智能识别并提取图像中的服装区域,为后续的平铺效果生成提供精确的服装信息。
    • 自动平铺效果生成:自动将穿着状态的服装转换为平铺效果,提供专业的服装展示图。
    • 背景去除和图像优化:内置专业的背景去除和图像优化处理功能,以提升生成图像的质量。
    • VITON-HD数据集批量测试:支持VITON-HD数据集的批量测试功能,确保模型的有效性和准确性。
    • 模型评估指标计算:提供详细的模型评估指标计算,帮助用户了解模型性能。
    • 多种图像质量评估方法:集成了多种图像质量评估方法,如SSIM, LPIPS, FID, KID,以确保生成图像的质量。
    • 自定义图像尺寸和处理参数:支持用户自定义图像尺寸和处理参数,以满足不同的需求。
    • 预训练模型快速部署:提供预训练模型快速部署能力,方便用户快速使用。

    TryOffAnyone的技术原理

    • TileDiffusion框架:是一个单阶段框架,旨在从穿着服装的人物图像及其对应的服装掩码中合成高质量的拼接布料图像。
    • 语义分割模型:TryOffAnyone基于在ATR数据集上微调的Segformer语义分割模型来提取精确的布料掩码。这些布料掩码作为生成过程的显式指导,指示出要以平放配置重建的精确服装。
    • 变分自编码器(VAE):TryOffAnyone的架构包括一个预训练的VAE,作为潜在空间的编码器-解码器运行,将输入图像压缩为低维表示,同时保留重要的衣物特征。
    • 去噪U-Net:架构中的另一个主要模块是去噪U-Net,以穿着者的衣物和衣物掩码的潜在表征为条件,执行迭代去噪以生成目标平铺衣物图像。
    • Latent Diffusion Models(LDMs):TryOffAnyone基于LDMs,这是一种通过在一个潜在表示空间中迭代“去噪”数据来生成图像的方法。LDMs将生成过程分为两个阶段:首先,训练一个自动编码器,提供一个低维的表示空间,在感知上等同于数据空间;其次,在学习的潜在空间上训练DM,将生成模型成为潜在扩散模型LDM。
    • 跨注意力层:LDMs引入跨注意力层,以卷积方式实现对一般条件输入(如文本或边界框)的响应以及高分辨率合成。
    • 网络架构:TryOffAnyone的网络架构包括对去噪扩散U-Net中的变换器块进行微调,以优化性能,同时保持预训练组件的强大能力,同时适应生成层以适应服装重建任务。

    TryOffAnyone的项目地址

    TryOffAnyone的应用场景

    • 虚拟试衣:TryOffAnyone能从穿着衣物的人物图像中生成平铺的服装图像,用户可以通过这种技术在线上试穿衣物,无需实际穿上它们,提升在线购物体验。
    • 个性化推荐:通过生成高质量的平铺服装图像,TryOffAnyone可以帮助电商平台提供个性化的服装推荐,增强用户的购物体验。
    • 服装展示标准化:可以生成标准化的服装展示图,对于电商平台来说非常重要,因为它有助于统一商品展示的格式,消费者能更直观地比较不同的产品。
    • 库存管理:通过自动化服装图像的生成,TryOffAnyone有助于简化库存管理流程,减少手动编辑图片的需求,提高效率。
    • 产品属性识别:TryOffAnyone可以辅助产品属性识别,通过生成的平铺图像,可以更容易地识别和分类服装产品的特征。
    • 图像检索:在电商平台上,用户可以通过上传服装图片,基于TryOffAnyone生成的平铺图进行更精确的图像检索,快速找到相似的商品。
  • SAC-KG – 通用知识图谱构建框架,能构建超百万节点的领域知识图谱

    SAC-KG是什么

    SAC-KG是基于大型语言模型(LLMs)自动构建领域知识图谱的通用框架。由生成器、验证器和剪枝器三个主要组件构成,能自动从原始领域语料库中生成特定领域的一级知识图谱,确保生成的三元组的准确性。SAC-KG能构建超过百万节点规模的领域知识图谱,达到89.32%的精度,比现有最先进方法提高了20%以上的精度。这一框架有效地利用LLMs作为领域专家,生成专业且准确的多层级知识图谱。

    SAC-KG的主要功能

    • 自动化构建知识图谱:SAC-KG通过其组件自动从原始领域语料库构建特定领域的单层知识图谱,能迭代构建多层级知识图谱。
    • 提高构建精度:SAC-KG的验证器和剪枝器协同工作,通过纠正生成错误并确定新生成的尾部是否需要对下一层级知识图谱进行迭代来保证准确性,实验中精度达到了89.32%,比现有方法提高了20%以上。
    • 领域专业化:基于大型语言模型(LLMs)作为领域专家,SAC-KG生成的知识图谱具有高度的专业化特性,能生成与特定领域相关的三元组。
    • 控制生成过程:通过引入开放知识检索器和剪枝器,SAC-KG能有效地控制生成过程,确保生成的三元组格式正确且符合领域要求。
    • 大规模构建能力:SAC-KG能在超过一百万个节点的规模上自动构建领域知识图谱,展示了其在处理大规模数据集上的优势。
    • 无监督方法:SAC-KG是一种无监督方法,可以应用于任何具有大量非结构化文本语料库的领域,而无需标记数据。
    • 一致性评估:通过与GPT-4和人类评估的一致性比较,验证了SAC-KG生成的知识图谱的高质量和可靠性。

    SAC-KG的技术原理

    • 生成器(Generator):生成器负责从原始领域语料库和开源知识图谱中检索相关信息,将其作为输入提供给大型语言模型(LLMs),生成特定领域的一级知识图谱。包括两个子模块:
      • 领域语料库检索器:将领域语料库分割成句子,并根据实体出现的频率进行排序,最后将排序后的句子连接成一个固定长度的文本输入到LLMs。
      • 开放知识检索器:对于开源知识图谱中的实体,提供相关的三元组作为示例;对于不在开源知识图谱中的实体,将其分词后重新检索;对于仍不匹配的实体,随机选择十个三元组作为提示。
    • 验证器(Verifier):验证器的作用是检测和过滤掉生成器生成的错误三元组。包括两个步骤:
      • 错误检测:使用RuleHub中挖掘的超过7000条规则标准,对生成的三元组进行数量检查、格式检查和冲突检查。
      • 错误校正:根据检测到的错误类型,提供相应的提示,并重新提示LLMs生成正确的三元组。
    • 剪枝器(Pruner):剪枝器与验证器协同工作,通过确定新生成的尾部是否需要对下一层级知识图谱进行迭代来保证准确性,增强构建的知识图谱的可控性。基于开源知识图谱DBpedia进行微调的T5二分类器模型,输入由每个正确三元组的尾实体组成,输出为“growing”或“pruned”,表示该实体是继续生成下一级知识图谱还是停止进一步生成。

    SAC-KG的项目地址

    SAC-KG的应用场景

    • 专业领域知识图谱构建:SAC-KG能在医学、生物学、社交网络等多个领域中应用,帮助构建特定领域的知识图谱。
    • 自动化和精确性提升:SAC-KG通过自动化构建过程,提高了知识图谱构建的自动化程度和精度,精度达到了89.32%,比现有的最先进方法提高了20%以上的精度。
    • 领域专业化:SAC-KG利用大型语言模型(LLMs)作为领域专家,生成与特定领域相关的三元组,使得知识图谱具有高度的专业化特性。
    • 大规模数据处理:SAC-KG能在超过一百万个节点的规模上自动构建领域知识图谱,展示了其在处理大规模数据集上的优势。
  • SoulChat2.0 – 华南理工大学推出的心理咨询师数字孪生大语言模型

    SoulChat2.0是什么

    SoulChat2.0是华南理工大学未来技术学院-广东省数字孪生人重点实验室基于SoulChat1.0模型推出的心理咨询师数字孪生大语言模型。首次定义了特定心理咨询师的数字孪生任务,旨在通过模拟真实心理咨询师的语言风格和疗法技术,提升大模型在真实心理咨询场景中的应用性能。SoulChat2.0能低成本、快速、高效地构建具有特定心理咨询师风格的心理健康大模型,辅助心理咨询师开展工作,如前置谈话和提供24小时在线服务等。

    SoulChat2.0的主要功能

    • 心理咨询师数字孪生建模:SoulChat2.0能通过微调实现对特定心理咨询师的数字孪生,模拟该咨询师的语言风格与咨询技术,提升LLMs在真实心理咨询场景中的应用性能。
    • 低成本、快速、高效构建模型:SoulChat2.0能够利用少量的真实咨询案例进行心理咨询师数字孪生建模,低成本、快速、高效地构建具有特定心理咨询师风格的心理健康大模型。
    • 辅助心理咨询工作:SoulChat2.0能够辅助真实世界的心理咨询师进行工作,例如执行前置谈话和提供24小时在线服务等。
    • 开源合作:SoulChat2.0的项目方法代码、数据集和模型已全面开源,便于研究社区进行对比和复现,推动心理健康大模型领域的发展。

    SoulChat2.0的技术原理

    • 心理咨询师数字孪生数据生成:SoulChat2.0通过综合真实世界咨询师的语言风格、咨询技术、来访者大五人格,结合真实世界咨询案例,对于单轮对话进行心理咨询师数字孪生数据生成。这一过程能够快速生成批量用于该心理咨询师数字孪生建模的咨询案例。
    • 多轮对话合成:SoulChat2.0基于大型语言模型(LLMs)构建具有个性化咨询风格的心理咨询师数字孪生。涉及到从咨询案例中进行动态一次性学习、客户端人格模拟和多轮心理健康对话合成。
    • 微调大型语言模型:给定用于心理咨询师数字孪生建模的咨询案例数据,SoulChat2.0可以通过微调来实现对该咨询师的数字孪生。这一过程涉及到使用特定的基座模型,在PsyDTCorpus的训练集上进行全量微调,实现具有特定咨询风格的心理咨询师的数字孪生。
    • 多维度评估与提升:SoulChat2.0在谈话技术、状态与态度、情感共情、认知共情等维度上相较于其他模型有较大幅度的提升,增强了模型的心理咨询性能。

    SoulChat2.0的项目地址

    SoulChat2.0的应用场景

    • 心理咨询辅助:SoulChat2.0能模拟真实心理咨询师的语言风格和疗法技术,辅助真实世界的心理咨询师进行工作。可以用于执行前置谈话和提供24小时在线服务,满足不同时间段用户的需求。
    • 心理健康大模型研究:SoulChat2.0通过少量的真实咨询案例进行心理咨询师数字孪生建模,为心理健康大模型领域带来新的研究思路。