Blog

  • AI快讯:3月第2期(3月11日到3月20日的AI行业新闻)

    AI工具集采用每月3期的版面集合,每日更新AI行业的最新快讯,本期为3月第2期(3月11日到3月20日)的AI行业新闻集合。

    3月11日到3月20日的AI快讯

    3月15日

    • 北京时间凌晨,OpenAI发布了其多模态预训练大模型GPT-4。GPT-4的能力飞跃式提升:
      • 强大的试图能力
      • 文字输入限制提升至2.5万字
      • 回答准确性显著提高
      • 可生成歌词、创意文本,实现风格变化

    3月12日

    • 南洋理工大学发布基于强化学习的开源平台:量化交易大师(TradeMaster)
  • AI快讯:3月第1期(3月1日到3月10日的AI行业新闻)

    AI工具集采用每月3期的版面集合,每日更新AI行业的最新快讯,本期为3月第1期(3月1日到3月10日)的AI行业新闻集合。

    3月1日到3月10日的AI快讯

    3月10日

    • 微软德国CTO Andreas Braun表示将在下周推出GPT-4,可能与百度文心的发布会在同一天(3月16日)

    3月7日

    • 微软宣布将ChatGPT集成到Power Platform,推出新的生成式CoPilot工具,将与Office结合,预计在3月16日发布会披露具体信息。
    • AI大神李沐,《动手学深度学习》和MXNet的主要开发者加入AI大模型创业
    • SaaS巨头Salesforce宣布与OpenAI合作,推出Einstein GPT,用于客户关系管理(CRM),同时也会讲聊天机器人与其收购的协作软件Slack中

    3月2日

    • OpenAI开放ChatGPT API,价格直降90%,百万Token仅需2美元。
    • 微软宣布Windows 11重磅更新,新版AI必应搜索直接内置到任务栏搜索中。

    3月1日

    • 北大开发团队推出ChatExcel,使用对话的方式便可处理Excel表格。
  • Ian Goodfellow:生成式对抗网络GAN的发明人 – AI名人堂

    Ian Goodfellow

    Ian J. Goodfellow(生于1985年或1986年)是一位美国计算机科学家、工程师和高管,最著名的是他在人工智能神经网络深度学习方面的工作。他之前曾担任谷歌大脑的研究科学家和苹果公司的机器学习主管,并在深度学习领域做出了几项重要贡献,包括生成式对抗网络(GAN)的发明。Goodfellow与人合著了被誉为AI圣经的教科书《深度学习》(2016年),并在人工智能领域最受欢迎的教科书《人工智能:现代方法》中撰写了关于深度学习的章节(在135个国家的1500多所大学中使用)。

    教育经历

    Ian Goodfellow在吴恩达(Andrew Ng)(谷歌大脑联合创始人兼负责人、Coursera联合创始人)的指导下获得了斯坦福大学的计算机科学学士和硕士学位,并于2014年4月在约书亚·本希奥(Yoshua Bengio)和亚伦·库维尔(Aaron Courville)的指导之下获得了蒙特勒大学的机器学习博士学位。Goodfellow的论文题目是表征的深度学习及其在计算机视觉中的应用。

    工作经历

    毕业后,Goodfellow加入谷歌,成为谷歌大脑研究团队的一员。2016年3月,他离开谷歌,加入新成立的OpenAI研究实验室。仅仅11个月后,即2017年3月,Goodfellow重返谷歌研究,但在2019年再次离职。

    2019年,Goodfellow加入苹果公司,担任特别项目组的机器学习主管。他于2022年4月从苹果公司辞职,以抗议苹果公司要求员工亲自工作的计划。Goodfellow随后加入DeepMind,成为一名研究科学家。

    Goodfellow最出名的是发明了生成式对抗网络(GAN),利用深度学习生成图像。这种方法使用两个神经网络来竞争性地提高图像的质量。“生成器”网络基于初始图像集(如人脸集合)创建合成图像。“判别器”网络试图检测生成器的输出是真的还是假的。然后重复生成检测循环。对于每次迭代,生成器和判别器使用对方的反馈来改进或检测生成的图像,直到判别器无法再区分对手生成的赝品和真品。创建高质量生成图像的能力迅速提高。然而,它的恶意滥用也是如此,用来创建deepfakes和生成基于视频的虚假信息。

    在谷歌,Goodfellow开发了一个系统,使谷歌地图能够自动转录街景汽车拍摄的照片中的地址,并展示了机器学习系统的安全漏洞。

  • Yann LeCun:深度学习三巨头之一,图灵奖获得者 – AI名人堂

    Yann LeCun 杨立昆

    Yann André LeCun(中文名杨立昆)(1960年7月8日-)是一位法国计算机科学家,主要从事机器学习、计算机视觉、移动机器人和计算神经科学领域的工作。他是纽约大学Courant数学科学研究所的Silver教授,也是Meta(Facebook)的副总裁兼首席人工智能科学家。

    他以使用卷积神经网络(CNN)进行光学字符识别和计算机视觉方面的工作而闻名,是卷积网络的创始人。他也是DjVu图像压缩技术的主要创造者之一(与Léon Bottou和Patrick Haffner一起)。他与Léon Bottou共同开发了Lush编程语言。

    LeCun与Yoshua BengioGeoffrey Hinton一起获得了2018年图灵奖(通常被称为“计算机领域的诺贝尔奖”),以表彰他们在深度学习方面的工作。这三位有时被称为“人工智能之父”和“深度学习之父”。

    生平介绍

    杨立昆于1960年生于法国巴黎附近,1983年在巴黎电子工程师高等学校获得了工程师学位,1987年在巴黎第六大学获得计算机科学博士学位。博士就读期间,他提出了神经网络的反向传播算法学习算法的原型。随后到多伦多大学在Geoffrey Hinton的指导下完成了博士后工作。

    1988年,杨立昆加入位于美国新泽西州的霍姆德尔镇区的贝尔实验室的自适应系统研究部门。实验室的领导是Lawrence D. Jackel,在此,他开发了很多新的机器学习方法,比如图像识别的模型称为卷积神经网络、Optimal Brain Damage(最优脑损伤方法)以及Graph Transformer Networks(图网络模型)方法(类似于条件随机域),他将其应用到手写识别和OCR中。

    他协助开发的银行支票识别系统被NCR和其他的公司广泛使用,该系统读取了20世纪90年代末至21世纪初全美国超过10%的支票。

    1996年,他加入了AT&T实验室,成为图像处理研究部门的领导,这个部门是Lawrence Rabiner领导的语音和图像处理研究实验室的一部分,主要工作是DjVu图像压缩技术,被以互联网档案馆为首的网站使用,用来发布扫描的文档。他的AT&T同事包括Léon Bottou和弗拉基米尔·瓦普尼克。

    2012年,他成为了纽约大学数据科学中心的创建主任。2013年12月9日,杨立昆成为位于纽约的Facebook(现Meta)人工智能研究院的第一任主任,2014年初期逐步退出了NYU-CDS的领导层。

    你可以访问他的个人网站http://yann.lecun.com/了解其更多信息

  • Yoshua Bengio:深度学习三巨头之一,图灵奖获得者 – AI名人堂

    Yoshua Bengio

    Yoshua Bengio(1964年3月5日-)是一位加拿大计算机科学家,以其在人工神经网络和深度学习方面的工作而闻名。他是蒙特利尔大学计算机科学与运筹学系教授,也是蒙特利尔学习算法研究所(MILA)的科学主任。

    Bengio与Geoffrey HintonYann LeCun一起获得了2018年ACM A.M.图灵奖,以表彰他们在深度学习方面的工作。Bengio、Hinton和LeCun有时被称为“人工智能之父”和“深度学习之父”。

    早期和教育经历

    Bengio出生于法国的一个犹太家庭,他们从摩洛哥移民到法国,然后再次移民到加拿大。他在麦吉尔大学获得了理学学士学位(电气工程)、医学博士学位(计算机科学)和博士学位(电脑科学)。

    Bengio是Samy Bengio的兄弟,他曾是谷歌的科学家。Bengio兄弟在父亲在摩洛哥服役期间在摩洛哥生活了一年。他的父亲Carlo Bengio是一名药剂师,曾创作戏剧作品,并在蒙特利尔经营着一个塞法迪剧团,该剧团演奏犹太-阿拉伯作品。他的母亲塞莉亚·莫雷诺(Célia Moreno)也是一名艺术家,曾在20世纪70年代由塔耶布·塞迪基(Tayeb Seddiki)经营的摩洛哥主要戏剧场景中扮演过角色。

    生平和研究领域

    博士毕业后,Bengio在麻省理工学院(由Michael I.Jordan监督)和AT&T贝尔实验室担任博士后。Bengio自1993年以来一直是蒙特利尔大学的教员,蒙特利尔学习算法研究所(MILA)负责人,也是加拿大高等研究所机器与大脑学习项目的联合主任。

    Cade Metz认为,Bengio与Geoffrey Hinton和Yann LeCun一起,是20世纪90年代和21世纪初对深度学习发展最具贡献的三个人之一。根据MILA的数据,在h指数至少为100的计算机科学家中,Bengio是每天被引用次数最多的一个。

    2016年10月,Bengio与人共同创立了Element AI,这是一家总部位于蒙特利尔的人工智能孵化器,将人工智能研究转化为现实世界的商业应用。由于未能开发出适销对路的产品,并失去了几家合作伙伴,到2020年,该公司的资金和选择权都用完了,并于11月宣布将其出售给美国软件公司ServiceNow。此次出售将主要由加拿大纳税人资助的知识产权出口到美国,这与Bengio希望Element AI成为一家加拿大公司来与世界科技巨头竞争的愿望背道而驰。

    2017年5月,Bengio宣布加入总部位于蒙特利尔的法律科技初创公司Botler AI,担任战略顾问。

    Bengio目前担任Recursion Pharmaceuticals的科学和技术顾问和Valence Discovery的科学顾问。

    奖项和荣誉

    • A.M.图灵奖(2018年)
    • 基拉姆自然科学奖(2018年)
    • 伦敦皇家学会会员(2020年)
    • 加拿大皇家学会会员(2017年)
    • 法国荣誉军团骑士(2022年)
    • 加拿大勋章会员(2017年)
    • IEEE CIS神经网络先锋奖(2019年)
  • Jeff Dean:Google AI掌门人 – AI名人堂

    Jeff Dean

    如果你是开发人员的话,我想你应该听说过数不清的关于Jeff Dean大牛的笑话,其中最广为流传的便是“编译器从来不给Jeff编译警告,而是Jeff警告编译器”、“所有指针都是指向Jeff的”,这足以侧面印证出Jeff Dean的实力。

    Jeffrey Adgate(Jeff Dean)(1968年7月23日-)是一位美国计算机科学家和软件工程师,自2018年以来,他一直领导着谷歌人工智能部门Google AI,你可以在谷歌的官方网站了解其更多简介https://research.google/people/jeff/

    教育经历

    Jeff Dean于1990年以优异成绩获得明尼苏达大学计算机科学和经济学学士学位,他于1996年获得华盛顿大学计算机科学博士学位,在Craig Chambers的指导下研究面向对象编程语言的编译器和全程序优化技术。他于2009年当选为美国国家工程院院士,该院表彰了他在“大规模分布式计算机系统的科学与工程”方面的工作。

    工作经历

    在加入谷歌之前,Dean曾在DEC/Compaq的西部研究实验室工作,在那里他从事分析工具、微处理器体系结构和信息检索方面的工作。在研究生院之前,他曾在世界卫生组织的全球艾滋病规划署工作,开发用于艾滋病毒/艾滋病疫情统计建模和预测的软件。

    Jeff于1999年年中加入谷歌,目前是谷歌人工智能部门的负责人。在谷歌工作期间,他设计并实现了该公司的大部分广告、爬虫、索引和查询服务系统,以及作为谷歌大多数产品基础的分布式计算基础设施。在不同时期,他还致力于提高搜索质量、统计机器翻译和内部软件开发工具,并在工程招聘过程中发挥了重要作用。

    Jeff也是谷歌大脑(Google Brain)的早期成员,谷歌大脑是一个研究大规模人工神经网络的团队,自人工智能从谷歌搜索中分离出来以来,他一直领导谷歌人工智能的工作。

    Jeff参与的项目

    1. Spanner,一个可扩展、多版本、全局分布式和同步复制的数据库
    2. 谷歌翻译的一些生产系统设计和统计机器翻译系统
    3. 大型半结构化存储系统Bigtable
    4. MapReduce,一个用于大规模数据处理应用程序的系统
    5. LevelDB,一个开源的磁盘键值存储
    6. DistBelief,一个用于深度神经网络的专有机器学习系统,最终被重构为TensorFlow
    7. TensorFlow,一个开源的机器学习软件库

    Jeff的研究领域

    Jeff Dean的研究领域

  • Geoffrey Hinton:深度学习之父,图灵奖获得者 – AI名人堂

    Geoffrey Hinton

    杰弗里·埃弗里斯特·辛顿,(英语:Geoffrey Everest Hinton,1947年12月6日-),英国出生的加拿大计算机学家和心理学家,多伦多大学教授。以其在类神经网络方面的贡献闻名。Hinton是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,被誉为“深度学习之父”。Hinton因在深度学习方面的贡献与 Yoshua Bengio(约书亚·本希奥)Yann LeCun(杨立昆)一同被授予了2018年的图灵奖。

    教育经历

    Hinton于1970年在英国剑桥大学获得实验心理学学士学位。此后于1978年在爱丁堡大学获得人工智能博士学位。此后曾在萨塞克斯大学、加州大学圣迭戈分校、剑桥大学、卡内基梅隆大学和伦敦大学学院工作。他是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。Hinton是机器学习领域的加拿大首席学者,也是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者。Hinton在2013年3月加入Google,同时Google并购了他创办的DNNresearch公司。你可以在Google Research上了解其更多信息,https://research.google/people/GeoffreyHinton/

    研究成果

    Hinton的研究调查了将神经网络用于机器学习、记忆、感知和符号处理的方法,他撰写或与人合著了200多篇同行评审的出版物。在2022年神经信息处理系统大会(NeuRIPS)上,Hinton介绍了一种新的神经网络学习算法,他称之为“Forward-Forward”算法。新算法的思想是用两个正向通路取代反向传播的传统正向-反向通路,一个具有正(即真实)数据,另一个具有负数据,这可以由网络本身生成。

    Hinton在卡内基梅隆大学担任教授期间(1982-1987),David E.Rumelhart和Hinton以及Ronald J.Williams将反向传播算法应用于多层神经网络。他们的实验表明,这种网络可以学习有用的数据内部表示。在2018年的一次采访中,Hinton表示,“David E.Rumelhart提出了反向传播的基本想法,所以这是他的发明。”尽管这项工作对推广反向传播很重要,但他并不是第一个提出这种方法的人。Seppo Linnainmaa于1970年提出了反向模式自动微分,反向传播是其中的一个特例,Paul Werbos于1974年提出使用它来训练神经网络。

    在同一时期,Hinton与David Ackley和Terry Sejnowski共同发明了玻尔兹曼机。他对神经网络研究的其他贡献包括分散表示、时延神经网络、专家混合系统和亥姆霍兹机器。2007年,Hinton与人合著了一篇无监督学习论文,题为图像转换的无监督学习。Hinton的研究简介可以在他1992年9月和1993年10月发表在《科学美国人》上的文章中找到。

    获奖荣誉

    • 美国人工智能协会会士(1990)
    • 皇家学会会士(1998)
    • 鲁梅尔哈特奖(2001)
    • IJCAI优秀研究奖(2005)
    • IEEE弗兰克·罗森布拉特奖(2014)
    • 詹姆斯·克拉克·马克士威奖章(2016)
    • BBVA基金会知识前沿奖(2016)
    • 图灵奖(2018)
    • 阿斯图里亚斯亲王奖(2022)
  • 什么是神经网络(Neural Network) – AI百科知识

    什么是神经网络

    什么是神经网络?

    神经网络(Neural Network)作为人工智能中的一种计算模型,是受人脑启发的一种机器学习类型,由多层相互连接的节点(称为神经元)组成,神经网络通过使用大量数据的反复试验过程来学习输入和输出之间的关系,以确定产生所需输出的节点之间的连接和权重,这些节点协同工作以执行模式识别、分类和预测等复杂任务。

    神经网络释义

    神经网络释义(图源:IBM)

    随着神经网络不断学习,它在模式识别和做出准确预测或决策方面会变得更好。近年来,神经网络取得了巨大突破,并在计算机视觉、自然语言处理、语音识别等领域取得了巨大进步。

    神经网络的工作原理

    神经网络通过一系列相互连接的神经元层处理输入数据来工作。 每个神经元接收来自其他神经元的输入,并对输入应用数学函数以产生输出。 然后将输出传递给下一层神经元,重复该过程,直到产生最终输出。 在训练过程中,神经网络通过使用大量数据的训练过程调整神经元的权重和偏差,以最小化预测输出与实际输出之间的误差。一旦训练完成,神经网络就建立了一个数学模型,可用于推理以对新数据做出预测或决策。

    神经网络的类型

    目前业界有研究几种类型的神经网络,一些最常见的类型包括:

    • 前馈神经网络(FNN):该类型网络在单一方向上处理输入数据,从输入到输出,通常用于模式识别和分类。
    • 递归神经网络(RNN):该类型网络可以处理数据序列,例如语音或文本,通常用于自然语言处理和时间序列分析。
    • 卷积神经网络(CNN):该类型网络针对图像和视频处理进行了优化,并使用专门的层来检测边缘和角落等特征。
    • 生成式对抗网络(GAN):该类型网络通过让两个神经网络相互对抗来生成新数据,一个生成数据,另一个试图将其与真实数据区分开来。

    神经网络的应用

    神经网络可用于广泛的应用,包括:

    • 图像识别。识别图片中的人物或物体。 被 Facebook 用于标记朋友、自动驾驶汽车以检测交通信号灯等。
    • 自然语言处理。机器翻译、情感分析、语音识别等。为许多虚拟助手和聊天机器人提供支持。
    • 预测。根据历史数据预测时间序列数据的未来值。 用于股价预测、销售预测等。
    • 机器人学。根据图像识别和传感器数据控制机器人的运动。
    • 推荐系统。电子商务网站上的产品推荐通常基于神经网络。
    • 诊断疾病。检测医学扫描中的异常以识别癌症等疾病。
    • 预测客户流失。识别可能停止使用某项服务的客户。
    • 检测欺诈。根据消费模式和其他数据识别信用卡或保险欺诈。

    神经网络的优势

    与传统机器学习算法相比,神经网络具有多项优势:

    1. 神经网络可以检测输入和输出之间难以明确编程范式的复杂非线性关系。
    2. 神经网络可以从大量数据中学习并适应新信息,这使它们成为需要持续学习的应用程序的理想选择。
    3. 神经网络可以识别数据中复杂的模式和关系,这些模式和关系对于人类或其他机器学习算法来说可能并不明显。
    4. 神经网络可以处理嘈杂或不完整的数据,使它们在实际应用中非常有用。

    神经网络的局限

    虽然神经网络有很多优点,但也有一些限制需要考虑。 神经网络的一些局限性包括:

    • 过度拟合:神经网络有时会过度拟合训练数据,这意味着它们变得过于专业化,在新数据上可能表现不佳。
    • 可解释性:神经网络可能难以解释,因此很难理解它们是如何得出特定预测或决策的。
    • 训练时间:训练神经网络可能非常耗时且计算量大,特别是对于大型数据集或复杂网络。
    • 对数据质量的依赖:神经网络的性能在很大程度上取决于训练数据的质量和数量,这在某些应用程序中可能是一个限制。
    • 缺乏透明度:神经网络可以被视为一个“黑匣子”,因为通常很难理解它们是如何达到给定预测的,这在需要透明度或问责制的应用程序中可能是一个限制。
    • 有限的可迁移性:在一项任务上训练的神经网络在应用于不同的任务或领域时可能效果不佳,这可能会限制它们的普适性。
  • 什么是GAN,生成式对抗网络(Generative Adversarial Network) – AI百科知识

    什么是GAN生成式对抗网络

    生成式对抗网络(GAN,英文全称Generative Adversarial Network)是一种深度学习模型,由于其生成高质量、真实数据的能力,近年来获得了极大的关注。GAN已被用于广泛的应用中,包括图像合成、风格转移和数据增强。在这篇文章中,我们将探讨什么是GAN、GAN是如何工作的、GAN与其他神经网络模型相比的优势,以及它们的主要应用和用例。

    什么是GAN

    生成式对抗网络(GAN)是一类机器学习模型,由两个神经网络组成,一个是生成器(Generator)和一个判别器(Discriminator),它们在零和游戏中相互竞争。生成器创建合成数据样本,而判别器的工作是区分真实和虚假的数据样本。生成器的目标是提高其创造能够“欺骗”判别器的真实数据的能力,而判别器的目标是提高其识别假数据的能力。

    GAN的结构

    GAN的工作原理

    生成式对抗网络(GAN)由两个主要部分组成:

    1. 生成器(Generator)。生成器是一个神经网络,它将随机噪声作为输入并生成合成数据样本(如图像、文本等),其目标是创建看起来与真实数据分布相同的数据。
    2. 判别器(Discriminator)。判别器是另一个神经网络,它将真实数据样本和由生成器创建的合成数据样本作为输入。它的目标是对给定的样本进行分类,以确定是真的还是假的。

    GAN的训练过程包括以下步骤:

    1. 从数据集中抽取一批真实数据
    2. 使用生成器生成一批合成数据
    3. 在真实和合成数据上训练判别器,更新其权重以提高其区分真实和虚假样本的能力
    4. 采样一批新的随机噪声,用生成器生成一批新的合成数据
    5. 通过反向传播判别器的梯度来训练生成器,更新生成器的权重,以创建更真实的样本,从而更好地欺骗判别器

    这个训练过程不断重复,直到生成器产生真实的数据样本,而判别器不能再可靠地区分真实和虚假的样本。

    GAN相比其他神经网络的优势

    与传统的神经网络模型相比,GAN在各种任务中都有一些优势:

    1. 高质量的数据生成。GAN能够生成高质量的、现实的数据样本,这些样本通常与真实数据没有区别。这在真实数据的可用性有限或获取成本较高的应用中特别有用。
    2. 无监督学习。GAN可以学习数据中的模式和特征,而不需要标记的数据。这使它们非常适用于标注数据有限或人工标注不可行的任务。
    3. 灵活性。GAN可以与其他神经网络架构和技术相结合,如卷积神经网络(CNN)和递归神经网络(RNN),以产生各种各样的数据类型,包括图像、文本和音频。
    4. 数据增强。GAN可以为监督学习任务生成额外的训练数据,这可以帮助克服与过度拟合有关的问题,并提高在小数据集上训练的模型的性能。

    GAN的主要应用场景

    GAN目前已经被用于不同领域的各种应用中,包括但不限于以下场景:

    • 图像合成。GAN已被用于生成高质量的合成图像,如创建逼真的人脸、艺术品,甚至是逼真的产品场景。
    • 风格转移。GAN可以用来将一个图像的风格转移到另一个图像上,从而创造出艺术图像和新颖的视觉效果。
    • 数据增强。GAN可以为监督学习任务生成额外的训练数据,提高在小数据集上训练的模型的性能。
    • 文本到图像的生成。GAN可以用来从文本描述中生成图像,这对生成新的视觉内容或在广告、娱乐和设计中的应用很有用。
    • 超分辨率和图像内绘。GAN可用于提高低质量图像的分辨率,或填补图像中的缺失区域,提高其整体质量和效用,对于图片无损放大,图片修复来说,十分有用。
    • 药物发现。GAN已被用于药物发现领域,产生新的化学结构并确定潜在的候选药物。
    • 异常情况检测。GAN可以用来识别数据集中的异常数据点,这对识别欺诈、网络入侵或其他不正常行为很有帮助。

    生成式对抗网络在深度学习领域开辟了新的可能性,并找到了广泛的应用领域,其生成高质量、真实的数据样本并进行无监督学习的能力,使其成为传统神经网络模型无法胜任的许多任务的有力工具

  • 什么是AIGC:AI Generated Content 人工智能生成内容 – AI百科知识

    什么是AIGC

    什么是AIGC

    AIGC是AI-generated Content的缩写,中文名为人工智能生成内容,一种利用人工智能进行内容创作的方式,被认为是继PGC(Professionally-generated Content)和UGC(User-generated Content)之后的一种新型内容创作方式。

    AIGC是通过从人类提供的指令中提取和理解意图信息,并根据其知识和意图信息生成内容来实现的。 例如,用户可以输入一句话,让AI合成一张与描述相关联的图片,或者输入一篇文章或故事的描述,让AI为他们完成。

    AIGC被认为是继PGC(Professionally-generated Content)和UGC(User-generated Content)之后的一种新型内容创作。 PGC 是指由记者、艺术家或程序员等专业人士创作的内容。 UGC 是指博主、视频博主或社交媒体用户等普通用户创建的内容。 AIGC 与 PGC 和 UGC 的不同之处在于它不依赖于人类的劳动或创造力,而是依赖于 AI 算法。

    AIGC的运作原理

    AIGC 依赖于可以从数据中学习并生成类似于原始数据分布的新数据的生成模型。 生成模型可以分为两类:生成对抗网络(GAN)和自然语言生成(NLG)模型。

    • GAN由两个神经网络组成:生成器和鉴别器。 生成器尝试从随机噪声向量创建逼真的图像,而鉴别器则尝试区分来自数据集的真实图像和来自生成器的假图像。 这两个网络相互竞争,直到它们达到平衡,此时生成器生成的图像与鉴别器无法区分的真实图像。
    • NLG模型基于转换器,转换器是一种神经网络架构,使用注意机制来捕获自然语言文本中单词之间的远程依赖关系。 Transformers 由一个将输入文本编码为隐藏表示的编码器和一个从隐藏表示生成输出文本的解码器组成。 Transformer 可以使用自监督学习方法(例如掩码语言建模 (MLM) 或因果语言建模 (CLM))在大规模文本语料库上进行预训练。 然后可以针对文本摘要、机器翻译或文本生成等特定任务对预训练的转换器进行微调。

    目前,比较流行的一些生成模型的例子包括:

    • GPT-3:具有1750亿个参数的大型变换器模型,使用CLM在各种文本源上进行了预训练。 给定一些关键字或提示,GPT-3 可以生成关于各种主题的连贯文本。
    • DALL-E:具有120亿个参数的转换器模型,使用MLM在文本图像对上进行预训练。 DALL-E可以根据自然语言描述生成逼真的图像。
    • Codex:具有120亿个参数的转换器模型,使用MLM在源代码上进行了预训练。 Codex可以根据自然语言命令或注释生成可执行代码。
    • StyleGAN2:具有5000万个参数的GAN模型,使用基于样式的调制在高分辨率面部图像上进行训练。 StyleGAN2可以通过对面部属性的细粒度控制来生成逼真的面部。

    AIGC的应用场景

    AIGC在需要写作或内容创建的各个领域都有广泛的应用,例如:

    • 教育:AIGC可以通过生成解释、示例、测验或反馈来帮助学生学习新知识
    • 娱乐:AIGC可以创作引人入胜的故事、诗歌、歌曲或游戏来娱乐或放松。
    • 营销:AIGC可以制作产品文案和口号,用于宣传产品或服务的标题或广告。
    • 新闻:AIGC可以撰写事实报告、摘要、或基于数据或事件的分析。
    • 软件开发:AIGC可以生成代码片段、文档、或基于规范或评论的测试。

    AIGC的挑战

    虽然AIGC可以实现更高效、更易于访问的内容制作,然而,AIGC也带来了与偏见歧视、虚假信息、安全和可信度相关的重大挑战。

    • 偏见和歧视:如果用于训练或生成内容的数据不够具有代表性或多样性,AIGC可能会延续与种族、性别、种族和其他因素相关的有害刻板印象和偏见。 例如,AIGC已被用来制作有害内容,强化与种族相关的刻板印象。 这会对社会和个人的权利和尊严产生负面影响。
    • 虚假信息:AIGC可用于通过虚假信息和宣传来操纵和扭曲公众舆论。 例如,AIGC已被用来生成假新闻、深度造假和其他形式的欺骗性内容,这些内容可能会破坏公众对媒体和信息的信任。
    • 安全性:如果用于训练或生成内容的数据未得到适当保护或加密,AIGC可能会带来安全风险。 例如,如果数据泄露或被黑客入侵,AIGC 可能会暴露用户或创作者的敏感信息或个人信息。
    • 可信度:AIGC使得人们对AI模型生成的内容的真实性和可信度存有疑虑,例如,AIGC会使验证内容的来源或作者身份及其质量或准确性变得困难。