AI工具集采用每月3期的版面集合,每日更新AI行业的最新快讯,本期为3月第2期(3月11日到3月20日)的AI行业新闻集合。
3月15日
- 北京时间凌晨,OpenAI发布了其多模态预训练大模型GPT-4。GPT-4的能力飞跃式提升:
- 强大的试图能力
- 文字输入限制提升至2.5万字
- 回答准确性显著提高
- 可生成歌词、创意文本,实现风格变化
3月12日
- 南洋理工大学发布基于强化学习的开源平台:量化交易大师(TradeMaster)
AI工具集采用每月3期的版面集合,每日更新AI行业的最新快讯,本期为3月第2期(3月11日到3月20日)的AI行业新闻集合。
AI工具集采用每月3期的版面集合,每日更新AI行业的最新快讯,本期为3月第1期(3月1日到3月10日)的AI行业新闻集合。
Ian J. Goodfellow(生于1985年或1986年)是一位美国计算机科学家、工程师和高管,最著名的是他在人工智能神经网络和深度学习方面的工作。他之前曾担任谷歌大脑的研究科学家和苹果公司的机器学习主管,并在深度学习领域做出了几项重要贡献,包括生成式对抗网络(GAN)的发明。Goodfellow与人合著了被誉为AI圣经的教科书《深度学习》(2016年),并在人工智能领域最受欢迎的教科书《人工智能:现代方法》中撰写了关于深度学习的章节(在135个国家的1500多所大学中使用)。
Ian Goodfellow在吴恩达(Andrew Ng)(谷歌大脑联合创始人兼负责人、Coursera联合创始人)的指导下获得了斯坦福大学的计算机科学学士和硕士学位,并于2014年4月在约书亚·本希奥(Yoshua Bengio)和亚伦·库维尔(Aaron Courville)的指导之下获得了蒙特勒大学的机器学习博士学位。Goodfellow的论文题目是表征的深度学习及其在计算机视觉中的应用。
毕业后,Goodfellow加入谷歌,成为谷歌大脑研究团队的一员。2016年3月,他离开谷歌,加入新成立的OpenAI研究实验室。仅仅11个月后,即2017年3月,Goodfellow重返谷歌研究,但在2019年再次离职。
2019年,Goodfellow加入苹果公司,担任特别项目组的机器学习主管。他于2022年4月从苹果公司辞职,以抗议苹果公司要求员工亲自工作的计划。Goodfellow随后加入DeepMind,成为一名研究科学家。
Goodfellow最出名的是发明了生成式对抗网络(GAN),利用深度学习生成图像。这种方法使用两个神经网络来竞争性地提高图像的质量。“生成器”网络基于初始图像集(如人脸集合)创建合成图像。“判别器”网络试图检测生成器的输出是真的还是假的。然后重复生成检测循环。对于每次迭代,生成器和判别器使用对方的反馈来改进或检测生成的图像,直到判别器无法再区分对手生成的赝品和真品。创建高质量生成图像的能力迅速提高。然而,它的恶意滥用也是如此,用来创建deepfakes和生成基于视频的虚假信息。
在谷歌,Goodfellow开发了一个系统,使谷歌地图能够自动转录街景汽车拍摄的照片中的地址,并展示了机器学习系统的安全漏洞。
Yann André LeCun(中文名杨立昆)(1960年7月8日-)是一位法国计算机科学家,主要从事机器学习、计算机视觉、移动机器人和计算神经科学领域的工作。他是纽约大学Courant数学科学研究所的Silver教授,也是Meta(Facebook)的副总裁兼首席人工智能科学家。
他以使用卷积神经网络(CNN)进行光学字符识别和计算机视觉方面的工作而闻名,是卷积网络的创始人。他也是DjVu图像压缩技术的主要创造者之一(与Léon Bottou和Patrick Haffner一起)。他与Léon Bottou共同开发了Lush编程语言。
LeCun与Yoshua Bengio和Geoffrey Hinton一起获得了2018年图灵奖(通常被称为“计算机领域的诺贝尔奖”),以表彰他们在深度学习方面的工作。这三位有时被称为“人工智能之父”和“深度学习之父”。
杨立昆于1960年生于法国巴黎附近,1983年在巴黎电子工程师高等学校获得了工程师学位,1987年在巴黎第六大学获得计算机科学博士学位。博士就读期间,他提出了神经网络的反向传播算法学习算法的原型。随后到多伦多大学在Geoffrey Hinton的指导下完成了博士后工作。
1988年,杨立昆加入位于美国新泽西州的霍姆德尔镇区的贝尔实验室的自适应系统研究部门。实验室的领导是Lawrence D. Jackel,在此,他开发了很多新的机器学习方法,比如图像识别的模型称为卷积神经网络、Optimal Brain Damage(最优脑损伤方法)以及Graph Transformer Networks(图网络模型)方法(类似于条件随机域),他将其应用到手写识别和OCR中。
他协助开发的银行支票识别系统被NCR和其他的公司广泛使用,该系统读取了20世纪90年代末至21世纪初全美国超过10%的支票。
1996年,他加入了AT&T实验室,成为图像处理研究部门的领导,这个部门是Lawrence Rabiner领导的语音和图像处理研究实验室的一部分,主要工作是DjVu图像压缩技术,被以互联网档案馆为首的网站使用,用来发布扫描的文档。他的AT&T同事包括Léon Bottou和弗拉基米尔·瓦普尼克。
2012年,他成为了纽约大学数据科学中心的创建主任。2013年12月9日,杨立昆成为位于纽约的Facebook(现Meta)人工智能研究院的第一任主任,2014年初期逐步退出了NYU-CDS的领导层。
你可以访问他的个人网站http://yann.lecun.com/了解其更多信息
Yoshua Bengio(1964年3月5日-)是一位加拿大计算机科学家,以其在人工神经网络和深度学习方面的工作而闻名。他是蒙特利尔大学计算机科学与运筹学系教授,也是蒙特利尔学习算法研究所(MILA)的科学主任。
Bengio与Geoffrey Hinton和Yann LeCun一起获得了2018年ACM A.M.图灵奖,以表彰他们在深度学习方面的工作。Bengio、Hinton和LeCun有时被称为“人工智能之父”和“深度学习之父”。
Bengio出生于法国的一个犹太家庭,他们从摩洛哥移民到法国,然后再次移民到加拿大。他在麦吉尔大学获得了理学学士学位(电气工程)、医学博士学位(计算机科学)和博士学位(电脑科学)。
Bengio是Samy Bengio的兄弟,他曾是谷歌的科学家。Bengio兄弟在父亲在摩洛哥服役期间在摩洛哥生活了一年。他的父亲Carlo Bengio是一名药剂师,曾创作戏剧作品,并在蒙特利尔经营着一个塞法迪剧团,该剧团演奏犹太-阿拉伯作品。他的母亲塞莉亚·莫雷诺(Célia Moreno)也是一名艺术家,曾在20世纪70年代由塔耶布·塞迪基(Tayeb Seddiki)经营的摩洛哥主要戏剧场景中扮演过角色。
博士毕业后,Bengio在麻省理工学院(由Michael I.Jordan监督)和AT&T贝尔实验室担任博士后。Bengio自1993年以来一直是蒙特利尔大学的教员,蒙特利尔学习算法研究所(MILA)负责人,也是加拿大高等研究所机器与大脑学习项目的联合主任。
Cade Metz认为,Bengio与Geoffrey Hinton和Yann LeCun一起,是20世纪90年代和21世纪初对深度学习发展最具贡献的三个人之一。根据MILA的数据,在h指数至少为100的计算机科学家中,Bengio是每天被引用次数最多的一个。
2016年10月,Bengio与人共同创立了Element AI,这是一家总部位于蒙特利尔的人工智能孵化器,将人工智能研究转化为现实世界的商业应用。由于未能开发出适销对路的产品,并失去了几家合作伙伴,到2020年,该公司的资金和选择权都用完了,并于11月宣布将其出售给美国软件公司ServiceNow。此次出售将主要由加拿大纳税人资助的知识产权出口到美国,这与Bengio希望Element AI成为一家加拿大公司来与世界科技巨头竞争的愿望背道而驰。
2017年5月,Bengio宣布加入总部位于蒙特利尔的法律科技初创公司Botler AI,担任战略顾问。
Bengio目前担任Recursion Pharmaceuticals的科学和技术顾问和Valence Discovery的科学顾问。
如果你是开发人员的话,我想你应该听说过数不清的关于Jeff Dean大牛的笑话,其中最广为流传的便是“编译器从来不给Jeff编译警告,而是Jeff警告编译器”、“所有指针都是指向Jeff的”,这足以侧面印证出Jeff Dean的实力。
Jeffrey Adgate(Jeff Dean)(1968年7月23日-)是一位美国计算机科学家和软件工程师,自2018年以来,他一直领导着谷歌人工智能部门Google AI,你可以在谷歌的官方网站了解其更多简介https://research.google/people/jeff/
Jeff Dean于1990年以优异成绩获得明尼苏达大学计算机科学和经济学学士学位,他于1996年获得华盛顿大学计算机科学博士学位,在Craig Chambers的指导下研究面向对象编程语言的编译器和全程序优化技术。他于2009年当选为美国国家工程院院士,该院表彰了他在“大规模分布式计算机系统的科学与工程”方面的工作。
在加入谷歌之前,Dean曾在DEC/Compaq的西部研究实验室工作,在那里他从事分析工具、微处理器体系结构和信息检索方面的工作。在研究生院之前,他曾在世界卫生组织的全球艾滋病规划署工作,开发用于艾滋病毒/艾滋病疫情统计建模和预测的软件。
Jeff于1999年年中加入谷歌,目前是谷歌人工智能部门的负责人。在谷歌工作期间,他设计并实现了该公司的大部分广告、爬虫、索引和查询服务系统,以及作为谷歌大多数产品基础的分布式计算基础设施。在不同时期,他还致力于提高搜索质量、统计机器翻译和内部软件开发工具,并在工程招聘过程中发挥了重要作用。
Jeff也是谷歌大脑(Google Brain)的早期成员,谷歌大脑是一个研究大规模人工神经网络的团队,自人工智能从谷歌搜索中分离出来以来,他一直领导谷歌人工智能的工作。
杰弗里·埃弗里斯特·辛顿,(英语:Geoffrey Everest Hinton,1947年12月6日-),英国出生的加拿大计算机学家和心理学家,多伦多大学教授。以其在类神经网络方面的贡献闻名。Hinton是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,被誉为“深度学习之父”。Hinton因在深度学习方面的贡献与 Yoshua Bengio(约书亚·本希奥)和 Yann LeCun(杨立昆)一同被授予了2018年的图灵奖。
Hinton于1970年在英国剑桥大学获得实验心理学学士学位。此后于1978年在爱丁堡大学获得人工智能博士学位。此后曾在萨塞克斯大学、加州大学圣迭戈分校、剑桥大学、卡内基梅隆大学和伦敦大学学院工作。他是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。Hinton是机器学习领域的加拿大首席学者,也是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者。Hinton在2013年3月加入Google,同时Google并购了他创办的DNNresearch公司。你可以在Google Research上了解其更多信息,https://research.google/people/GeoffreyHinton/
Hinton的研究调查了将神经网络用于机器学习、记忆、感知和符号处理的方法,他撰写或与人合著了200多篇同行评审的出版物。在2022年神经信息处理系统大会(NeuRIPS)上,Hinton介绍了一种新的神经网络学习算法,他称之为“Forward-Forward”算法。新算法的思想是用两个正向通路取代反向传播的传统正向-反向通路,一个具有正(即真实)数据,另一个具有负数据,这可以由网络本身生成。
Hinton在卡内基梅隆大学担任教授期间(1982-1987),David E.Rumelhart和Hinton以及Ronald J.Williams将反向传播算法应用于多层神经网络。他们的实验表明,这种网络可以学习有用的数据内部表示。在2018年的一次采访中,Hinton表示,“David E.Rumelhart提出了反向传播的基本想法,所以这是他的发明。”尽管这项工作对推广反向传播很重要,但他并不是第一个提出这种方法的人。Seppo Linnainmaa于1970年提出了反向模式自动微分,反向传播是其中的一个特例,Paul Werbos于1974年提出使用它来训练神经网络。
在同一时期,Hinton与David Ackley和Terry Sejnowski共同发明了玻尔兹曼机。他对神经网络研究的其他贡献包括分散表示、时延神经网络、专家混合系统和亥姆霍兹机器。2007年,Hinton与人合著了一篇无监督学习论文,题为图像转换的无监督学习。Hinton的研究简介可以在他1992年9月和1993年10月发表在《科学美国人》上的文章中找到。
神经网络(Neural Network)作为人工智能中的一种计算模型,是受人脑启发的一种机器学习类型,由多层相互连接的节点(称为神经元)组成,神经网络通过使用大量数据的反复试验过程来学习输入和输出之间的关系,以确定产生所需输出的节点之间的连接和权重,这些节点协同工作以执行模式识别、分类和预测等复杂任务。
神经网络释义(图源:IBM)
随着神经网络不断学习,它在模式识别和做出准确预测或决策方面会变得更好。近年来,神经网络取得了巨大突破,并在计算机视觉、自然语言处理、语音识别等领域取得了巨大进步。
神经网络通过一系列相互连接的神经元层处理输入数据来工作。 每个神经元接收来自其他神经元的输入,并对输入应用数学函数以产生输出。 然后将输出传递给下一层神经元,重复该过程,直到产生最终输出。 在训练过程中,神经网络通过使用大量数据的训练过程调整神经元的权重和偏差,以最小化预测输出与实际输出之间的误差。一旦训练完成,神经网络就建立了一个数学模型,可用于推理以对新数据做出预测或决策。
目前业界有研究几种类型的神经网络,一些最常见的类型包括:
神经网络可用于广泛的应用,包括:
与传统机器学习算法相比,神经网络具有多项优势:
虽然神经网络有很多优点,但也有一些限制需要考虑。 神经网络的一些局限性包括:
生成式对抗网络(GAN,英文全称Generative Adversarial Network)是一种深度学习模型,由于其生成高质量、真实数据的能力,近年来获得了极大的关注。GAN已被用于广泛的应用中,包括图像合成、风格转移和数据增强。在这篇文章中,我们将探讨什么是GAN、GAN是如何工作的、GAN与其他神经网络模型相比的优势,以及它们的主要应用和用例。
生成式对抗网络(GAN)是一类机器学习模型,由两个神经网络组成,一个是生成器(Generator)和一个判别器(Discriminator),它们在零和游戏中相互竞争。生成器创建合成数据样本,而判别器的工作是区分真实和虚假的数据样本。生成器的目标是提高其创造能够“欺骗”判别器的真实数据的能力,而判别器的目标是提高其识别假数据的能力。
生成式对抗网络(GAN)由两个主要部分组成:
GAN的训练过程包括以下步骤:
这个训练过程不断重复,直到生成器产生真实的数据样本,而判别器不能再可靠地区分真实和虚假的样本。
与传统的神经网络模型相比,GAN在各种任务中都有一些优势:
GAN目前已经被用于不同领域的各种应用中,包括但不限于以下场景:
生成式对抗网络在深度学习领域开辟了新的可能性,并找到了广泛的应用领域,其生成高质量、真实的数据样本并进行无监督学习的能力,使其成为传统神经网络模型无法胜任的许多任务的有力工具
AIGC是AI-generated Content的缩写,中文名为人工智能生成内容,一种利用人工智能进行内容创作的方式,被认为是继PGC(Professionally-generated Content)和UGC(User-generated Content)之后的一种新型内容创作方式。
AIGC是通过从人类提供的指令中提取和理解意图信息,并根据其知识和意图信息生成内容来实现的。 例如,用户可以输入一句话,让AI合成一张与描述相关联的图片,或者输入一篇文章或故事的描述,让AI为他们完成。
AIGC被认为是继PGC(Professionally-generated Content)和UGC(User-generated Content)之后的一种新型内容创作。 PGC 是指由记者、艺术家或程序员等专业人士创作的内容。 UGC 是指博主、视频博主或社交媒体用户等普通用户创建的内容。 AIGC 与 PGC 和 UGC 的不同之处在于它不依赖于人类的劳动或创造力,而是依赖于 AI 算法。
AIGC 依赖于可以从数据中学习并生成类似于原始数据分布的新数据的生成模型。 生成模型可以分为两类:生成对抗网络(GAN)和自然语言生成(NLG)模型。
目前,比较流行的一些生成模型的例子包括:
AIGC在需要写作或内容创建的各个领域都有广泛的应用,例如:
虽然AIGC可以实现更高效、更易于访问的内容制作,然而,AIGC也带来了与偏见歧视、虚假信息、安全和可信度相关的重大挑战。