顶部右侧文字
产品分类
信息主管
当前位置:网站首页 > 信息主管 > 正文

Wu Enda总结了2019年的AI趋势:自动驾驶冬季Deepfake变成了魔术

作者:发布时间:2019-12-27分类:信息主管阅读:14 ℃评论:0 评论

  欢迎使用“创造”微信订阅号:sinachuangshiji

  编辑/大明小琴彭飞

  资料来源:辛志远(ID:AI_era)

  [新智远指南]还有几天,我们要告别2019年。

今年是AI从梦想变为现实的一年。

从NLP到自动驾驶,从人脸识别到数据仿真,已经出现了哪些技术突破以及遇到了哪些新困难?

吴恩达的深度学习。

AI梳理了今年AI最重要领域中的六个标志性事件和趋势。

  到2019年,已经有98%的人过去了,几天之内它将诞生20年!

  今年注定是充满里程碑的一年。

它将公众与好莱坞科幻电影的虚幻幻想场景(例如“西方世界”和“终结者”)分开,使人们认识到AI实际上是世界上的有形力量,而不是梦想,并开始讨论关于AI的内容。 社会,经济,政治和国际力量之间的平衡。

  本文回顾了AI在语言模型领域的当前发展状况,例如语言模型中的出色性能,面部识别的障碍,自动驾驶的缓慢实施以及DeepFake进入主流。

有哪些技术突破和新困难?

跟吴恩达一起进行深度学习。

人工智能,看看今年AI最重要领域中的六个标志性事件和趋势。

  自动驾驶:在寒冷的冬天孕育希望

  就在几年前,一些汽车公司许诺最早于2017年在道路上推出自动驾驶汽车。

然而,据媒体报道,今年1月,Waymo首席执行官约翰·克拉夫奇克(John Krafcik)表示,自动驾驶汽车可能永远无法在所有路况下都能行驶。

他的声明也为2019年汽车行业的裁员定下了基调。

  自动驾驶在2019年遇到了瓶颈,活跃在自动驾驶领域的几家公司的商业化速度已显着放缓。

通用克鲁斯和特斯拉已经将自动驾驶出租车的截止日期推迟到了2020年。

  对于Waymo和Lyft,尽管是U。

S.

凤凰城监管机构已允许这两家公司在2018年运营自动驾驶出租车,到目前为止,这项服务仅在少数地区提供,并且愿意选择此项服务的人数很少。

商业业务进展不佳。

今年11月,Waymo宣布关闭其在德克萨斯州奥斯汀的自动驾驶汽车研发设施。

  从技术角度来看,城市道路的实时驾驶环境比道路测试要复杂得多,并且可能发生的极为危险的情况也大大增加了。

但是在许多极端情况下,实际出现的机会非常低,这会带来问题,并且工程师可能无法获得足够的模拟数据来重现这些情况。

目前,一些驾驶路线是相对固定且可预测的,例如自动驾驶巴士和卡车。

与私家车和出租车相比,这些车辆更有可能体验自动驾驶技术的真正好处。

  从成本角度来看,传感器(尤其是激光雷达)的成本仍然很高,而且供应紧张,汽车公司也有成本控制措施。

他们更有可能选择自己制造这些设备。

同时,必将减少车辆上的传感器数量。

数量减少意味着培训和认知数据数量的减少。

如果传感器性能的速度不能弥补这种下降,那么自动驾驶技术的首要任务就是安全。

  从市场环境来看,2019年是全球汽车公司裁员的一年。

在全球经济下滑和对新车需求下降的背景下,日本,美国和欧洲的主要汽车公司已经宣布了裁员计划。

据不完全统计,世界上每三个汽车公司中就有一个正在裁员。

自动驾驶是一个烧钱的行业,新技术的发展离不开传统汽车公司的技术和资金支持。 在这样的环境下,过去的富爸爸似乎也被拉长了。

  当然,中国正在尝试另一种方法并非没有好消息。

无需培训自动驾驶汽车在现有的城市环境中导航,而是对现有的城市进行数字化改造,以适应和促进自动驾驶技术的发展。

这被称为“智慧城市”建设,其中包括路边传感器设备的改进,它将根据导航提示(例如车道变更和限速板)发送更丰富的道路信息。

  总的来说,2019年是自动驾驶行业进一步完善的一年。

技术瓶颈和资金紧张使公司无法维持庞大而全面的业务线,而无法专注于自己擅长的专业领域。

  福特和梅赛德斯等传统汽车制造商一直专注于辅助驾驶功能,在Google的支持下,Waymo继续致力于全自动驾驶汽车,一些小型公司正在努力在有限的情况下部署全自动驾驶。

这些公司的目标将随着时间的推移不断扩大。

  Deepfake:技术诞生的怪物如何征服?

  从2018年底开始,已经诞生了许多能够生成高度还原的图像的模型,例如BigGAN和StyleGAN,前者可以生成ImageNet中发现的类的图像,后者可以生成诸如 姿势,发型和衣服。

  在2019年,基于深度学习技术生成的“ Deepfake”假视频开始泛滥。

这些视频可以创建根本不存在的名人或政治人物的演讲内容。

这些逼真的视频使人们称赞“技术可以做所有事情。

“与此同时,它也使更多的人担心技术滥用和无法控制甚至恐惧。

  在Deepfake视频中,英国足球明星贝克汉姆(David Beckham)可以用9种语言传达抗疟疾信息。

中国的技术公司已经发布了基于相同技术ZAO的应用程序,该应用程序可以将视频中用户的脸部更改为流行电影场景中的演员,从而使用户感觉就像在电影中表演。

  但是,与欺骗娱乐和公共福利相比,Deepfake展示了更多的技术“暗牙”。

使用Deepfake进行的虚假演讲录像影响了马来西亚和加蓬的政治丑闻。

  根据Deepfake检测软件DeeptraceLabs的一份报告,当前在线上的Deepfake视频中有96%是不由自主地拍摄的“变头”色情视频,而且电影中人们的面孔经常被女性名人的面孔所取代。

这超出了欺骗的范围,触及了触犯法律的边缘。

  “怪物”已经从瓶子中释放出来了,我们应该如何处理呢?

科技公司和政府立法机构已经开始努力。

Facebook宣布已启动一项总奖金高达1000万美元的竞赛,以开发Deepfake假视频的自动检测技术。

中国政府颁布了禁止发行假冒视频的规定。

加利福尼亚州也通过了类似的法律,而众议院正在考虑促进针对Deepfake假视频的国家级立法。

  这可能是一场旷日持久的“猫和老鼠”高科技竞赛。

南加州大学计算机科学教授郝力说,在这场比赛中,猫方面的前景可能并不乐观。

尽管今天的Deepfake视频仍然具有明显的特征,但一年后,这些假视频和真实视频可能根本不存在。

这是不同的。

  人脸识别受挫,政府介入立法以遏制

  与自然语言处理领域的蓬勃发展相比,人脸识别在使用过程中遇到了严重的阻力。

国际反监视情绪助长了局势,并阻止了人脸识别系统的进一步扩散。

  公众担心他们的隐私和滥用肖像以及U。

S. 欧洲激进主义者和监督组织对面部识别可能会损害公民的人身权利深表关注,因此他们敦促立法限制使用该技术。

  他们的努力增强了该州禁止公共和私人使用该技术的势头,并使面部识别技术的大规模商业使用刚刚兴起并准备就绪。

  今天,作为美国

S. 联邦政府审议,美国许多城市都通过了反面部识别法。

欧盟也在努力制定自己的标准。

让我们回顾一下今年的一些标志性事件。

  五月,旧金山成为第一个主要的美国大学。

S. 市禁止警察和其他政府官员使用面部识别; 马萨诸塞州波士顿萨默维尔地区。

,紧随其后。

在接下来的几个月中,旧金山的邻居奥克兰和伯克利通过了类似的法律。

这些法律由美国公民自由联盟领导,旨在促进国家立法。

  在美国华盛顿

S. 议员们抨击了国土安全部的计划,要求该机构在机场和边境使用该技术。

参议院和众议院的立法者提出了至少十二项法案,其中许多法案得到了两党的支持。

这些法案试图限制面部识别在压制人们,剥夺房屋和创造利润方面的影响。

  欧洲监管机构已将面部图像分类为符合现有隐私法规的生物特征数据。

欧洲委员会正在考虑立法,以“不加区别地”使用私人和公共组织的面部识别。

尽管如此,法国还是在10月基于该技术准备了一个国家识别项目。

  中国对人脸识别的使用在美国引起了反对。

S. 联邦贸易当局已禁止出口美国。

S. 技术给几家中国公司。

  2016年,美国国家电信和信息管理局(National Telecommunications and Information Administration)发布了人脸识别指南,该指南要求公司保持透明,实施良好的数据管理并允许公众与第三方共享对人脸数据的某些控制。

尽管该技术的主要供应商是NTIA的成员,但尚不清楚他们是否遵守这些准则。

  尽管该立法限制使用面部识别的最初意图是保护公民的隐私,但是不同的职位和不同的政府风格可能会带来一些负面影响。

  今年6月,Amazon Web Services首席执行官Andy Jassy痛苦地发誓:“为国会祈祷以统一立法,否则我们将面临:美国50个州有50种不同的法律和法规!

“这种混乱甚至可能使当地执法混乱。

  NLP飞跃,语言模型变得精通语言

  Word2Vec和GloVe嵌入支持的早期语言模型产生了混乱的聊天机器人,具有中学阅读理解能力的语法工具以及几乎不可读的翻译。

但是最新一代的语言模型已经变得如此出色,以至于有些人甚至认为它们很危险。

  2019年自然语言处理领域发生了什么?

一种新的语言模型生成新闻文章,使读者对这些文章的评价与《纽约时报》一样可信。 同样的语言模型也有助于《纽约客》上的一篇文章。

好消息是,这些模型所散布的虚假信息没有人们担心的那么多。

  在2019年,研究人员在使机器理解自然语言方面取得了飞跃。

通过对庞大的未标记数据集进行预训练,新模型通常可以精通自然语言。

然后,他们通过对专用语料库进行微调来掌握给定的任务或主题。

  诸如ULMFiT(由Jeremy Howard和Sebastian Ruder提出)和ELMo(来自艾伦人工智能研究所和华盛顿大学)的早期模型显示了预训练的潜力,而Google的BERT是这种方法成功的首次突破。

BERT于2018年底发布。

它在GLUE阅读理解基准中得分很高,以至于测试的组织者首次将模型的性能与人类的基线得分进行了比较。

今年6月,微软的MT-DNN模型首次击败了人类。

  在今年2月中旬,OpenAI发布了GPT-2,这是一种经过预先训练的通用语言模型,其创建者甚至认为发布它太危险了,因为它具有生成令人信服的文章的能力。

GPT-2经过了40GB的Reddit评论训练,虽然没有造成假新闻的灾难,但确实为小说,前卫的歌词和《权力的游戏》粉丝小说做出了贡献。

OpenAI终于在11月发布了该模型的完整版本。

  在此期间,来自百度,卡耐基梅隆大学,谷歌大脑,Facebook和其他机构的一系列模型反过来又超过了自然语言处理基准。

它们中的许多都基于变压器架构,并利用BERT样式的双向编码。

  消息背后:2018年7月,在BERT诞生前不久,DeepMind研究人员Sebastian Ruder预测了预训练对自然语言处理的影响。

此外,他还预言了NLP的突破将完全改变整个人工智能。

他的论证是基于2012年左右预训练的计算机视觉模型的兴奋性。

许多内部人士将深度学习的爆炸性增长追溯到这一刻。

  现状:尽管经过一年的创新,语言模型仍然有很大的发展空间:甚至是1。

5万亿参数GPT-2还经常吐出一堆令人费解的文字。

至于最新的模式是否能够以压倒性的虚假信息破坏民主,即将到来的美国大选季节将对此进行检验。

  从《星际争霸II》到机器人拼图:机器学习更多地依赖于模拟数据

  机器学习的未来可能会更少地依赖于收集真实数据,而更多地依赖于模拟环境。

  有了足够的高质量数据,深度学习将像魔术一样有效。

但是,当样品很小时,研究人员可以使用仿真数据来填补空白。

  在2019年,在模拟环境中训练的模型比该领域以前的工作完成了更多复杂和多样化的壮举。

在强化学习方面,DeepMind的AlphaStar在复杂策略游戏《星际争霸II》中达到了超级大师的水平,可以击败99。

8%的人类玩家。

OpenAI五人训练了一个由5个神经网络组成的团队来击败Dota 2的世界冠军。

但是这些模型在模拟世界中学习,并学会在模拟世界中行动。

其他研究人员已将AI在模拟中学到的技能转移到了现实世界中。

  OpenAI的Dactyl机械臂在虚拟环境中花费了13,000年的仿真时间,从而开发了操作Rubik立方体所需的灵活性。

然后将这些技能应用到一个真正的魔方。

当恢复旋转魔方的时间少于15次时,其成功率将达到60%。

如果需要更多的操作来恢复魔方,其成功率会下降到20%。

  加州理工学院的研究人员通过模拟横跨加利福尼亚和日本的地震波并将模拟结果用作训练数据,训练了神经网络来区分重叠地震和同时地震。

  亚马逊的Aurora自动驾驶汽车部门同时进行数百次仿真,以训练其模型在城市环境中导航。

该公司正在以类似的方式对Alexa进行会话,交付无人机和机器人方面的培训。

  诸如Facebook的AI Habitat,Google的Reinforcement Learning Behavior Kit和OpenAI的Gym之类的仿真环境可以为AI掌握任务提供资源,例如优化纺织品生产线,填充3D图像中的空白点以及在嘈杂的环境中检测物体。

在不久的将来,模型可以探索分子模拟,以了解如何设计具有预期结果的药物。

  冲突爆发:关于象征主义和连接主义的古老辩论重新燃起

  由加里·马库斯(Gary Marcus)领导,由加里·马库斯(Gary Marcus)领导的长达一年的辩论为人工智能的方向注入了数十年的新生命。

  纽约大学基于逻辑的AI的教授,作家,企业家和倡导者马库斯(Marcus)发起了不懈的Twitter辩论,以试图打破深度学习的基础并推广其他人工智能方法。

  马库斯重燃了所谓符号学和连接主义者之间的古老争议,前者坚持认为基于规则的算法对于认知至关重要,而后者则认为具有正确损失函数的足够的神经元连接性是获得机器智能的最佳方法。

  与马库斯相反,人工智能从业者对符号化方法非常熟悉,以免连接主义的局限性导致资金崩溃或人工智能陷入寒冷的冬天。

这场辩论促使人们对人工智能的未来进行了清醒的评估,并最终在3月进行了现场辩论。

23由Marcus和深度学习先驱蒙特利尔大学的Yoshua Bengio教授撰写。

辩论非常有礼貌,双方都承认双方需要合作。

  在2018年12月,Marcus挑战了深度学习支持者的``帝国主义''态度,并开始了自己的进攻。

然后,他鼓励Facebook的深度学习先驱Yann LeCun要求他选择一个:是将其信念基于纯粹的深度学习,还是存在老式AI的好地方?

  OpenAI在十月提出的混合模型成为头条新闻。

它的操纵器通过深度强化学习和经典的Kociemba算法的组合解决了Rubik's Cube问题。

尽管Marcus指出是由Kociemba的算法来计算解决方案,而不是深度学习,但其他人断言机器人可以通过进一步的训练来学习这项技能。

  去年12月,Microsoft引入了“神经肌肉AI”来填补这一空白。

这是一种旨在消除神经表示和符号表示之间的鸿沟的模型架构。

  随着2019年临近尾声,NeuroIPS会议着重介绍了人工智能界的灵魂搜寻。

谷歌研究员布莱斯·阿格拉(Blaise Aguera y Arcas)在主题演讲中说:“我们目前的所有培训模式都是为了让AI在特定任务中获胜或取得高分而设计的,但这不仅仅涉及智力。

  符号学和连接主义者之间的敌对行动可以追溯到半个多世纪以前。

1969年,马文·明斯基(Marvin Minsky)和西莫尔·派珀(Simole Piper)在《感知器》一书中仔细分析了以感知器为代表的单层神经网络系统的功能和局限性,证明了感知器无法解决简单的差异。 第一个AI冬季。

  第二个AI冬季将在20年后出现,部分原因是符号AI依赖于LISP计算机,而LISP计算机已随着PC的出现而过时。

  神经网络在1990年代开始流行,并在过去十年中主导了计算能力和数据的爆炸性增长。

  我们期待着一个令人振奋的新时代,连接主义者和符号学齐头并进,或者直到一个派别摧毁另一个派别。

  参考链接:

  

  (免责声明:本文代表作者的观点,并不代表新浪的立场。

com。

TAG:

请在这里放置你的在线分享代码

相关阅读

发表评论

必填

选填

选填

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

摩登4
摩登4 摩登4

Powered By Z-BlogPHP,Theme By 刷机rom

XML地图 - HTML地图 - TXT地图
  • 阿华资讯网

    扫描关注微信