【猎云网(微信号:)】1月4日报道 (编译:逐夏)
编者注:风靡全世界的人工智能到底会造福人类?还是会摧毁世界?2019年人工智能领域又会发生什么?让我们跟随AI大神们一起展望2019年人工智能领域的新发展。
人工智能是一门既可拯救世界、又可终结世界的技术。
为终止人工智能到底是利是弊的争议与炒作,外媒采访了一些与全球大型科技及工业公司合作多年的杰出人士,获悉了他们关于人工智能的正确发展方向的看法。
2018年人工智能的关键里程碑是什么?2019年又将会发生什么?以下是谷歌大脑联合创始人吴恩达、Cloudera机器学习总经理及Fast Forward Labs创始人希拉里·梅森(Hilary Mason)、Facebook人工智能研究院创始人Yann LeCun和埃森哲全球人工智能负责人Rumman Chowdhury博士的见解。
回顾2018,展望2019,他们中的一些人表示:随着越来越多的人了解人工智能能做什么和不能做什么,关于人工智能终结世界的说法越来越少,对此他们感到很欣慰。但这些专家也强调,在发展人工智能的同时,计算机和数据科学家仍需采取负责任的伦理规范。
Rumman Chowdhury
Chowdhury是埃森哲应用智能部门的总经理,同时兼任公司责任AI计划的全球负责人。2017年,她被BBC评为最具影响力的100位女性之一。
Chowdhury说到,在2018年,她很高兴看到公众对人工智能的能力和局限性的理解有所增长,也很高兴听到人们对人工智能带来的威胁进行了更均衡的讨论,而不是担心智能机器像电影《终结者》中那样掌控全球。随此而来的是人们对隐私、安全问题的警惕以及人工智能在塑造我们和后代中可能扮演的角色的质疑。
然而,公众对于AI的理解并没有到达她所认为应到达的层面。Chowdhury希望在未来一年里能看到更多的人利用教育资源来理解AI系统,并可以明智地质疑AI的决策。
她对科技公司与AI生态系统中的人开始考虑其工作的伦理影响的速度感到惊喜。但她希望看到AI社区可以采取更多实际行动,而非空喊道德口号。
她问道:“就伦理和人工智能方面,我希望除了电车难题,我们能深入研究AI将提出的那些困难的、没有明确答案的问题。如:该如何在人工智能和物联网监控间取得“合理”平衡?是既能保证安全,又能抵制深化现有种族歧视的惩罚性监控吗?应如何重新分配先进技术的收益从而不进一步扩大贫富差距?接触多大程度的人工智能可让孩子成为‘人工智能土著’,却又不被其操控或同质化?又该如何利用人工智能扩大教育规模并使教育自动化,同时极大程度培养孩子的创造力和独立思考能力?”
在未来一年里,Chowdhury预计全球各地政府将加强对科技公司的审查与管理。
她说:“人工智能及科技巨头所拥有的力量引发了许多关于如何监管该行业与技术的问题。2019年,我们将不得不解决这些问题。该如何监管一项具有多用途且结果受具体情境影响的技术?如何制定既不扼杀创新又不偏袒大公司(可承担合规成本的公司)的管理规定?监管范围又该如何确定?全球?国家?还是当地监控?”
她还预计人工智能在地缘政治问题中扮演的角色会持续演变。
她说道:“AI不仅仅是一项技术,更是经济与社会的塑造者。在这项技术中我们能反思、衡量、并实践我们的价值观。对于应建造什么和如何建造的影响上,行业应不要太当真。为了实现这一点,AI行业中常见的理念需要被摒弃,即使我们不构建它,中国也会,而创造正是力量所在之处。”
她还说道:“我希望监管机构,技术及研究人员意识到人工智能竞赛不仅仅只关乎计算能力与技术敏锐度,就像冷战不仅仅关乎核能力一样。我们有责任以更公平、更公正、更公开的方式去重建世界。这是一个难得的机会,转瞬即逝,我们要抓住这个机会。”
从消费者角度来看,她相信2019年人工智能将在家庭中应用更加广泛。许多人已更习惯于使用智能音箱如 Google Home和Amazon Echo及其他很多智能设备。她很好奇在这方面是否会有特别有趣的东西会从于19年1月第二周将在拉斯维加斯举办的消费者电子展览会中脱颖而出,这可能进一步将人工智能融入人们的日常生活。
她说:“我想我们都在等一个机器人管家的出现。”
吴恩达
吴恩达是斯坦福大学计算机科学系副教授。因为很多原因,他的名字在AI圈中广为人知。他是谷歌大脑(将人工智能辐射到谷歌所有产品的项目)的联合创始人,也是Landing AI(旨在于帮助企业将人工智能融入到运营中的公司)的创始人。他还是YouTube和Coursera(吴恩达创立的在线学习公司)上一些最受欢迎的机器学习课程的讲师。他创建了deeplearning.ai网站,并撰写了一本名为《Deep Learning Yearning》的书。
在百度工作三年,帮助此科技巨头向AI公司转型后,吴恩达辞去了百度首席AI科学家的职务。
之后,他加入了拥有1.75亿美元的人工智能基金会,同时成为了无人驾驶汽车公司Drive.ai.董事会一员。
吴恩达预计到2019年主要取得进展或变化的地方是AI将在科技行业或软件公司外的领域得到应用。通过援引麦肯锡的一份称AI将创造13万亿GDP的报告,他说到AI领域最大的未开发潜力在软件行业之外。
他说:“我认为2019年,AI应用于软件行业之外的例子会非常之多。AI在帮助谷歌、百度、Facebook及微软等公司中都做得很不错,我与这些公司无任何关系。但就连Square 、Airbnb及Pinterest等公司都已开始应用一些AI功能,我认为下一轮创造价值的巨浪会在制造业公司、农业设备公司或医疗保健企业开发一系列的AI方案来推进业务之时。”
像Chowdhury一样,吴恩达对2018年公众对AI的能力及局限性上的理解大增感到惊讶。他很高兴关于AI的讨论不再围绕机器人杀手或对人工整体智能的恐惧了。
他表示他是有准备地回答了问题,并没想到其他人也有相似的想法。
他说:“我试图引用了几个我认为对实际应用十分重要的领域。AI的实际应用会遇到一定的阻碍,但我认为这些阻碍都会被解决。”
在未来一年里,吴恩达很高兴看到人工智能及机器学习研究两个领域都取得了进展,这将有助于推动整个领域的发展。一方面是AI能通过更少的数据得出精确的结论,该领域的一些人称之为“少量样本学习”。
他说:“我认为深度学习的第一波进展主要是大公司利用大量数据创建巨大的神经网络,对吧?所以如果你想创建一个语言识别系统,就需要进行10万小时的数据模拟。如果想创建机器翻译系统,就需要模拟极大量的平行语料库中的句型,从而创造出很多突破性结果。现在我越来越多地看到从小数据中出的成果。所以即使你有1000张照片,你也可以尝试去做出点什么结果。”
令一方面则是被称为“通用可见性”的计算机视觉方面的进展。计算机视觉系统经过斯坦福大学高端X光机拍摄的原始图像的训练,效果可能会非常地好。很多该领域的先进公司及研究人员已创造出了比放射科医生更出色的系统,但它们并不是很灵活。
“但如果你把你的训练模型应用到拍摄图片有点模糊的低端X光机或是其他医院的X光机上,遇到技师让病人右转,导致角度有些许的偏离的情况,结果就会是相比于今天的算法,放射科医生会做的更好。因此我认为有趣的研究是尝试提高学习算法在新情境中的通用性。”
Yann LeCun
Yann LeCun是纽约大学教授,Facebook首席AI科学家及人工智能研究院(FAIR)创始人。Facebook人工智能研究院开发了PyTorch 1.0、Caffe2及其他大量的人工智能系统,如Facebook每日使用上十亿万次的文本翻译AI工具和先进的下围棋的强化学习系统。
他坚信FAIR为其研究及工具所采用的开源政策推动了其他大型科技企业采用该政策,而这推动了AI整个领域的发展。在上月的NeurIPS大会和FAIR 50周年之际,LeCun将FAIR称为一家致力于“可实现各种可能的机器学习的技术及数学腹地”的研究院。
他说:“当更多人开始讨论AI研究时,整个领域将更快的向前发展,对AI研究来说这影响重大。今日AI发展速度之快主要是因为更多的人进行了更快更有效的交流,并做了更多的开放性研究。”
在伦理层面,LeCun很高兴看到公众开始思考AI工作所带来的伦理影响及带有偏见的决策所带来的危险。
他说:“情况与俩三年前不同了,现在人们已充分认识到伦理方面的问题。”
他认为AI领域中的伦理与偏见问题现在还并未成为需要立即采取措施的主要问题,但他认为人们应提前做好准备。
就像现在还未出现急需解决的重大生死攸关问题一样。但问题迟早会来,我们需要了解这些问题并防患于未然。
如吴恩达一样,LeCun期待未来会有更多灵活的AI系统。这些系统不需原始输入数据或精确条件,就可以得到准确的输出。
他还提到,虽然研究人员可通过深度学习来很好地处理感知,但却对AI系统整体的架构缺乏理解。
要想教会机器通过观察世界去学习,需要自我监督学习或基于模型的强化学习。
他说道:“不同的人对此称呼不同,但人类与动物都是通过观察与了解大量的背景知识来感知世界是如何运作的。我们还不知道如何让机器学会这么做,这是一项巨大的挑战。这项研究的成果将会推动AI与计算机的真正发展,从而让机器具备一些常识,让人们能与机器助手就更广泛的话题进行交流,并不再感到沮丧。”
对于有助于Facebook内部运营的应用,LeCun称在自我监督学习及需少量数据输出准确结果的人工智能等方面取得的进步将是十分重要的。
他还提到,在问题的解决过程中,我们希望找到减少特定任务如机器翻译、图像识别等任务所需数据量的方法,在这一方向上我们已经取得了一定的进展。我们已经通过使用弱监督或自我监督学习对Facebook机器翻译及图像识别产生了深远影响。因此,这些影响不仅仅是长期的,更能带来短期效果。
在未来,LeCun期待见到AI在建立事件之间的因果关系上能取得进展。这一能力并不仅仅通过观察获得,更需通过实践理解。例如,当人们在使用雨伞时,很可能是下雨了。
他提到,如果你想机器通过观察来了解世界运作原理,它必须要知道它能够做什么要想影响世界,这是十分重要的。假设你在一间房中,你的前面是一张桌子,桌上有一个像水杯样的物体,你知道你推一下水杯,水杯会移动,但你却无法移动桌子,因为桌子又重又大。这类事情都是与因果相关的。
希拉里·梅森
在2017年Cloudera收购Fast Forward Labs之后,希拉里·梅森出任了Cloudera机器学习的总经理。Fast Forward Labs虽被收购,却仍在运营之中。它为用户提供应用机器学习报告与建议,从而预测未来半年到两年企业的发展方向。
2018年,AI领域中的一项与多任务学习相关的发展让梅森感到惊讶。多任务学习可训练单个神经网络在推理时应用多种标签,例如在一幅图像中看到的多个对象。
Fast Forward Labs一直就AI系统的伦理影响为客户提供建议。梅森也意识构建AI系统伦理框架的重要性。
梅森说道:“这正是自成立了Fast Forward 我们一直在做的事。5年前,我们在每篇报告中都撰写了伦理方面的规范。但今年,公众才开始真正关注伦理规范。到明年,对此莫不关注的企业与个人都会承担相应的后果与责任。有一点我没有说清楚,我希望未来在数据科学与AI发展的实践中,技术人员和商业领袖在开发AI产品时都能自主地考虑道德和偏见问题,而非像今天熟视无睹。”
随着未来一年越来越多AI系统成为商业运营的一部分,梅森期待处于最佳位置的产品经理及产品负责人将会对AI做出更多的贡献。
她表示:“显然,了解产品整体框架及行业的人知道什么产品是有价值的,什么是没价值的,他们也知道谁是投资方向上的最佳决策人。所以如果让我预测,我认为那些使用电子表格建立简单模型的人会变得很低能,他们自己也会很快意识到将AI应用到自己产品中的机会非常之少。”
AI民主化或将 AI 扩展到企业除数据科学团队外的所有部门,是很多公司所强调的,如 Kubeflow Pipelines及AI Hub等谷歌云AI产品,以及 CI&T 公司为确保人工智能系统在公司内部得到实际利用提出的建议。
梅森认为越来越多的企业需要构建管理多个AI系统的结构。
如开发运维人员所面临的挑战一样,单个系统可使用手动部署的定制脚本来管理,cron脚本也可管理几十个系统。但当管理有安全、管理及风险要求的企业中的数百上千系统时,需要的是更专业、稳健的工具。
她还提到,企业正在从寻求有能力及才华的人才向系统化追求机器学习及AI机遇转变。
由于Cloudera 近期推出了基于容器的机器学习平台,因此对于梅森来说,强调部署AI所需的容器是有意义的。她坚信这一趋势在未来几年将会持续下去,从而企业可在本地AI及云端AI部署两者中做选择。
梅森还相信AI的业务将不仅仅在单个公司而是整个行业中继续不断发展。
她说道:“我们将看到AI专业实践的持续发展。如果你现在是一家公司的数据科学家或机器学习工程师,当你跳槽至另外一家公司后,你的工作将会完全不同:不同的工具、不同的期望和不同的报表结构。但我想一致性还是存在的。”