清华张钹院士、人大文继荣院长激情辩论:人类对AI的爱痴忧惧
清华张钹院士、人大文继荣院长激情辩论:人类对AI的爱痴忧惧-清华研修网
更新日期:2019-06-05 14:27:09 浏览:0
清华张钹院士、人大文继荣院长激情辩论:人类对AI的爱痴忧惧
来源:微信公众号“文摘菌 大数据文摘” 2019-6-4  宋欣仪
 
未来我们有可能爱上我们的机器人吗?应该选择用隐私换安全还是拒绝一切侵入生活的技术?未来会出现大规模自主性的AI杀伤武器吗?
 
AI时代到来前,除了技术的进步,这些问题正被越来越多的提起。针对此,清华大学AI研究院张钹院士和清华大学唐杰教授联合发起「AI Time」science debate,希望用辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
 
5月底,以安全和伦理为主题的首次活动在清华科技园举办。活动邀请到了清华大学AI研究院张钹院士、中国人民大学高瓴AI学院院长文继荣和搜狐网产品技术总监杨田,他们对于上述这些问题给出了精彩的讨论。
爱上人工智能?
 
讨论从电影《her》开始,影片讲述一个人与人工智能相爱的故事。男主角西奥多偶然接触到最新的人工智能系统OS1——萨曼莎,她拥有迷人的声线,温柔体贴而又幽默风趣。西奥多与萨曼莎逐渐从人机友谊发展出了一段不被世俗理解的奇异爱情。
 
当人工智能越来越进步,它可能会产生出自己的意识,甚至与人类发展出感情吗?2018年,一副人工智能画出的肖像画拍卖出了43.25万美元的高价,机械算法背后是否有灵魂存在?AI是否已经能够自己创作美、欣赏美?
 
几位学者都认为,目前还不需要担心这个问题,电影只是科幻故事,人工智能产生情感与意志的未来距离我们还很遥远。科幻片将人工智能定义为可以帮助乃至取代人类思考的工具,但事实上我们仍处在人工智能的初级阶段。“现在的人工智能还局限于完成指定任务,而要从感情上或者自我意识上做到《Her》那样,目前技术还很难实现。”文继荣教授解释。
 
人机相爱的故事探讨的本质还是爱,什么叫做爱,什么叫做美,这其实是哲学问题。但探讨这些对于人工智能的发展无疑是有必要的,张钹院士提出,哲学应该走在科技的前面。如果我们对于自己的大脑了解都不够充分,怎么去模仿人类的大脑从而创造人工智能呢?
 
杨田博士认为作为这些人工智能的训练者,我们本身其实也不知道情感究竟是怎样表达的,该如何传递,现在的人工智能应用实际上是在用一个最优化的问题去逼近一个个类似这样的问题的现实表达。
 
痴迷的追求
 
理想与现实的差距并不能阻挠我们的热情,虽然距离人工智能的成熟遥遥无期,但无数的研究者都在这条道路上孜孜不倦地向前攻进,时刻准备着敲响第四次工业革命的钟声。现在人工智能研究处于爆发期,5月发布的《中国新一代人工智能发展报告2019》显示各国人工智能战略布局进一步升级,人工智能正在从少数大国关注走向全球布局的新格局。
 
教会机器思考的想法让我们着迷,让我们为之求索,人工智能将会改变什么?它的未来在哪里?
 
张钹院士表示就目前来说,人工智能目前虽然发展迅速,但是只能做到在某个方面超过人,它全面超过人是不可能的。AI可以下象棋,可以打游戏,但是都是在特定的限制,大量的学习,反复的训练之下,它的背后还是人在起作用。我们采取哲学里的行为主义流派的定义,如果这个机器表现出来的行为跟人一样,我们就认为它就具有智能。所以我们现在做的还是在努力让机器学会模仿人类行为。
 
文继荣教授提出我们今天所有的讨论都基于我们对于人工智能的理解,什么是人工智能,为什么他写的程序就叫做人工智能,我的就不算?文教授给的定义是,从输入和输出两方面来判断:如果程序的输出结果是确定可预测的,就不是人工智能;如果输出是模糊的,是带有不确定性的,可以由精度来衡量,比如人脸识别95%,就是人工智能。也就是说如果程序能够应付输入环境的多样性、变化性,同时输出结果还得到比较高的精度,就是人工智能。“不精确的东西、对结果有很强的容忍性的场合是将来人工智能会成功的地方。”
 
杨田博士表示,就目前对人工智能的定义来说,它可以把很多东西都做得挺好,比如,对话、语音合成。但离通过图灵测试远得很。就现在来说,语音相关的技术以及自动驾驶方面的技术其实有很多离实际应用很近。
 
正如蒸汽机刚刚发明,听见轰隆巨响而不觉自己正在窥见一场伟大的革命的工业革命时代的人们一样,我们也许正在见证未来,正在开启一个伟大的新时代。
 
忧:隐私与安全孰轻孰重
 
面对隐私与安全的抉择,美国与中国各执一端。5月14日,美国旧金山监事会通过一条新禁令,决定禁止该市所有单位使用人脸识别技术,包括警察局等政府部门,成为全球首个推出人脸识别禁令的城市。
 
与此同时,中国发展出完备的天眼系统,通过应用人工智能、视频图像处理等多种专业技术,能在第一时间对人脸信息进行捕捉和匹配。教室里有摄像头对准学生,时刻捕捉学生的一举一动;过马路不小心闯了红灯,你的照片会立即与身份信息匹配,出现在路边的大屏幕上……
 
人脸识别可以被用于抓捕罪犯、保障安全,在教室安装摄像头也可以保护学生,避免红黄蓝幼儿园事件类似的悲剧。但这项技术也有极强的侵入性,有一双眼睛在时刻注视着你,获取你的信息,而你永远不知道这些信息会被用于做什么。
 
张钹院士谈到,不同的做法背后折射了中西方不同的价值观,在个人利益和公共利益冲突的时候,中国选择公共利益,西方强调个人利益。如何平衡公共利益和个人利益,是一个非常严肃、需要认真研究的问题。隐私与安全我们都不能轻易割舍,就看谁能做到更好的平衡。
 
文继荣教授也认为中西方目前的做法都过于极端,目前有些数据的搜集是完全没有必要的。西方因为过于强调隐私保护,对大数据人工智能产业的发展造成很大的影响,但是中国也不应该纯粹为了发展人工智能产业而忽略隐私保护。
 
杨田博士认为,现在的社会我们或多或少都从个性化推荐获得了便利,这其实就是通过向系统出卖隐私而换来的。摄像头的存在确实起到改善治安环境的作用。中国有句古话“举头三尺有神明”,过去科学还没有那么发达的时候,大家相信自己的一举一动有神在上面看着,从而约束自己不做坏事。现在,我们不相信神了,发现自己没有约束,这其实给所有人带来损害。这种情况下,这些技术手段起到了威慑作用,技术成为了新时代的神。
 
现在的边界在于,如果选择安全,我们要如何保证数据不会被滥用?很多事情容易越界,如何守住我们的边界,是非常值得慎重思考的。
 
惧:未来的AI武器
 
人工智能武器是具有指挥高效化,打击精确化,操作自动化,行为智能化等特点的智能武器,它可以有意识地寻找、辨别需要打击的目标,具有辨别自然语言的能力,是一种会思考的武器系统。
 
文继荣教授表示,我们对AI的恐惧主要来自于对它自主性的害怕,对它可能脱离人控制的恐惧。
 
最近一段时间,很多知名人士都对人工智能武器表示了抵制,认为机器人有朝一日将会控制人类。但是这种说法其实并不合理,至少在短期内不合理。张钹教授说,人类的意志才是战争的根本,机器只是被操控的工具。战争不管发展到什么程度,最后都是按照人类的意志进行的。危险在人,而不在机器。所谓无人机,背后也是有人在地上操控。
 
也许人工智能武器的问题,不在于它们将会控制世界,而在于它们非常容易被重新编程,因此任何人都能够以低得惊人的预算,制作出一台滥杀无辜的高效机器。机器的杀伤力是巨大的,杨田博士提问的,我们能够允许在没有经过人类审判的情况下让武器去消灭一个人吗?
 
文继荣教授认为,应该对AI武器进行分级,和自动驾驶类似。根据智能体面对环境多样性或者变化性时的处理程度来定。分级是帮助我们更好地理解现在的人工智能所处的阶段和接下来要做的事情的一个途径。
 
AI Time由一群关注人工智能发展的青年人创办,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,展开辩论,碰撞思想,打造人工智能知识分享的策源地和聚集地。
 
编辑:李华山

推荐课程

更多

学员风采

更多

结业证书