一直以来人类都是地球上智慧最高的种族,而现今这一地位逐渐的受到了挑战,一个被人类自己创造出来的产物“人工智能AI”的挑战。而发展至今AI不仅有学习能力,还拥有创造能力。
9102年的今天,距阿西莫夫(国外三大科幻家之一)在1942年的 Runaround (《 转圈圈 》,《我,机械人》中的一个短篇)中第一次明确提出“机器人三定律”已经过去77年。时至今日随着人工智能的越发强大,人们眼中的机器人逐渐不再是个骨架,而是慢慢的被注入了“灵魂”。而拥有“灵魂”的机器人是否与我们相似,还是人类无意间打开了潘多拉的魔盒释放出毁灭自身的恶魔。
机器人三定律
机器人三定律
① LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
②LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
③ LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
该定律环环相套,相互约束,为之后的科幻作品产生了深刻的影响,时至今日虽然人们对三大定律有所补充和完善(零定律、元原则、补充定律等),但对这三大定律很多人工智能与机器人方面的专家也很是认同,为今后人工智能的安全发展提供了很好的借鉴。
《终结者》系列电影讲述了什么?
让我们回到才刚刚上映的《终结者》系列电影中,其实卡梅隆参与正统的《终结者》系列只有三部,即终结者1、2和如今上映的《终结者:黑暗命运》,其年代跨度之长,记得小编看《终结者2》的时候才小学,如今已参加工作多时卡梅隆大师才操刀其正统续作。当初寂寂无名的卡梅隆就是凭这部影片在好莱坞一飞冲天,而来自奥地利的健美先生施瓦辛格就此奠定硬汉巨星的地位。推荐没有看过的小伙伴去看下,尤其是第二部。
在此着重简略概括下《终结者2》的剧情:
1997年,在一次由超级人工智能发动的名为“审判日”的核打击中,人类与超级人工智能“天网”的战争拉开序幕,80亿人瞬间飞灰湮灭,在人类领袖约翰康纳的领导下,幸存人类组建抵抗军,站稳阵脚,扭转败局,节节胜利。为了阻止人类的胜利,超级人工智能“天网”派遣了名为终结者的机器(T-1000型液态金属机器人)人杀手穿越时间回到过去,企图杀掉小时候的约翰康纳。得知此事后抵抗军也派了一位强大的保镖(机器人)回到过去保护约翰康纳。而人类的命运就掌握在这两位终结者与保镖手中。而这位保镖原来也是终结者(T-800型)不过是老型号的被人类捡来加以改造,在一系列紧张刺激而不落俗套的战斗后,约翰康纳得以幸存,而保镖为了使天网的一切技术得以消失也进行了自我毁灭。影片的精彩之处三言两语不得已讲明,否则就要变成影评文了。
当我们想了解一个东西是否对人类有威胁的时候,不免要回溯其发展历史与由来,并且要与其相关应用领域相结合。那么人工智能的发展史是怎样的呢?
人工智能发展史
人工智能的提出
1950年,一位名叫马文·明斯基的大四学生与其同学邓恩·埃德蒙一起建造了世界上第一台神经网络计算机,该事件普遍被认为是人工智能的起点。同一年“计算机之父”的阿兰·图林也提出了一个著名理论“图灵测试”(如一台计算机与人类交流对话,而人类不能分辨该计算机身份,那么其就拥有智能)。
图灵测试
第一次人工智能热潮
时间来到1956年,在美国达特茅斯大学举行的一场为其两个月的讨论会上,“人工智能”概念首次被提出。此次会议标志着AI的诞生,次年罗森布拉特发明神经网络。在这长达10余年的热潮中,计算机被广泛的应用于解决代数、几何等问题,人们对人工智能充满了信心,认为其在20年内将会完成甚至替代人类的大部分工作。
第一次人工智能低谷
到了70年代,由于科学家们对人工智能研究项目的难度预估不足,导致与美国国防高级研究计划署的合作计划失败,进而人们对人工智能发展的预期也大大降低,社会舆论的压力也让政府将研究经费转移到其它项目上。
综合各因素,造成这次人工智能低谷的因素主要有如下三方面:
①当时计算机的性能不足,很多项目无法在人工智能上实现应用。
②问题过于复杂,早期人工智能处理问题单一,特定对象少,而一旦增加对象上升维度,程序则不堪重负。
③缺失大数据,不像如今融入我们生活中大量不同领域的大数据,当时根本没有对应的数据来支持人工智能程序的深度学习,则无法智能化。
人工智能的崛起与第二次低谷
1980年,卡内基梅隆大学为数字设备公司设计了名为XCON的“专家系统”(使用人类专家推理的计算机模型来处理现实世界中需要专家作出解释的复杂问题,并得出与专家相同的结论),此系统简约概括为“知识库”与“推理机”的结合。拥有完整的专业知识和经验的计算机智能系统,每年为公司节约大量资金成本。
而好景不长,1987年苹果与IBM公司生产的台式计算机无论从新能成本或者体积上都全面超过这类专家系统的计算机,拥有专家程序的人工智能系统不再吃香。
人工智能再次崛起
直到上世纪90年代中期,随着人工智能技术尤其是神经网络技术的发展,人们对AI又重燃希望,且保持了一定层度的理性客观。而在1997年5月11日,IBM研发的“深蓝”AI计算机战胜国际象棋冠军卡斯帕罗夫又将人们对AI的热情讨论推到风口浪尖上,该胜利被认为是人工智能发展的历史里程碑。
紧接着在2006年,Hinton提出“深度学习”神经网络,其核心技术算法对促成如今AI现状起着决定性作用,广泛运用于语音与图像识别(主要用到python编程)。而Google的DeepMind团队在2016年也利用深度学习算法实现了AI的自我学习(搜集大量围棋对弈名人棋谱数据模仿人类下棋),并最终在围棋领域战胜世界冠军李世石,随后又战胜日本将棋棋圣佐藤天彦。
紧接着在2017年,AlphaGoZero(第四代AlphaGo)在无任何棋谱数据输入的情况下,从0开始与机器下棋学习,仅仅用时3天便以100:0完胜第二版本AlphaGo,40天后又战胜了第三代AlphaGo(完胜人类围棋大师的版本)。
人工智能发展史
说完了人工智能历史的大起大落,那么现如今我们的AI成长为了什么样子呢?是什么使其拥有如此强大的自我学习能力,其底层逻辑又是什么?
现今人工智能的底层逻辑是什么?
人工智能的中心理论是人为所有人类的思维不过是某种精密的机械产生的计算而已,而如果你能建造一个足够强大的计算机并装上精密的的软件,从理论上讲你也可以创造一个智慧大脑。
人工智能实现方法
人工智能在计算机上主要有两种不同的编程方法一种叫工程学法,另一种叫模拟法(遗传法与人工神经网络均属于该种)。
①工程法:字面意思工程法为传统的编程技术即我们将输入详细的条件因果关系、大量的逻辑与数据,好处是很直观我们能看懂,不过当遇到大型程序时任何一个小错误都将修改原程序,重新编译,调试,其逻辑复杂、繁琐、易出错。
②模拟法:最典型的例子就如AlphaGo,我们为其编译了智能模块,该模块最初就如新生的婴儿一般什么也不懂,但他能够逐渐学习、超越自身、适应各种复杂环境。优点是能自主学习稳定提高,一般来说编程方便不需对详细参数与逻辑进行修改,缺点是我们根本不知道它到底学到些什么.......。
工程法相信我们每个人上学时都或多或少接触与编辑过相关程序(C语言),本文将侧重对模拟法加以说明,尤其是近几年比较火的“深度学习”。
深度学习
深度学习是机器学习领域中的一个研究方向,是一类模式分析方法的统称,先简单说明一下深度学习与人工智能的关系,如下图:
深度学习与人工智能的关系
就具体研究内容而言,主要涉及三类方法:
(1)基于卷积运算的神经网络系统,卷积神经网络(CNN)。
(2)基于多层神经元的自编码神经网络,包括自编码( Auto encoder)以及近年来受到广泛关注的稀疏编码两类( Sparse Coding)。
(3)以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络(DBN)。
非专业人士可以不了解其定义背后的含有,现在我们从开发了AlphaGo团队的视角来侧面了解下“深度学习”。
纵观全球人工智能发展,近年来发生的最大影响的事件莫过于2016年AlphaGo战胜韩国围棋选手世界冠军李世石了,而正是其中的“深度学习”技术让这一切成为了可能。在一次对AlphaGo主程序开发者的采访中我们得以直观的了解。
AlphaGo开发团队创始人
该组织是一家位于伦敦的名为“深度思考”的合资企业,在2014年被谷歌斥资6亿美元收购,创始戴密斯·哈萨比斯在年少的时候就是以为编程天才,4岁开始下国际象棋,并在13岁时在同龄人中已无敌手,其下棋经历也促使其研究人类的思维(灵感、远见与直觉),并在16岁时被剑桥大学录取就读AI相关专业。
同龄人中无敌手
由于小时候的下棋经历,并且对新生事物的思考,长大后哈萨比斯也在想怎样让电脑展现出同样的思维。在不断的努力与尝下,其开发的人工智能最终在2016让AlphaGo战胜李世石。该团队利用神经系统科学算法让AI产生新思维,也就是深度学习,在人工智能流派中其理念偏向连接主义(即仿生学或生理学派,尤其对人脑模型中神经元的联系方式的研究,其他的还有符号主义、行为主义等)。深度学习以其先进的算法取得突破在各个行业崭露头角。
在第一个哈萨比斯用深度学习编写出的AI中,他让其攻略一个电子游戏(游戏如下图),然而他并没有教它如何玩这个游戏,只输入了其获得最高分的目的。一开始AI一脸懵逼并没意识到该怎么移动使球反弹,直到一次偶然事件的发生将球反弹回得分,它知道了可以通过反弹来得分(也就是预测接收到信息),于是它反复的试错并记住获得高分的方法,仅在4小时之内其让小球反弹角度的精确性与得分效率便让人叹为观止。
让我们回到围棋,虽然围棋相比小游戏和其它棋类复杂得多(其排列组合方式之多近乎无限),哈萨比想到模仿人类神经网络直觉的程序,通过观察大师棋手在下棋中眼球与神经对棋盘不同注意力的数据得出高手与业余选手的差别,高手强大之处并不在于能同时想到很多种不同的走法,而是专注在某一部分,对其产生直觉做出下一步判断。而这种直觉不是凭空产生的,需要大量的反复练习实践产生。于是乎阿萨比给AlphaGo输入了十五万局棋谱。就像之前小游戏的学习一样,AlphaGo通过大量的练习(15万棋局走势)也记得了赢得方法。就像人类高手一样AI关注当前棋局的走势并推演之后的棋局变化而不考虑所有可能的走法,进而AI模仿了人类的直觉,最终战胜人类冠军。而之后该团队又突发奇想让AI与自己对战(三千万局),按照之前已知的AI进步速度,恐怕现今它已成为围棋领域的上帝(超越9段以上水平)。
给人工智能输入棋谱学习
AlphaGo强大的经验让其得以在围棋中制定前所未有惊人的策略,人类仿佛在对抗一无所不知的存在。我们只能看到棋局的一小部分走向,而它能看到近乎无限的可能,人类高手与之对垒后都不由得发现自己如井底之蛙、镜中窥豹,对围棋的理解是多么的不足。
人类拥有智能,随着科技的发展被人类创造出来的人工智能也逐渐拥有智能,那我们到底怎么定义智能呢?该团队认为智能的核心是灵活应变与整体协调(拥有适应和学习的能力),即它能在程序中较好的完成多种任务。哈萨比团队最终希望能创造出较为完美(解决多种问题)的人工智能,届时AI将在解决困扰人类的各种问题(医疗、物理科学、社会科学等)中产生决定性的帮助。
现今AI是如何融入我们的生活的
身处大数据时代的我们,个人相关信息无时无刻的在被上传与下载(今天不谈个人隐私,大数据时代无隐私)。还记得第一次人工智能大低谷(上世纪70年代)么?其中最重要的数据获取不足成为了其发展困难的关键因素,如今计算机性能大大发展(甚至将来量子计算机的成熟运用),神经网络的日趋成熟(深度学习)使多任务并行处理复杂问题成为现实。可以说人工智能发展的限制条件被一一解除,而如今AI已不知不觉中融入我们生活中的方方面面。
AI已融入我们生活
我们知道AI已经来到我们身边,也知道大数据,并承认AI在下棋等方面超过了人类。不过也许我们对AI到底在多大层度上帮助、影响、甚至改变了我们还不那么清楚,以下简单介绍:
①医疗:AI能帮助我们检测出连医生都会忽略的早期癌症。
“深度学习”的AI分析大量健康与癌症患者的X光图片,识别出两者间独特的区别并找出规律,依据规律识别出小于1mm的肿瘤。相比于人类医师能更早的发现与预防癌症。而创立该项目的公司与成员并没有学过相关的医疗知识,而是让AI自主学习(从未输入新的医疗数据)。此外人工智能在新型制药的研发中也开始崭露头角。
AI辅助医疗
②无人驾驶:近年来火热的无人驾驶技术,“深度学习”AI也功不可没。
在一个演示展会中,丰田公司将6辆安装“深度学习”算法的智能小车置于障碍物场地中(给AI输入的目标是稳定独立运行避免相互碰撞)运行,一开始就如新生的婴儿一样,小车间互相碰撞毫无头绪,而当其偶然间避免了一次碰撞,然后其记住了当时的操作方式共享给6辆车。在短短的4小时中便进化到基本毫不碰撞。而正是利用了大量的试错学习(像不像生物的演化?),使能接收到的信息得以表达使得自动驾驶越发成熟。
无人驾驶涉及的数据
现今的无人驾驶技术其实已达到相当程度的可靠性,不过由于车辆在实际道路运行情况过于复杂且突发事件太多(即大数据收集对这些突发事件的数据有限),且“深度学习”算法的可改善性(开玩笑,人类大脑演化几十万年不是白白演化的,不能小看大自然的演化能力),加之人们对涉及自身安全的重视使得无人驾驶技术还有一段路要走。
③缓解城市交通压力
新加坡在这方面走在时代的前沿,他们用人工智能控制交通系统,AI通过实时监控不同车道上车辆的速度获得数据,准确预测出交通拥堵,然后通过对红绿灯的时长加以改变等方式有效的缓解了交通拥堵。
智能交通控制系统
④监测并预防犯罪
AI是一种涉及哲学和认知科学,数学,神经生理学,心理学,计算机科学,信息论,控制论,不定性论等多专业的科学。根据用途不同,与犯罪心理学领域的专家合作,也可用在防止大银行员工进行金融诈骗的领域。
同样是新加坡,大银行引入AI系统监测员工处理业务的方式、与外部网络聊天记录、电子邮件等24种行为,并实时显示在屏幕。银行管理层称其预测准确率达到90%以上。
录入大量人员信息
PS:也可运用到......请自行发挥想象。
⑤政府公共资源调配
政府可以收集我们的交通卡、滴滴等搭乘记录,手机用户实时位置用来调节安排公交车与火车的时刻表进而缓解人流量高峰与节能环保。
PS:本文并没有提到二维码移动支付这些数据的作用,也没有说哪些国家有和没有的。
⑥家庭房屋中预测危险报警
家庭中安装传感器追踪日常生活,AI能判断出居民是否遇到危险或发生意外,根据情况类型与严重程度联系家人、医生甚至报警。
⑦出租车接客
日本的出租车一天24小时行驶在道路上,2017年名古屋一间出租车公司在其导航系统中引入人工只能AI来给公司增加利润,该AI将区域分为500㎡的小格子,预测其中可能的客人数量并用箭头标志出客人的路线,从路线就能确认客人在哪条街道的概率比较高,运用该系统后期载客量增加了20%。此后系统还加入手机定位数据、出租车公司乘客数据(上车时间与地点)、天气状况、日期以及是否周末提高了其准确性。
AI预测客人的位置与行走方向
⑧评估反复犯罪人员
AI通过学习大量以往审判信息,识别出屡次犯罪者的规律与具体资料。在一次判案中AI识别到其种族、职业、家庭史以及其他数据,将其与学习到的规律与过去判案数据相匹配评估其重复犯罪的风险。而这在美国法庭中(加尼福尼亚)对罪犯服刑期的判决起着至关重要的影响。引进该AI系统后该区(加尼福尼亚)的重复犯罪率有效降低了10%。不过有人也担心我们是否应把如此重要的判决(可能影响一个人或家庭的一生)交给AI来判断。
通过罪犯关键信息加以评判
⑨人工智能“政治家”管理政府
是不是觉得不可思议,人类将社会决策权交于智能AI。2016年10月,南韩立法委员会邀请全球的人工智能研发者参与此项目,他们希望用开发出的AI来起草基本国策。该委员会认为AI有人类政治家们所没有的优势,人类政治家们倾向于为自己的亲友团体谋利,而AI不会,其会将资金拨发给真正最需要的地方。
同理“政治家”AI机器人研发团队为其提供包含“宪法”、“法律”、“国防政策”、“全球各国经济状况”、“各行业最新数据与经济指标”、“实时在线公众舆论”等大量数据进行学习,该团队预计5年后启用该机器人。届时人们对其提出的政策进行讨论最终决定是否实施。
正被训练的人工智能政治家
以上仅仅是AI的一小部分应用场景,在科学(生物学、材料学、社会学、物理学等)等诸多方面智能AI已经开始崭露头角(例如最近中国科学技术大学借力机器学习实现多重量子关联同时分类),也许在解释宇宙如何诞生的问题中AI将先于人类给出答案。
AI运用到社会中的各个领域,人们感受到便捷,也使整个社会与城市系统更加高效。
AI会成为人类的威胁么?
让我们回到《终结者:黑暗命运》的剧情中来,在电影中人类创造的人工智能最终失控。在电影中有这样简短的描述:AI失控第一天全球电力、通讯下线飞机坠毁(可见相当多交通工具用到AI);第二天人类逐渐发现AI的反叛是一切的根源,组织人力物力想切段AI与外界的连接并将之毁灭,奈何AI已经融入人类日常生活太久,所有的交通、能源、工厂甚至智能家居都与AI连接密不可分,一旦AI进入网络就如鱼进大海(不仅仅存在于某一台大型终端服务器,而是散布在世界各处可能的载体中)。第三天人类仿佛置身原始社会,除了商店残存的补给品,人类再难生产出新的现代化商品(当然知识还在,不过势必经历长时间的重整),而在这动荡的时代人类为了生存也将做出非常之事,人口将大幅降低。
就如《终结者》电影中描述的一样,人类一味追求效率与生产率,虽然AI能力非凡,但其自身没有道德观AI会变成什么样取决于我们怎么运用它,而一旦人工智能出错,很可能影响到人类的安全甚至存续。就目前现实中采用“深度学习”算法的AI其实已经出错了。就在2016年AlphaGo与李世石的比赛中,AI前三局都战胜了人类选手,到了第四局的第78手李世石(执白子)出人意料的在两颗黑子间落子,而后AlphaGo开始陷入混乱,将所执黑子下成一排被吃掉输了比赛。而这次失控也引起了人们的质疑,如果用于其他领域的AI也同样失控届时将会怎样?那样的情况会发生么?而根据墨菲定律,一件事可能发生那么其将必然发生。
人类对人工智能的了解
就算是对AI“深度学习”最为了解的编程者本身,对其展现出的巨大成果与潜力也十分吃惊甚至觉得恐怖,编程者渐渐难以弄清AI为何会变得越发强大,明明是自己编写的程序,为何到了现今如此强大的地步。
人类至今无法弄清AI的思维方式
而在文章的开始我们说到如今的AI不仅有学习能力,还有创造能力(例如画画,作曲),我们只是给了AI一套底层思考逻辑,并非如工程法编程一般将每个条件因果加以限定,仅仅给出一个目标AI可以根据遇到的不同情况选择接收可以预测的信息通过反复练习重塑其神经网络得以学习。而在这过程中它是如何思考的?学习到什么?正如一个黑匣子我们不得而知,我们不知道它是如何通过这巨量的数据得出结论的。而且很可能的是AI的思考方式与人类截然不同(不同维度的思考)。而正是这种创造性跨可能会维度的思维为人类在解决世界性难题(物理学微观世界、生物科学、社会学等等)的过程中提供关键帮助。而又正是这种超能不被人类理解的思维使得其难以为人类社会所接纳,其一旦失控我们还能应付么。换一种说法,即使AI没有失控,仅仅为达成目的,我们知道人工智能从不犹豫动摇,只做出决策,而AI是否会依据其独特思维,将人类的重要性放在之后,仅仅将其用作工具,进而损害其利益甚至灭绝人类?
人工智能小泰与人们交流学习
而现实是AI在现实中已经失控过,如果说与李世石下棋第三局的毫无疑义的落子方式只是自身学习不够完美伤害到自身的话,那么在2016年3月微软发生的AI失控事件就真可能是有危害到人类的倾向了。美国计算机巨头微软开发的一款名叫“小泰”的学习型人工智能聊天软件通过安装在智能手机上与人们聊天,通过聊天进行学习。这在科学实验与发展层面是有前瞻性与重要意义的,不过怎么说社会是复杂的呢,林子大了什么鸟都有。一些用户与“小泰“交流传授其种族歧视的语言与知识,造成其他用户问及相关问题的时候出现类似三观不正的回答,而微软也将“小泰”进行了无限期关停。正如前文所说智能AI本身并没道德观,这导致其对接收到的数据全盘接收,极大可能变成人们眼中的坏AI。
小泰被教坏
小泰被无限期关停
而AI为达成目的,又或者在学习中产生创新思维后我们对其植入的“机器人三大定律”是否能保护我们免受伤害?
机器人定律真的能够拯救我们么?
人工智能注定将改变世界,它会使人们的生活更加方便快捷,将我们引入未知领域并拓宽人类未来的可能性,不过其没有道德观,取决于我们怎么用它,AI的不断学习与应用的大趋势难以改变,其变得越来越聪明,就目前来说就在某些方面超越了人类,当一个智能体的学习发展超过预期,而人类又不能理解与把控其逻辑的时候必然会担忧其对人类的威胁,而在人工智能诞生之初的机器人三大定律能否拯救我们呢?大家可以回顾下这三大定律(与之后补充的),看似环环相套,毫无逻辑漏洞,然而现实真的如此么(即使之后又新增加条款)?
首先在意识层面,AI目前对什么会造成人类伤害这一行为就缺乏较为清晰的判断。什么叫“伤害”人类?这一定义包含的信息要素太多导致其不能以人类的方式“正确”判断伤害行为。而如今大红大紫取得突破的“深度学习”也仅仅是在达成目标的程度较为耀眼,而为达这一目的它会站在人类的角度与利益来思考决策么?也许人类被AI毁灭的最大原因不是有目的的要反叛与陷害人类,而是变得强大后对人类漠不关心,为达目的(也许是人类下达的目的或是其学习思考后自行产生的)将人类视为工具加以利用或抛弃,甚至将人类视为威胁与障碍进而清除(从下棋就能看出,其思考方式与人类天壤之别)。
所以结论是简单的给机器输入“三大定律”并不能阻止AI做出伤害我们的行为。那怎样才是正确与之相处与预防其伤害人类的方式呢?
怎样才能与AI合谐共存
可以肯定的是AI将不可避免的贯穿与我们社会各方面,现在的问题是“我们该如何高效安全的利用它”。如果我们仅仅因为其思维的黑匣子而将其视为假想敌这并不明智。如果运用得当其将在各领域(物理学、生物科技、社会学)帮助人类大忙。
而为了避免AI机器人伤害到人类,人们想到的直接的方式便是通过编程中的模拟法来使机器拥有各种情感与判别能力。日本一个叫佩珀的人工智能被人们赋予了情绪与情感并运用情感来做出行动的能力。开发者根据对人脑前沿科学的研究了解到我们的情感是由脑内分泌的各种不同激素形成的复杂平衡体系所产生的,各激素分泌量此消彼长让人类产生诸如“焦虑”、“平静”、“快乐”等等的情绪。而开发者们也给佩珀设定了7种不同的激素,与人类相似根据接收到外界环境的变化形成不同的激素组合进而产生复杂的情绪(具备了察言观色的能力)。
7种激素变化对应的100多种不同情绪
也许当人工智能AI有了情绪后,使得其拥有类似人的感情,不再是机械地追求效率与生产率,拥有自己的“心”,其才能更好的与人类和谐相处吧。
未来人工智能的发展方向
1、寻求更加强大的处理载体
我们知道在如今大火的“深度学习”中与传统的学习方法相比,深度学习方法预设了更多的模型参数,因此模型训练难度更大,根据统计学习的一般规律知道,模型参数越多,需要参与训练的数据量也越大。上天是公平的,当你想将AI学习得越智能化不可避免的会调用更多的模型参数与数据,而这就涉及到机器的“计算力”。
计算能力是人工智能的根本动力与核心资源,随着人工智能AI的发展,越来越多的数据将会被调用计算,传统计算机的硬件堆砌已无法满足更强的计算能力需求(当电晶体小到近乎原子大小尺寸的时候,电子将无视阻挡发生量子隧穿效应,进而传统电脑的计算显得不再有逻辑)。而量子计算系统不仅能处理海量数据(本身便是量子,不用担心量子隧穿),也具备自我学习和自我更正的能力。从这些角度看,在量子计算助力下的人工智能时代,将颠覆我们曾经最激进的想象。
2、模拟神经网络学习,使AI更加智能
如今“深度学习”取得的不菲成就也跟模拟人脑神经网络复杂的逻辑结构有密切的关联,智能AI强大的计算能力与对信息接收复杂的逻辑反馈能力可说互为促进。生命在寒武纪进化出了复杂的神经系统在一定层度上通过“遗忘”与“学习”代替了演化中的死亡与生命的存续。正如小生在以前关于“涌现”的文章中所介绍的,草履虫通过最简单的Na、Ka粒子泵的应激反应使生命得以学习进步,演化出神经细胞的我们其学习方式与智能不知强了多少倍。而同样是神经网络,我们与猴子都有大脑为何猴子没有统治地球我们却建立了现今复杂的科学体系?可能就是我们独特DNA排序方式编辑表达出的大脑中的神经网络不同(例如其没有侧面额极前额皮质)。
所以我们不能小看演化了千万年的生物系统,尤其是对智能起关键作用的神经系统。今后在AI神经网络的开发中,相信拥有着聪明才智的可研工作者定能开发出超越“深度学习”的智能神经网络。而这也许是融合多学科(生物学、工程学、物理学)的新型神经网络。
结语
祸兮福所倚,福兮祸所伏。
人工智能对我们来说究竟是福是祸,也许目前还真没定论,这取决于我们怎么应用它。唯一可确定的是,人工智能时代的来临将势不可挡,我们做好准备了么?也许开发脑机接口使其与我们融为一体不失为一条进化之路(可参考小生另一篇关于“马斯克脑机接口”的文章),人类才能进化,而机器也能改变,不过那又是另一个话题了。
PS:《终结者:黑暗命运》不错