• 12月23日 星期一

《人工智能如何走向新阶段》大家谈(跟帖,续)

编者按:由中国开源软件推进联盟名誉主席陆首群发起的《评人工智能如何走向新阶段》讨论引起的广泛议论,观点有深有浅,希望其中有思考价值的内容会推进和启发人工智能的新突破。讨论内容已正式上线CSDN博客(见文末地址)。

欢迎读者们在文末发表自己对人工智能发展的看法,我们将为有独到见解且点赞最高的三条评论分别送出一本人工智能领域的技术书籍。

当前人工智能依靠的底层理论是基于人工神经网络的深度学习,而深度技术算法所支持人工智能应用空间主要集中在(或局限于)图像和语音识别(以及如Alpha Go围棋游戏)。人工智能识别做的是比对,不具备人脑对信息入脑后进行加工、理解、思考、创意等步骤,还停留在感知阶段,未能进入认知世界。

机器学习/深度学习算法兴起于上世纪50年代,一直沿用至今,目前世界上开发的深度学习模型多达2000多种(以适用于不同应用场景),深度学习算法是一种强大的数据分析工具,但深度学习算法也是有缺陷的,深度学习本质上是一项暗箱技术,其训练过程难以解释、不可控,也未能适应更复杂的应用场景的需求。今天深度学习算法的潜力已近天花板,限制了人工智能扩大应用创新。

谷歌近来研究用于基因科学的人工智能Alpha Fold,预测蛋白质折叠结构的能力,以设计出新的蛋白质,他们采用深度学习的方法,用数千种已知蛋白质训练神经网络。

2014年IBM研究类脑算法,开发TrueNorth芯片,支持人工智能应用创新。IBM开发基于大规模脉冲神经网络的类脑算法的TrueNorth芯片,是由4096个细小的计算内核组成,这些计算内核形成了100万个数字脑细胞和2.56亿个神经回路,像“大脑神经元”一样工作(不同于运行打包成指令序列的传统人工智能芯片)。

2019 年在《nature》杂志封面上发表了清华大学施路平团队研发的“世界首款双控异构融合类脑芯片”,其意义非同凡响!

2014 年清华大学类脑研究中心施路平团队研发类脑技术,将基于脉冲神经网络(SNN)的类脑计算算法与基于人工神经网络(ANN)的深度学习算法集成到一颗芯片“天机芯(TianJic)”上,实行资源复用,利用交叉优势,使人工智能应用创新更接近于“自主思考”的认知阶段。

天机芯应该属于 CGRA 结构(这是一种更高层次的可重构技术),对应 Tianjic 的 FCcore 是一个结合了 SNN 和 ANN 主要算法的统一硬件结构,而且在一块芯片上同时支持商业应用和算法研究,可以说这是 Tianjic 最大的创新点。在无人驾驶的自行车上进行功能验证,应该说施教授团队选择如此应用場景让人眼前一亮, 极具吸引力和冲击力。

浙江大学从2015年至今研发脉冲神经网络及类脑算法,今年他们发表了“达尔文-2”第二代类脑芯片,在该芯片上集成15万个神经元网络(相当于果绳神经元),用于图像识别、人脸识别。

现在看来,IBM 、Intel (研发Loihi 芯片)、清华、渐大,均偏重于底层理论研究,即偏重于对类脑脉冲神经网络及类脑算法的研究。脉冲神经网络(SNN)是模拟生物神经元连接和运行方式的模型,通过计算产生神经电脉冲进行信息传递,这和传统网络的权重连接+激活的方式有很大差别。目前国内外学术界和产业界正致力于对SNN 研究,期望突破深度学习算法,但对 SNN 的新算法的研究还处于发展的萌芽期。

研发“脑机接口”算法也已启动,即将人脑神经元与脑外深度学习机器人(或机械手、计算机)连接起来。如:今年 8 月美国卡内基梅隆大学贺斌教授团队将一块“脑机接口”芯片植入人脑,与大脑神经元连接成功,从此可凭人的意念(思维或想象力) 利用人脑神经元来操控机器。今年发表的由俄罗斯“脑机接口”公司(Neurobotics)和莫斯科物理技术学院(MIPT)研发一种全新“脑机接口”算法,利用“脑机接口”将人脑(EEG)神经元与深度学习网络连接起来(本例采用无需植入大脑的非侵入电极,与人脑神经元无创连接),期望用于治疗中风患者。美国脸书(Facebook)和加州大学旧金山分校(UCSF)于今年 7 月发布的“脑机接口”技术(刊载于《Nature》子刊上),实时读取人类语言、可用意念打字、用人眼超高精度摄像等。

以数据驱动和知识驱动的认知算法也在探索中。IBM 沃森(Watson)在医疗人工智能方面研究知识驱动,建立大规模的知识库,研究知识表示和推理,建设知识工程,促使人工智能由感知阶段上升到认知阶段。新一代知识工程与以前提出的知识工程不同之处在于:1.后者利用现有数据按传统方式进行逻辑推理,前者要求挖掘新数据,创新思维和创造性地工作;2.前者引入具人(embodiment)人工智能,如在探索医疗人工智能中,要求研发新算法的科技人员与临床医生取得沟通和共识。

归纳起来,未来突破深度学习的新算法有下面几种可能:

1) 脉冲神经网络硬件实现与类脑智能算法,

2) 将真脑(神经元)与脑外计算机相连的脑机接口算法,

3) 知识表示,数据与知识驱动相结合的认知算法。

《评人工智能如何走向新阶段》后记

自《评人工智能如何走向新阶段》一文发表后,引来了中外专家、草根们广泛议论,也有人摘录他人公开的言论、资料,一倂作跟帖发表于后,对这些跟帖:有深有浅,有些或带有错误和歧见,但其中有一些不乏具有启示、参考价值,鉴于大家的热情,我们将不断续发跟帖。现发表从1条-95条的跟帖如下:

1.目前人工智能在理论上并无明显进展,依赖于云计算、高存储、分布式系统和深度学习,今天人工智能的成果,都是基于以前理论研究对应用场景的实现上。未来人工智能的发展期望在理论和生物技术上的突破。

2.脉冲神经网络(SNN)可以模仿人脑的电气信号,是模拟生物神经元连接和运行方式的模型,通过计算产生神经电脉冲进行信息传递。目前,国内外一些专家正在对脉冲神经网络进行研究,未来人工智能的发展期待对脉冲神经网络和类脑算法的关键性突破。

3.人工智能如果要突破情感还需要化学成份,需要这方面的专家进行底层理论协同研究。

4.人工智能还需要心脏类(生物器管)的东西,对“器官记忆”这类仿生学的研究也许是人工智能底层理论研究的关键之一。

5.未来人工智能的发展还需要进行伦理方面的研究。

6.现时国内在构建人工智能核心技术的工具或框架上,在开源平台上,以及在人工智能硬件(如微处理器芯片)方面,还是比较落后的,过去这些开源平台和高端芯片大多是由美国方面设计、研发的,人工智能开源平台可以帮助电脑像人脑一样工作(百度的“飞桨”平台是由中国人开发的先例)。国内大概需要花5-10年时间才能在基础理论和核心算法上追上美欧水平。

7.为了推动人工智能的发展,人才是关键,为此要制定和执行人才政策以及人才培养、引进和使用计划,政策和计划的前提要体现开源开放精神。一位美国专家谈“如果美国不再提开放开源的前沿,那就是在冒险将人工智能人才送到主要竞争者手里,包括中国”。

8.2017年清华大学施路平教授等研发“世界首款双控异构融合类电脑芯片”(将基于脉冲神经网络SNN的类脑计算算法与基于人工神经网络ANN的深度学习算法集成到一颗芯片“天机芯(Tianjic)”上,将人工智能的应用创新推进到更接近于具有“自主思考”成份的“认知智能”阶段。第二代“天机芯(Tianjic)”的照片刊登在英国《nature》杂志的封面上。

9.IBM从2014年开始研发True North芯片,进行底层理论研究(即对类脑脉冲神经网络SNN及类脑算法的研究),以期推动人工智能发展。两年前IBM发布类脑芯片True North引起了轰动。IBM先搞了一个简易的核心电路,采用asynchronous circuit,当时是非常大胆的,这个研究项目主要是为了验证神经形态计算硬件。因为芯片面积超过100平方毫米,良品率非常低,不能量产,随后Synapse Project已结束了。

10.脉冲神经网络类脑芯片的进步将会带来计算体系结构的革命,是下一代人工智能发展的重要突破方向。由浙江大学牵头研发的脉冲神经网络类脑芯片“达尔文2”已于近期发布(2015年发布“达尔文1”,现在已启动研究“达尔文3”),达尔文2单芯片由576个内核组成,每个内核支持256个神经元、神经突触1000多万(即单芯片支持的神经元规模达15万个),经过系统扩展可构建千万级神经元类脑计算系统(在神经元数目上相当于果蝇的神经元数目),达尔文2是目前已知单芯片神经元规模居全国前列。该类脑芯片目前主要应用于图像物体识别、视频音频理解、自然语言处理、脑电识别,较之基于深度学习的人工神经网络,具有独到优势,更擅长于模糊数据处理。

11.百度自动驾驶汽车曾在《开源中国开源世界高峰论坛》上发表(三年三届),目前我们自动驾驶汽车不再单纯追求高速复杂路况下跑几千公里的酷炫目标,首先要关注安全和效率,主要在低速开放道路上实现自动驾驶(低速场景L4级自动驾驶先于高速L3级自动驾驶实现)。当前自动驾驶汽车还停留在深度学习开发框架上(当然还有深化余地)。这方面人工智能的发展,要加快在路侧的基础设施建设,并充分建设、利用开源平台。

12.早在上世纪末叶,有人提出能否可利用直接基于人脑神经元(不是类脑神经元,也不是人工神经元)的深度学习技术以推动人工智能的进步?可是由于人脑神经元极其纤细脆弱,难以与植入人脑的芯片连接,这个设想久未成功。据悉今年8月卡内基梅隆大学贺斌教授领导的人工智能科研团队,将一块含有深度学习框架及脑机接口的芯片植入人脑,取得与大脑神经元无创连接的成功。从此将凭人旳意念(思维或想像力),利用人脑神经元来操控机器(机器人或机械手)创造条件。这是一种人脑智慧/智能与人工智能结合/协同的模式,即人机协同模式,可以冲破人工智能感知阶段,到达认知阶段。

13.纯脉冲神经网络超越深度网络才是更大看点,我们(指国内)正在做,希望一两年能有突破。

14.脉冲神经网络不是IBM首创,TrueNorth当时的卖点是芯片实现了大规模脉冲神经网络、低功耗。

15.清华这辆自行车成精了,可自我平衡,自动绕障避障,自主管控,自主决策。

16.推动人工智能发展关键在人才。网友转抄清华大学“中国科技政策研究中心”报告:至2017年,全球AI人才204850人,中国AI人才18230人,占全球8.9%,美国27470人,占全球13.9%,中国AI人才是美国的2/3。按高H因子衡量,中国AI杰出人才977人,美国4885人,中国是美国的1/5。

17.从“2019全球AI人才分布图”

(https://www.huxiu.com/article29556.html)看,那些发表AI论文的高产作者主要是毕业于美国的博士,占44%,在中国获得博士学位的作者约11%,其次是英国6%,德国5%,加拿大4%,法国4%,日本4%。从就业数据地域分布看,美国继续吸引AI研究人员为之工作的占46%,中国占11+%,其次是英7%,德4%,日4%。在顶级刊物上有影响的AI研究人员全球约4000人,其中美国1095人,中国255人,英国140人,澳大利亚80人,加拿大45人。从AI人员流动情况看,美国最能吸引AI研究人员为之工作,中国其次,其吸引的绝对数量占美国的1/4。

18.回顾以往中国人工智能发展中存在的人才问题,一优一劣,优在青年人才充足,劣在高端人才培养人数少,如何扬长补短是我们在AI人才政策上面临的急切任务。

19. 人工智能的发展可分为感知智能、认知智能、决策智能三个阶段,目前处于感知智能价段,依靠深度学习算法,而欲进入认知智能阶段,则要依靠类脑计算,到未来决策智能阶段,恐要依靠量子计算。

20.全球人工智能领域图灵奖得主共11人(10个美国人,1个加拿大人)。

21.百度自动驾驶已有好几年了,我们开发了开放开源的Apollo平台,两年来已成为全球最活跃的自动驾驶平台:全球15000+开发者向平台贡献自动驾驶软件,我们经过多次迭代,开源代码行数超过40万行,通过平台汇聚了包括奔驰、宝马在内的140多家合作伙伴。2017年初,我们发布了Apollo1.0(封闭场地自动驾驶循迹),同年9月发布1.5(固定车道自动驾驶),2018年发布2.0(简单城市道路自动驾驶),又发布3.0(量产园区自动驾驶提供无人小巴),真正把自动驾驶变成可以量产化可乘坐的产品,去年已安全运载3万多人次,现在大家可到海淀公园体验试车。

2019年1月我们在拉斯维加斯CES会展上发布3.5(城市路况自动驾驶),这是迄今最强大的Apollo开放开源平台,它成为全球首家能应用于普通城市交通环境的开源自动驾驶平台,能够安全行驶通过车道线不清的窄道,无红绿灯控制的路口,街道槽车、减速隔离带等多种特殊路线段。但要实现普通乘用车人工智能的全自动驾驶,还会遇到很多技术上的挑战,还需相当长的时间才能完成。

22.当下小米开发并推销了具全球影响的人工智能家居应用系统,我们打造的AIoT平台已经成为全球最大的消费级AIoT的开源平台,目前我们在全球联网设备达数亿台,构成了未来打造AI赋能的万物互联网的基础。2018年小米开源了MACE移动端深度学习框架,今年我们推出9个HBaseCommitter,开源了Kaldi模型到ONNX模型的转换工作(kaldi是语音识别领域一个应用广泛的开源框架),在ApacheHBase这个研发项目上小米所作贡献占全社区的1/4。

小米打造AIoT是一个无处不在无所不能的AI能力系统,未来小米的AIoT家居系统,一个手势、一个眼神就可能唤醒智能设备,这里的人工智能可能还要加入一些情感因素,为此未来小米的AIoT将迎接人工智能更大的挑战。

23.华为在昇腾AI处理器基础上开发了Atlas 900人工智能训练集群,基于深度学习框架,可用于人脸识别、车辆识别、具有超强算力(算力达到256PFLOPS),用于分析20万颗星体仅需59.8秒,(比现在世界纪录快10秒)也可做成模块化装置,用于摄像头、无人机、等终端应用领域。

24.最近半年来,人工智能的发展重心逐渐从云端向终端转移,相伴而生的是全新一代芯片全面崛起。

25.脑神经科学成果是人工智能源头活水。

26.稀疏矩阵乘法、张量运算(张量图)恐怕是主要类脑设备实现。

27.深度学习是实现人工智能的路径之一,但并非是一个条完美的路径,对深度学习过度迷信反映了当前一些人看待人工智能的思想误区。深度学习也是有缺陷的,归纳如下:

1)深度学习本质上是一项墨盒子技术,其训练过程具有难以解释、不可控制的特点;

2)随着人工智能应用复杂度增加,需求量呈指数式的增长,深度学习未能很好地适应,愈发超出人类的理解的控制范围,在快速进行过程中极易偏离预设的轨迹。

3)基于深度学习的人工智能技术过度依赖数据,采集的数据其数量、质量未必满足要求,且数据建模与真实生活之间很难直接划上等号(样本数据不足,可用于深度学习模拟训练的成功案例更少)。

28.在后深度学习时代,要努力克服深度学习存在的问题。

29.清华大学研发了世界首款双控异构融合类电脑芯片,将基于生物脉冲神经网络的类脑算法与基于人工神经网络的深度学习算法结合起来;另外,也需要探索将知识推理和数据驱动结合起来,以推动人工智能的发展。

30.《IEEE Spectrum》2019年4月号,有人发表一篇质疑IBM“沃森(Watson)健康”在医疗人工智能方面研发的文章,推荐大家一读并思考。

《评人工智能如何走向新阶段》后记(再续)

从朋友那里获知,有一块供大家自由议论人工智能的园地(内部的),我通过有关关系进入后,一览之余,果然生动活泼,没有学究气,从已发表的30条议论来看。有原创、有转载、有深刻、有肤浅,有的发人深思,也有错误的,这都没有关系,关键是建立一个自由议论的氛围之举,值得称道!我是人工智能的粉丝,谈了这些空话,在此也转载我在早期看到的一则信息:

31.深度学习领军人物Geoffrey Hinton在他2017-2018年论文中提出了胶囊网络的概念(Capsule Networks),使广为流行的深度学习中的卷积神经网络算法提升到胶囊网络算法以增强算力,谷歌曾用于人脸图像识别。前一算法分析人脸图像(识别其特征点,过滤掉伪装),但在面对精确的空间关系时会暴露其缺陷,并难以对抗来自黑客篡改图像混淆算法的攻击,后一算法可以对抗一些复杂的干扰或攻击,取代前一算法,挑战最先进的图像识别。

32.近年来,以深度学习算法为代表的人工智能技术快速发展,在计算机视觉、语音识别、语义理解等领域实现了突破,但深度学习算法并不完美,有待继续加强理论研究,也有待不断有很多新算法理论成果提出,如胶囊网络、生成对抗网络、迁移学习等。

33.6款类脑芯片:

① IBM TrueNorth芯片,②Intel Loihi芯片,③高通Zeroth芯片,④西井科技Deep South芯片,⑤浙大“达尔文”类脑芯片,⑥AI-CTX芯片。

34.推荐6款人工智能技术:

①谷歌研发人工智能AlphaFold,根据基因序列成功预测生命的基本分子——蛋白质三维结构(谷歌用数千种已知蛋白质训练神经网络,可独立预测氨基酸的3D结构)。谷歌将人工智能与基因科学结合,将使人类进入一个与其生老病死悠关的新时代。

②商场科技研发城市级智能视觉平台,其核心是深度学习技术Sense Parrots,已制成AI芯片。

③ 腾讯觅影研发人工智慧能医疗影像平台,其核心为深度学习技术(与医学融合研发),已制成AI芯片。

④ 华为采用全新的NPU架构开发的一款麒麟810芯片(在AI上跑分达32000+),使人工智能性能大幅提升,完胜高通骁龙858芯片(在AI上跑分只有26000+)。

⑤ 旷视科技拥有自主研发的深度学习框架Brain++,依托深度学习算法技术,开发计算机视频(如人脸识别等)AI创新应用。

⑥ 清华大学在通用人工智慧能上开发了新型人工智能芯片——天机芯(TianJic),这是一款基于脉冲神经网络(SNN)的类脑算法,与基于人工神经网络(ANN)的深度学习算法集成于一块芯片上。

35.阿里巴巴旗下芯片公司平头哥在乌镇互联网大会上宣布开源低功耗微控制芯片(MCU)设计平台,这一平台面向 AIoT 时代的定制化芯片设计需求,目标群体包括芯片设计公司、IP 供应商、高校及科研院所等,软硬件全套代码已上GitHub。

36.Facebook在Scale会议上开源ReAgent 全新AI推理智能体平台,ReAgent的三个主要资源(模型、评估器和服务平台)均可独立使用。

37.国际语音识别大牛、前约翰霍普金斯大学(Jonhs Hopkins University)教授、 语音识别开源工具 Kaldi 之父 Daniel Povey加入小米。

38.谷歌(Alphabet)子公司 Wing ,在获得政府批准,与联邦快递、Walgreens 等公司达成合作之后宣布开始商用无人机,这是美国第一个商业化无人机快递服务。

39.第九届「吴文俊人工智能科学技术奖」揭晓,81 项成果斩获中国智能科学技术最高奖,深圳前海微众银行股份有限公司杨强、中国平安保险(集团)股份有限公司肖京、中国科学院数学与系统科学研究院高小山分别获得吴文俊人工智能杰出贡献奖。

40.2019 中国计算机大会(CNCC)在苏州召开,快手 AI 实验室 Y-tech 团队自主研发高效的端上推理引擎 YCNN 及拍摄相关 AI 算法,针对普及率高的中低端手机做了大量优化,运用高效的模型结构设计和模型量化压缩技术,将以往只能在高端 PC 或服务器上才能运行的算法在手机上实时运行,该平台在行业内处于领先水平。

41. 在人工智能感知阶段,依靠数据驱动的深度学习算法。目前5种最流行的深度学习架构: ① 递归神经网络(RNN)② 长短期记忆 (LSTM)/门控递归单元(GRU)③卷积神经网络 (CNN)④深度信息网络 (DBN)⑤深度叠加网络(DSN)。

不同学习架构被广泛用于下列场景中:

① RNN,语音识别,手稿识别

② LSTM/GRU 网络,自然语言文本压缩,手势识别、图像说明

③ CNN, 图像识别、视频分析、自然语言理解

④ DBN, 图像识别、信息检索、自然语音理解、故障预测

⑤ DSN, 信息检索、持续语音识别

42. 深度学习是通过一系列架构来表示的,这些架构可为各种各样的问题领域构建解决方案。尽管构建这些类型的深度架构可能很复杂,但可使用各种开源解决方案(如Caffe、Deep Learning4j 、 TensorFlow、 DDL等)来快速启动和运行。

43. 生物学灵感,神经网络代表着一种受人类大脑启发的信息处理范例。在大脑中,神经元将轴突和树突紧密连接,并通过突触在它们之间传递化学信号。人类大脑拥有约1000亿个神经元,每个神经元最多与10000个其他神经元相连。

44. 我想谈谈人工智能认知阶段,进入认知阶段,类脑认知计算将具有人类自主思维、意念、理解、思考、创意和灵感方面的特征。

在人工智能感知阶段,单纯依靠数据驱动的深度学习算法技术,对于图形、图像、语音的识别,做的是比对;在人工智能的认知阶段,有赖于与数学、脑科学等结合,以实现底层理论的突破,需要知识驱动和数据驱动相结合,需要建立大规模的知识库,研究知识表示,以及如何把知识、推理和数据结合起来。

IBM Watson 通过10多年医疗人工智能的研究,开始把知识驱动模式和数据驱动模式开发出来、结合起来,开辟认知新阶段。

IBM工程师说:认知计算的目标是构建能学习并自然地与人交流的系统。Watson通过Jeopardy 比赛成功击败世界级对手,就是这样做的,这也证明了认知计算的能力。

45. 是否用内含知识网络(或知识表示、知识驱动)的深度学习算法,我有一个问题:在这里是否还可以叫深度学习算法?如叫别的算法,那是什么算法?为认知阶段的问题提出解决方案?

IBM Watson的工程师说:认知计算是根据神经网络和深度学习来构建的。如此说来,说今天深度学习已达到天花板了。这种说法是否有问题(或还有上升空间)?!请IBM Watson 专家们回复。

46. 采用生物神经网络(SNN)的类脑算法是否比采用人工神经网络(ANN)的深度学习算法提高了一个档次?!

这里提出的类脑算法的机制和形式是什么?在某些情况下,类脑算法是否也可以深度学习算法来表达?请教专家。

47. 从1969年贝尔实验室孵化出UNIX,到2019年鹏程实验室等孵化出的OpenI(Open Intelligence Open Source, Open Community, Open Ecosystem)、及华为推出鸿蒙,开源50年!智能世界由科学家/工程师/程序员-AI 开发者构建欢迎挑战OpenI。启智开发者大会:Input代码/Output价值;欢迎共创、共享、贡献OpenI。

48. 目前人工智能采用最多的算法是深度学习。在这种模式下,决定人工智能应用创新有赖于下述关键因素,即大数据、算法、算力和应用场景。

49. 深度学习与产业的深度结合,有望实现应用爆发式场景,从而激发更多技术和理论创新。

50. 人工智能未来发展有很多种可能,比较热门的方向包括:脉冲神经网络硬件实现与类脑智能;数据与知识相结合学习模型。

51.今年发表的由俄罗斯“脑机接口”公司(Neurobotics)和莫斯科物理技术学院(MIPT)研究的一种全新“脑机接口”算法。利用“脑机接口”将人脑(EEG)神经元与脑外深度学习网络连接起来(本例采用无需开颅植入大脑的非侵入电极)。将来期望用于治疗中风患者。

52.脸书(Facebook)和加州大学旧金山分校(UCSF)与今年7月发布“脑机接口”技术(刊载于《nature》子刊上),超越深度学习算法,该项新算法可实时读取人类语言,可用意念打字,可用人眼超高精度摄像。

53.图灵奖得主、美国工程院院士、美国人工智能协会(AAAI)及IEEE杂志Fellow(院士)Judea Pearl在2018年发表的一篇论文中指出:由于机器学习(含深度学习)理论的局限(它以统计学或盲模型的方式运行),使它无法成为强人工智能的基础;或对可执行的认知任务而言,该理论的缺陷限制了人工智能的发展。

54.钟义信教授推荐潘云鹤院士谈话:人工智能走向2.O的本质原因是人类世界由二元空间(P,H)变成三元空间(P,C,H),此时钟短评:“知彼知己,心中有底。”

55. 英特尔研究院院长Richard(Rich)A.Uhlig谈在数据洪流中属于颠覆性技术的新型计算方式:量子计算、神经拟态、图计算、概率计算,其中神经拟态芯片模仿人脑运作机制,形成高能效神经网络系统,主要采用异步脉冲神经网络(SNN)去解决问题,可应用在机器人、网络、动态控制、稀疏编码、图式搜索、路径规划、约束满足等很多领域。

56.近年来以深度学习算法为代表的人工智能技术快速发展,迄今开发出来的深度学习算法约500多个,但深度学习算法并不完美,几乎完全以统计学或盲模型方式运行,其潜力已近尽头,人工智能的发展要求新算法出现:类脑算法、脑机接口算法、认知算法、量子算法。

57.要用开源思维建设北京智源(人工智能)研究院。研究怎么把在北京的人工智能领域最强的人才吸引、笼络在一起,建立一个开源社区,建设一个人工智能技术高地,发挥人才专长,引导他们把注意力放在“无人区”、放在人工智能基础领域,缩小在人工智能技术理论与应用上与世界水平的差距。

我们要真正把开源这件事做起来,培养人们的开源理念,了解开源的组织架构和哲学以及背后的技术,进行人工智能理论研究和应用创新,这对中国来说是非常有意义的。

在人工智能领域我们受益于全球智慧的结晶,希望在开源这种形式下,中国学者、研究人员和工程师能够做出贡献、跟踪进步!(摘引北京智源研究院理事长张宏江发言)

58.近年来问世的深度学习算法已不止500个,从下列9个深度学习模型库所支持的深度学习模型来看,已多达1200个:

① 脸书PH库支持26个模型;② 谷歌TH库148个模型;③ 谷歌TM库200个模型;④ IBM MAX库32个模型;⑤ 微软OMNX库45个模型;⑥ 新加坡JingYK(个人)MZ库368个模型;⑦ OpenⅤIN库135个模型;⑧ Sebastian RK库86个模型;⑨ GLUON-CV库45个模型。

合计9个深度学习模型库支持1189个深度学习模型。

59. 随着大数据红利消失,以深度学习为代表的机器智能—感知智能水平日益接近天花板。深度学习算法是以数据驱动的统计模式,人工智能发展要突破深度学习,还需要知识,特别是符号化的知识,在后深度学习时代人工智能的核心应该是知识表示和确定性推理,人工智能最重要的能力是知识而非数据,需要研发以知识驱动的机器智能—认知智能。

所谓让机器具备认知智能是指让机器能够像人一样思考,体现在机器能够解释数据、解释过程、解释现象,体现在推理、规划等一系列人类所独有的认知能力上。如何让机器具备理解和解释的能力?知识图谱或以其为代表的知识工程的一系列技术,在认知智能实现中起到非常关键的作用。知识图谱本质上是一种大规模的语义网络(表达各种各样实体、概念及其间各类语义关联,且知识图谱规模更大)。有了知识图谱就能进行计算机建模。

60. 以知识驱动的认知计算同样含有知识工程,上世纪80年代中期国内提出的知识工程是基于知识表达进行逻辑推理。新一代的知识工程关注于具身(embodiment)的人工智能,即与身体场景有直接关系,具身有一种思想可能改变规则使用权重,可能形成人际间的共识,这在医学中至关重要,要让患者参与决策(在医疗中如果患者不配合将十分麻烦)。两者知识工程不同,在于具身的认识,前者脱离人的认知环境,过去是从已知数据中获得已产生的规则,现在的知识工程从新产生的数据中挖掘、调整规则,以知识为基础的规则是创造性、跳跃式的。

61. 在2019深度学习开发者峰会上,百度发布基于飞桨的图学习框架(PaddleGraphLearning,PGL)。近年来深度神经网络推动了人工智能的发展,但在实际场景中有大量数据是在非欧式空间的,限制了深度神经网络的应用,而图神经网络在非结构化数据上有出色的处理能力。

百度发布的PGL利用飞桨独有的LodTensor特性,实现了高度并行的图神经网络消息传递机制,在性能上超越了PGL等现有图学习框架13倍(提速!)。依托飞桨核心框架+自研分布式图引擎,PGL可支持十亿节点百亿边的巨图训练。

62. 新老知识工程的区别:一是过去的知识工程是从已知数据中获得已产生的规则,新的知识工程是从新产生的数据中挖掘丶调整规则;二是新的知识工程是关注具身(embidument)的人工智能,即与身体场景有直接关系,要求关注人际关系,形成人际共识(如研发出来医疗人工智能新理论新算法要与临床医生在取得共识的基础上的处置结合起来,也要处理好医患关系)。

63. 每个神经元激励fire的阈值大约0.07伏,属于电气工程数量级(一节AA电池1.5伏),计算机与人脑增强交互应该很快推动人工智能进步。

64. 现在领导神经科学项目的是电气工程师,反而不是神经科学家。

65. 目前脑机接口算法还不精确,合理的实用化可能先在医护领域(如轮椅等截瘫病人设备)。俄罗斯科学家研发的脑机接口算法期望用于医护中风患者。

66.谷歌近来研发用于基因科学的人工智能AlphaFold,根据基因序列预测生命基本分子一蛋白质的三维结构(AlphaFold与下国际围棋的AlphaGo似孪生兄弟),这是用来预测蛋白质折叠结构的能力或设计新的蛋白质,用以抗击疾病,解决塑料污染,对人类健康、生态、环境将产生重大影响。

67.谷歌为研发AlphaFold,用数千种已知蛋白质训练神经网络,直到它可以独立预测氨基酸的3D结构。

68. AlphaFold成功预测蛋白质的三维结构表明,当人工智能与基因科学相结合,人类将进入一个风高浪急的新时代。

69. 谷歌的人工智能AlphaFold,预示其人工智能开始进入基因科学和生物科学及医疗保健领域。基因是DNA上有遗传效应的片断,人类的生老病死都与基因有关。

70. 用基因治疗方法将重塑人体内一切组织和器官的活性。人工智能医生将逐渐取代目前最优秀的医生,未来大批医生将逐渐消失,从此医疗彻底成为一项人工智能+基因科技。

71. 看了70条,有点夸大其辞!今天欲将人工智能+基因科学用于医疗实践,尚处于原始的初级阶段,其医疗效果还说不清楚,以人工智能医生淘汰目前的临床医生,还是十分遥远的未来!

72. IBMWatson研发的以知识驱动的人工智能医疗实践,10年来其效果在美国还存在很大争议(突出一点是人工智能理论和临床医生在处置上尚缺乏共识)。

73. 今天要抓住机遇研发人工智能+基因科学底层理论,可以预见未来它将对人类产生前所未有的冲击浪潮,如今国外已经动手!走在前头的研发工作可能是:为病人添加其缺少的基因或删除不好的基因,DNA编程逆转衰老,改写干细胞,靶向药扫荡癌细胞等,人工智能将助力基因科学。

74. MIT技术评论(Sep9.2016):深度学习、人工智能的可解释性是由物理学家而不是数学家解释证明的。

75. 日本《朝日新闻》2019年11月30日报导:中美人工智能人才争夺战愈发激烈。目前拥有前沿知识和技术的IT领域的人才在世界范围内约有几百万人,中美围绕人工智能等高科技产业人才争夺战十分激烈。今年1月,美国人工智能学会在夏威夷召开,全球数千名人工智能研究者与会,同时举办招聘会,中美企业之间火花四溅。

日刊介绍英国瀚纳仕人才管理公司调查报告,中国对人工智能和大数据需求极高,声音识别和自然语言处理等方面人才更是供不应求。

日刊谈到信息技术产业飞速发展的中国面临技术人才不足的问题,它举出华为的白皮书,截止2017年中国IT产业人才缺口765万人。

76. 计算智能、感知智能、认知智能、决策智能,反映机器的智能化水平的不同发展阶段。以基于数据驱动的深度学习为代表的感知智能水平,隨着大数据红利的消失日益接近天花板。所谓认知智能指让机器能够像人一样思考,具备理解、解释、规划、推理、演绎、归纳的能力(达到人脑思维的高级境界),从感知智能到认知智能是人工智能发展中一次颠覆性的飞跃。认知智能的实现需要知识驱动或数据、知识双驱动。

77. 对于谷歌收购的人工智能企业DeepMind,由它提供的深度学习强化学习算法,支持AlphaGo、AlphaStar等研究均取得举世嘱目的成绩,在深度学习强化学习领域为DeepMind的算法带来很高声誉。

最近DeepMind一篇在Nature子刊(今年7月号)发表的关于Alpha-Rank智能体强化学习的论文,被华为英国研究中心质疑:如果复现DeepMind算法,无法实现其预期的算力。

78. 近来我与IBM“沃森(Watson)健康”一位人工智能资深专家讨论他们在美国当地(准确地说是IBM与合作方安德森癌症中心)历时7年(2011-2017)的医疗效果。

当我谈到感知和认知时,令我惊讶的是那位专家说感知与认知没有高低之分,在不同场景应该有不同判断,作出判断时要小心一点!我当时对他说,你们IBM自己说过,从感知智能到认知智能是人工智能发展中一次颠覆性的飞跃,前者完全是数据驱动后者是知识驱动(或数据、知识双驱动),怎么能说感知与认知没有高低之分?!

从我们讨论IBM“沃森健康”以前7年人工智能的医疗实践来看,IBM主要采用的是感知的数据驱动的深度学习模式,至于认知的知识驱动模式尚处于开研前的准备阶段,未能付诸于试验实践!所以如果针对不同场景的需求采用不同人工智能模型以谋求最佳效果来看,确实感知和认知没有高低之分。

79. 在“IEEESpectrum”2019年4月号上刊登一篇向IBM“沃森健康”在医疗人工智能实践方面提出质疑的文章,综合IBM、医疗合作方和第三方评论的意见。

IBM研发布局,自2011年至2017 年,与安德森癌症中心合作,研究25个课题,在癌症治疗建议方面有635个案例,尝试用基于大数据和深度学习的感知技术与医疗行业融合应用,最终未产生成功的建议和商用产品,未达到IBM原来设定的目标,2016年合作方在花掉6200万美元后终止与IBM沃森健康的合作。

究其原因:

(1)数据资源十分有限。癌症病例数量有限,样本数据不足,可用于深度学习模型训练的成功案例更少。

(2)沃森与合作医疗机构之间沟通不好。沃森的治疗建议与医院的临床实践差距很大(第三方认为IBM纵使有好的技术,但美国医疗行业偏于保守,沟通不好难于成功)。

(3)过于迷信深度学习。深度学习是实现人工智能的路径之一,但也是有缺陷的:深度学习本质上是一项暗箱技术,其训练过程具有难以解释、不可控的特点,人工智能不适应应用复杂度、需求量的快速增长,超出人们理解和控制范围,过度依赖数据,采集数据在量和质上不满足需要,数据建模与真实生活间冇差距,深度学习理论与现实医疗护理不匹配,深度学习无法独立地从医学文献最新进展及患者档案中提取有意义的信息。

(4)IBM沃森健康在国外(韩国、泰国、智利)的医疗实践效果较好、成功率较高,受到欢迎。

80. 我们几个朋友讨论人工智能在中医方面的应用。专家系统已属过去。我们认为,中医的“望、闻、问、切”基本上可采用数据驱动的深度学习模式,但中医数据结构化程度较低,形式化描述的规则较弱,采用人工智能要考虑中医的特点。

81.近来一波人工智能热潮是在大数据的海量样本及超强计算能力两者支撑下形成的。所以说这一波人工智能是由大数据喂养出来的。这时的机器智能在感知智能和计算智能等一些具体问题上已经达到甚至超越人类水平,目前在语音识别与合成、图像识别、封闭环境有限规则的游戏领域,机器智能甚至超过人类。

82.在各行业人工智能发展进程中,AI+或AI赋能成为传统行业智能化升级和转型的一个基本模式。在AI赋能下,传统行业面临很多机遇,对其关心的一系列核心问题,如增加收入、降低成本、提高效率、安全保障等,都将显致受益于人工智能技术。

83.人工智能技术在智能客服系统已在很多行业大规模应用,从而大大降低人工客服的巨大劳动力成本。

84.从2012年谷歌提出知识图谱以来,知识图谱技术发展很快。所谓知识图谱是一种大规模语义网络。知识图谱作为一种技术体系,指大数据时代知识工程的一系列代表性技术进展的总和。上世纪七、八十年代的知识表示与今天的知识图谱有着本质差别,其显著的差别在于对一种语义网络在规模上的差别。知识图谱对机器实现人工智能十分重要,我们分析知识图谱可实现机器认知智能的两个核心能力:“理解”和“解释”,机器“理解”数据是建立起从数据到知识库中的知识要素(包括实体、概念和关系)映射的一个过程。另外,有了知识图谱,机器完全可以重现这种“理解”与“解释”过程,并不难完成上述过程的数学建模。知识图谱让可解释人工智能成为可能,并体现在知识引导下将成为解决机器人工智能问题的主要方式。

85.当前国内人工智能发展的短板在于产业发展过度依赖开源代码和现有的数学模型,真正属于自己的东西不多。

86.一些人对当下国内人工智能发展中存 在瓶颈问题甩锅于开源,有失偏颇!其实当下国内外取得成就的人工智能底层理论和核心算法,无不有赖于开源的推动。

87.研发机器视觉人工智能技术的国内 AI四小龙(独角兽):商汤、旷世、云从、依图,当下火爆的初创企业、火爆的AI技术、火爆的应用场景!可是,尚未摆脱依托资本力量获得快速发展,它们的商业落地还有待解决。

88.从另外一个侧面来看,深度学习这个工具有不可信、不安全、不可靠、推广能力差的弱点,当下采用深度学习算法安全面把握深度学习算法的优势和短板。

89.人类处理知识的能力更强,计算机处理数据的能力更强,发展人工智能由感知阶段数据驱动的深度学习算法跳到认知阶段的知识和数据双驱动的认知学习算法。

90.人工智能技术基础理论研究的发展需要深度融合:人工智能专家(或计算机专家)要与数学家、神经科学家、心理学家,脑科学家、开源专家和人文科学家跨学科交叉融合合作(在医疗人工智能方面还要与临床医生和患者合作、沟通),致力于发展新一代人工智能的理论与方法的研究;人工智能研究团队要加强与行业、企业、学校融合合作。

91.IBM沃森(Watson)回答质疑,Watson人工智能对医疗帮助是否有限?MD安德森肿瘤中心终止了与IBM的合作,引发了上述质疑(见今年2月21日美国《科学》杂志报导)。IBM回应称,项目已取得初步成效。

92.美国健康界获悉了在MD安德森肿瘤中心终止与IBM合作后引发媒体对IBM质疑一事,IBM发表的官方声明,声明称,“质疑”报告所描述的结果是基于采购活动文件和(医院)工作人员的相关说辞。不应被视为对Watson项目现阶段系统的科学基础或功能方面的评价”。“Watson在与世界上多个医疗机构合作的项目均显示出有效性”。

93.MD安德森肿瘤中心与IBM Watson深度学习大数据项目始于2013年,主题是“大数据人工智能应用将加速对癌症疾病的认知(?)和完善癌症临床治疗”。

94.IBM(官方)声明(续):“美国MD安德森肿瘤中心的肿瘤学家和研究员评价Watson所给的建议治疗方案有90%的准确率。这种高准确率能帮助肿瘤科医学确保他们在做癌症诊疗与诊断时不会错失任何数据”(获该中心医生对Watson能力的认可)。

95.IBM(官方)声明(续):“IBM Watson与世界上10多个医疗机构合作进行研究显示,Watson能协助医生更有效率制是医疗决策并进而影响患者”。

96. 近日《Nature》杂志推荐2019年度10大科学进展的杰出论文,其中一篇是有关人工智能的,谈采用深度学习/强化学习算法来训练四足机器狗ANYmal,使它能快速爬起来。该文谈到,在反复训练下,不仅提高了ANYmal自身平衡能力,而且当ANYmal被暴力踹倒后能立即翻转站立起来。研究员还开发了一种仿真模式(ANYmal虚拟版本),使虚拟训练学习速度比现实训练学习速度提高100倍,而且这种方式还可同时训练多台机器狗。

97. 深度学习算法是一种强大的数据分析工具,是实现人工智能的路径之一,但深度学习也是有缺陷的,它本质上是黑盒子技术,其训练过程难以解释、不可控,也未必能适应更加复杂的应用场景,深度学习过度依赖数据,而利用数据建模有时与真实生活之间也未必能直接划上等号,用深度学习模型训练有时也未必成功。当下深度学习可解决一些问题,但不少问题还不能靠它来解决,需靠大量基础理论研究创立新算法予以支持。

98. 我也来谈谈知识工程发表浅见。有人说知识工程是基于知识表达进行逻辑推理。我认为上世纪七、八十年代提出的旧的知识工程,脱离人的认知环境,从已知数据中获得已产生的规则,如今新提出的知识工程,与身体场景有直接关系,从新产生数据中挖掘丶调整做规则,新旧知识工程的差别也表现在旧的知识表示与新的知识图谱语义网络在规模上的差别。

99. 在网上看到41条跟贴所谈深度学习算法、深度学习架构问题,看到42条跟贴所谈利用开源框架对深度学习算法训练快速启动、运行问题,我也来谈谈深度学习算法、架构和开源的关系问题:

深度学习算法是基于不同拓扑结构的深度(网络)架构,可以利用一些开源框架实现和部署深度学习算法,支持深度学习网络架构监督训练并催熟其训练。

100. 有一篇论文谈人工智能和大数据关系问题,我摘录文中一些要点,作为跟贴贡献给诸位参考:

当下大数据变得无处不在,几乎每一个成功的AI解决方案都涉及大数据处理问题。尽管AI擅长在大数据中查找模式和关系,但它仍然不是很智能。AI解决方案与大数据有相关性,在大数据中许多相关性是虚假的。数据集越大噪声越强。在处理多维数据的应用程序中是否乎用以数据为依据的决策?数据驱动决策将继续存在。要使AI方案成功,不仅需要硬件和大数据(大数据和计算能力也是重要组成部分)。数据不能说明一切。人类给数字赋予含义。

101. 2019年百度研发的人工智能知识增强的语义理解框架ERNIE,全球领先。自然语言处理关乎智能体如何理解人类语言与文字,并在理解的基础上进行人机智能交互(被称为人工智能皇冠上的“明珠”。)

在竞逐人工智能皇冠上“明珠”过程中,2019年百度在自然语言处理技术方面,打造了可持续学习做知识增强语义理解框架ERNIE,超越了谷歌的BERT和XLNet,荣登GLUE(全球自然语言处理领域权威数据集)公布的榜首,作为国际预训练模型,百度也超越了微软MT一DNN一SMAR丅、谷歌T5、ALBERT。

102. 说“量子计算是未来计算技术的心脏”,这是肯定的!说“量子计算是人工智能未来的算法”,尚存疑问?

在这里介绍百度公开发布的、他们正在研发量子算法的动向(尚处于初始阶段):

2019年百度研发出云上量子脉冲系统“量脉”,据说已达到国内第一、国际领先。所谓“量脉”,可将量子计算软件指令(逻辑门)转換成控制量子硬件的脉冲序列,算法性能较同类工具实现成倍级别的提升,是实现量子软硬件连接的关键桥梁。

103. 人工智能热点纷呈,机器学习、深度学习、强化学习;工具、库、平台、框架;模型、环境、安全、隐私。全球相关的技术和投资非常踊跃。Linux人工智能基金会目前正在开展一项全景图谱的工作https://landscape.lfai.foundation/ 。

104. 研发某种具有活性的液态金属,并以其为载体发展机器人或智能产品。清华大学刘静教授研发出一种具有某些“生命”特征的液态金属,如具有能“吃”(吞下铝箔),可“移动”(吃饱后就四处移动,动作还特别灵活,能转弯,能跳跃),还会“思考”(碰到拐弯或难以通过的地方还会停下来思考一下)等某些“生命”特征。这种液态金属应用前景广阔,如制作智能马达、血管机器人等。

105.不久前日刊评论:日英两国利用人工智能技术研发女性机器人。

文中指出,在日本向市场推出全球首款女性机器人之后,英国是全球第二个推出女性机器人的国家。今天他们推出的女性机器人惟妙惟肖,与真人模特看不出差别。他们在女性机器人中植入高端人工智能芯片,采用高仿真技术,还得益于顶级硅胶等材质的精确运用。

他们推出的女性机器人能与人类沟通,喜现为与真人没有差别,外表靓丽,创造出代替人类的情感,对外界变化作出反应,还会讲全球20多种不同语言。

附录:

以下后记里收集的内容观点主要包括基础理论与创新、算法研究与创新、技术应用与创新、AI人才培养与发展、AI伦理与道德五大类的内容,欢迎查看相关内容并在文末互动留言。

《评人工智能如何走向新阶段》后记

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103343649

《评人工智能如何走向新阶段》后记(再续1)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103343944

《评人工智能如何走向新阶段》后记(再续2)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103343968

《评人工智能如何走向新阶段》后记(再续3)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103344087

《评人工智能如何走向新阶段》后记(再续4)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103344451

《评人工智能如何走向新阶段》后记(再续5)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103344672

《评人工智能如何走向新阶段》后记(再续6)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103345118

《评人工智能如何走向新阶段》后记(再续7)

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/103351738

上一篇新闻

孙丕恕——谁拥有数据,谁就拥有未来

下一篇新闻

不止于比特币,全球首款全场景区块链应用货币菠菜币发行

评论

订阅每日新闻

订阅每日新闻以免错过最新最热门的新加坡新闻。