《中国科学基金》2020年第34卷第3期
MIT Technology Review
2020年“十大突破性技术”解读
[编者按] 2020年2月26日,MIT Technology Review一年一度的“十大突破性技术”榜单正式发布。自2001年起,该杂志每年都会评选出当年的“十大突破性技术”,这份在全球科技领域举足轻重的榜单曾精准预测了脑机接口、量子密码、灵巧机器人、智慧传感城市、深度学习等诸多热门技术的崛起。本年度MIT Technology Review“十大突破性技术”分别为:防黑客互联网、个性化药物、数字货币、抗衰老药物、人工智能发现分子、超级星座卫星、量子优越性、微型人工智能、差分隐私和气候变化归因。为了让广大读者深入了解这十项技术的科学价值及其背后的科学故事,本刊特邀请各领域著名科学家分别对其进行深入解读,以激发科研人员的创新思维,并促进科学界的学术交流。
1 防黑客互联网
基于量子物理学的互联网将很快实现稳定的安全通信。由代尔夫特理工大学的 Stephanie Wehner 领导的团队,正在完全通过量子技术建立一个可以连接荷兰四个城市的网络。通过这个网络发送的消息将无法破解。
这项技术依赖于一种被称为 “量子纠缠” 的粒子行为。纠缠的光子在不破坏其内容的情况下无法被秘密读取。但是,创建纠缠粒子很难,远距离传输粒子更难。Wehner团队表明,他们可以将粒子传输超过1.5公里(0.93英里)的距离,还有信心在2020年底建成代尔夫特和海牙之间的量子网络。而更远距离的网络连接将需要量子中继器来扩展。代尔夫特理工大学和其他一些机构正在设计这种中继器。第一个量子中继器将在未来五到六年内完成,而2020年代末一个全球量子网络将有望建成。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
韩正甫中国科学技术大学教授,博士生导师,中国密码学会量子密码专业委员会主任,国家密码行业标准委员会委员。长期从事量子信息器件、量子密码网络、光学微腔QED研究。在Nature 子刊等国内外杂志发表论文200多篇,他引3000余次;以第一完成人获安徽省自然科学一等奖、教育部技术发明一等奖、军队科技进步一等奖。
长期以来,信息安全一直是个热点问题。规模化的信息泄漏和攻击事件,在全世界范围内几乎每周都会出现。从原理层面看,经典通信原理和早期设计的网络协议存在缺陷,网络安全问题在经典世界里看不到一劳永逸的解决方案。网络安全被寄希望于量子信息技术的突破。正因为此,荷兰代尔夫特理工大学S. Wehner等宣称将建设覆盖1.5公里左右的全量子网络的消息受到广泛的关注,MIT Technology Review将其选为2020年重点突破技术。
其实,“量子网络”概念已经面世二十多年了。早期,最具代表性的是英国斯特拉斯特莱德大学的汤森等人在《电子学快报》上发表的一个三点式的被动分束的量子密钥分配网,这是采用量子态传输实现密钥分配的网络雏形。量子密钥分配(QKD)网络不是一个独立的“通信网”,因为“密钥”本身不是信息,只能用来加密信息以达到通信保密的效果,因此它必须与经典网络组合成一个双层网络,被称为“量子保密通信网”。
由于光子传输损耗无法消除,量子密钥分配距离被限制在100km左右。在远程组网中就不得不采用经典的中继——俗称可信中继,这种经典中继理论上是可以被攻击和窃听的,因此该节点必须被严格管控。所谓可信中继是指该节点必须可信,而不是节点本身是可信的。尽管这是当前唯一可用的中继技术,但是京沪干线采用它还是承受了不少质疑。事实上,如果一个节点上有用户,该节点的可信性是一种自然的需求,并不过分,但如果该节点仅仅作为中继点,可信要求就显得有些苛刻。不超过100km的城域量子保密通信网则不存在此问题,目前已经在用。
解决可信中继问题的办法有两个:一是研发超长距离的QKD,不再需要中继;二是研发具有量子安全水平的量子中继。近年来,面向超长传输距离的双场QKD(TF-QKD)取得了突破,中国科大两个小组先后完成了300km和500km的TF-QKD实验。其中,郭光灿院士团队在300km下码率2KHz,基本达到了可用的水平。TF-QKD的另一项优势是其测量设备无关的属性,因此在设备本身抗窃听方面也达到了量子安全水平。
量子中继的研究已经持续近二十年,实现量子中继的最大障碍是量子存储。目前,量子存储有两条技术路线,即基于冷原子的气态存储和基于稀土材料的固态存储。在气态存储方面,郭光灿院士团队侧重于多模大容量量子存储,已实现多个空间模式叠加态的单光子存储以及七个空间模式的纠缠存储;潘建伟院士团队的存储效率已达到76%,存储时间达到亚秒量级,并成功地将相距50km光纤的冷原子体系纠缠起来;华南师范大学朱诗亮教授课题组的存储效率已经达到85%。在固态存储方面,郭光灿院士团队在稀土材料上已实现的存储保真度(99.9%)、存储维度数(51)和存储模式数(100),均为国际最高水平,目前的实验室存储时间已经达到10分钟量级。当前,冷原子和固态量子存储的技术指标均已接近量子中继的基本要求,量子中继应该会很快实现。
量子存储和量子中继器突破以后,配合特定的网络协议,建设基于量子纠缠的广域量子传输网络成为可能,再在各网络节点配上量子处理器,这就是代尔夫特理工大学宣称的全“量子网络”了。这种全量子网络一旦得以实现,除了可以保证网络信息传输的安全性外,还能完成远程时钟同步、望远镜基线扩展、安全认证以及量子网络传感等一系列经典时代很难或无法完成的任务。
然而,量子网络节点的量子处理器目前还不太成熟,真正好的节点处理器应该是量子计算机,真正理想的量子网络还有待量子计算机的成熟,一旦配备量子计算机的量子网络得以实现,其能力可能是我们今天的想象力所不能达到的。
2 超个性化药物
想象一下,如果我们能够获得专门针对自身罕见疾病或者基因突变而量身定制的药品,结果会怎样。如今,这种能力不再停留在想象阶段,而是有望真正变成现实。如果药物能够针对单一患者的实际需求进行量身定制,那么很多以往无法治疗或者治愈的疾病也许将彻底消失。这种超个性化药物,将给无数身患绝症的人们带去新的希望。
美国波士顿儿童医院研究团队为患有独特基因突变引发疾病的小女孩米拉·马科维茨量身定做了一款药物,证明了超个性化药物能为罕见病治疗提供新的可能性,超个性化药物可能会采用基因替代、基因编辑或反义核酸等形式。这些治疗手段的共同点在于,它们能够以数字化的方式和速度编程,以纠正和补偿遗传性疾病,或者替代DNA字母。但与此同时,这类针对单一患者的“多对一”治疗方案也引发了这类药物研发、测试成本的讨论。
图片来源: MIT Technology Review 官方 APP)
专家点评:
华子春教育部长江学者计划特聘教授,南京大学生命科学学院和中国药科大学生物药物学院博士生导师,江苏省产业技术研究院医药生物技术研究所所长。1995年起任南京大学生物化学系教授。长期担任医药生物技术国家重点实验室主任,南京大学生命科学学院副院长、执行院长。主要研究领域为蛋白质结构与功能关系、新药物靶点和创新药物的基础和应用研究。先后获国家技术发明二等奖、国家自然科学二等奖各1项,获江苏省一等奖4项、教育部一等奖2项。
郁文亮中国药科大学生物药物学院药剂学专业博士研究生,2016、2019年在澳门科技大学分别获得中药学学士、硕士学位。研究方向为抗肿瘤药物的老药新用及其评价。2017、2018年先后获中珠医疗生命科学特等奖学金、一等奖学金。共发表学术论文6篇,SCI论文3篇。
由于新药研发时间长、难度大、投入多、技术门槛高、成功率低,国内外医药产业在研发新药时通常会将市场因素考量在内,对于患病人群少的罕见病更是如此。因罕见病患者少、需求少、市场小、研发成本高,很少有制药企业关注并研发预防、治疗和诊断罕见病的“孤儿药”,这导致绝大部分罕见病无药可治。即使少部分有药可治,也因其昂贵的价格让患者望而却步。美国小女孩米拉·马科维茨(Mila Makovec)更为不幸,她患有罕见病中的“罕见”病症。2016年,3岁的她被诊断罹患贝敦氏症(Batten disease),先后出现语言障碍、运动障碍、失明、癫痫频发等症状。贝敦氏症是一种罕见的神经系统发育疾病,发病率为每10万新生儿中2至4人,尚无有效治疗手段,患儿通常活不过12周岁。贝敦氏症是一种常染色体隐性遗传疾病,由于MFSD8基因突变导致细胞溶酶体功能障碍,引起脂质聚集、沉积,损伤神经细胞,通常导致患者出现失明、失语等症状,进而发展为全身瘫痪,并最终死亡。米拉的一条染色体上存在一个已知的贝敦氏症的MFSD8单碱基突变,但是在另一条染色体上却出现了一个从未在贝敦氏症观察到的独特突变形式——由于一段DNA插入导致MFSD8基因转录过程发生错误拼接而致使蛋白质翻译被过早终止。
2017年,米拉的母亲通过米拉奇迹基金会募集到了数百万美元,波士顿儿童医院的Timothy Yu博士团队开始了世界上第一款为单个患者量身定制的药物的研制。该药物在设计上借鉴了被FDA批准上市的用于脊髓性肌萎缩症的反义寡核苷酸药物诺西那生钠(Nusinersen)的成功经验,设计并生产了靶向米拉体内所具有的独特的基因突变的反义寡核苷酸候选药物“Milasen”。该药物迅速获得FDA的临床许可,2018年1月31日起,米拉开始用药治疗,随着治疗持续,她的病况得以改善和缓解,而且未见严重不良反应。2019年10月,Yu博士团队在《新英格兰医学杂志》发表了论文,报道了米拉所患疾病的分子病因学研究、药物设计和临床前研发以及临床10次给药治疗过程及治疗结果。
该项成果入选2020年MIT Technology Review的“全球十大突破性技术”,不仅是由于其药物研发自身的科学与技术创新,更在于其研发过程中所揭示或蕴含的新药审评、孤儿药研发、个性化治疗等社会意义和深远影响。首先,药物“Milasen”的出现为孤儿药的研发创造了奇迹,为我们一直期待的个性化治疗创造了一个“超个性化”的、精准医疗的成功范例。当今世界上7000多种罕见疾病中超过90%没有治疗方法,相形之下,不幸罹患遗传性罕见病的米拉是非常幸运的,她在父母和社会的支持下、在医生的帮助下,拥有了以自己名字命名的药物“Milasen”,用以治疗她一个人的“罕见”疾病。这个范例的产生是全基因组测序等现代生物技术、强大的医疗团队和科研团队、高昂的研发费用以及FDA等管理部门共同努力的成果。其次,Milasen的研发过程是近年来一直在推动的“临床→实验室→临床”的转化医学研究模式的一次有力诠释和完美展现。第三,Milasen的成功研发为处于缓慢前行状态的基因治疗药物带来了鼓舞和信心。Milasen是1998—2018年的20年间被FDA批准的第9个寡核苷酸类基因治疗药物。与其他寡核苷酸类药物相比,Milasen是针对一个患者的超个性化的药物,其研发周期很短。第四,Milasen的药物研发过程提供了一次难得的、治疗单个患者的超个性化药物研发的实践样板。第五,相较于传统新药研发漫长的审批和临床试验过程,Milasen的药物研发仅用一年的时间就应用于患者。在药物研发过程中,FDA展现出不同以往的药物审评方式,这为未来新药审评的变革留下了伏笔和突破。同时,药物Milasen的成功实践又为我们提出了一系列的新问题,例如,诸如Milasen的超个性化药物,其研发过程、临床实践和销售规则与现有的新药研发与运行模式基本相悖,其研发费用由谁担负?其独特的临床实践中所面临的潜在风险以及其与现有药物监管体系之间矛盾冲突如何解决?Milasen这样的超个性化药物的问世,为我们展现出的转化医学和精准医疗的成功及其衍生出的新药研发模式和药物监管等科技、经济、管理和社会等层面的挑战和影响,使得其当之无愧地入选MIT Technology Review“全球十大突破性技术”。
3 数字货币
数字货币的兴起对金融隐私有着巨大的影响。数字货币纯以数字化形式存在,这将彻底颠覆长期困扰各国的财务隐私问题。除了即时交易这一直观的收益之外,数字货币的普及还有望重塑交易中介的形态,甚至彻底淘汰传统中间机构。在使用区块链技术支持下的加密货币时,数字货币将具备去中心化特性,且信任体系由全体参与者共同支持。数字货币技术有可能全面打破现有全球金融体系的固有形态,将整个社会带入新的资金流动时代。
2019年6月,美国脸书公司(Facebook)推出了基于区块链的加密数字货币“天秤币(Libra)”,立刻遭到强烈抵制。“天秤币”可能加强美国在全球金融体系中不成比例的权力,而这种权力源于美元扮演着全球事实上的储备货币的角色。2019年10月,Facebook CEO马克·扎克伯格也向美国国会承诺,Libra“将扩大美国的金融领导地位,以及美国在世界范围内的民主价值观影响和监督能力”。数字货币的战争已经打响。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
韩立岩北京航空航天大学经济管理学院教授、博士生导师,北京市教学名师,享受国务院政府特殊津贴。1982年毕业于北京师范大学数学系,1991年获北京师范大学理学博士学位,1995年在维也纳经济大学完成经济学博士后研究。当前研究方向:金融科技、国际金融、绿色金融。
2019年6月18日,Facebook发布“天秤币(Libra)”,CEO扎克伯格表示天秤币将由一个“独立、非营利”机构运营,注入资金1000万美元作为天秤币初始储备,后续将依靠储备金根据规则“自动增加”天秤币的发行,“天秤机构”将把储备金存入各国美元、英镑、欧元、日元等账户,以确保天秤币成为服务世界经济和金融的真正的“稳定币(Stable Coins)”。
天秤币是比特币问世十年后的又一里程碑,入选了MIT Technology Review 2020年“全球十大突破性技术”。其运用了比特币检验的区块链技术,背靠现有国际信用货币,成为二者之间一个恰当的折中,为数字货币进入主流经济与社会铺平了道路。天秤币似乎想成为国际主导货币走向死胡同的一个光明之路,试图在国际货币霸主们的容忍下建立一个不受政府控制的新世界。结果,主要国际货币国家齐声叫停天秤币,称其所追求的目标前途未卜。但无论结局如何,天秤币都将为世界留下不可磨灭的技术价值和学术价值。
以比特币起源的数字货币是全球化和信息革命的必然产物。1973年布雷顿森林体系的解体标志着通过美元盯住黄金的脱离金本位的时代结束,完全由政府主导的信用货币时代到来。40多年来,伴随着各国通货膨胀的变化、世界经济起伏和美国货币政策主导的国际流动性的波动,外汇及其衍生品市场在不断发展的同时,也一直处于不稳定甚至震荡之中。基于区块链的数字货币的发明提供了一种限制信用货币过度膨胀的可能性。
区块链与比特币相伴而生,而后形成链圈和币圈两个领域。2008年11月1日,一位署名中本聪(Satoshi Nakamoto)的作者发表了《比特币:一种点对点的电子现金系统》一文,阐述了基于P2P网络技术、加密技术、时间戳技术、区块链技术等数字货币系统的构架,宣告比特币的诞生。2009年1月3日第一个序号为0的创世区块诞生。以获得“哈希值”为目标的小概率挖矿过程保证了比特币数量自然增长的可控性和非人为属性,一方面在实体经济的效果是挖矿的高耗电,增加了发电的产值;另一方面,比特币的问世恰逢美元在金融危机后的大水漫灌时期,过剩的流动性迅速造就了比特币泡沫,导致比特币投机活动猖獗,比特币的美元价格在扶摇直上中持续大幅度波动。因此,数字货币的跟进者们纷纷推出各种参考现存金融资产价值的“稳定币”。稳定币作为一种价值相对稳定的加密货币充当交换媒介来连接数字货币世界与法币世界,方便用户进行价格锚定交易。其主要类型有法币抵押发行的稳定币、数字资产抵押发行的稳定币、算法规则厘定发行的稳定币。具有代表性的有USDT、TUSD、DAI、PAX、BitCNY。但是由于不受监管、操纵币值等问题的日益突出,稳定币偏离锚定资产价格又成为数字货币市场的新常态,本应该作为避险和保值工具的稳定币成为引发币圈不稳定的新源泉。
稳定币终究奏响了天秤币的序曲。市场对法定数字货币(Digital Fiat Currency, DFC)的现实需求越发迫切。值得一提的是,天秤币或是出于某种策略,仅仅选择特别提款权(SDR)组合中的美元、英镑、欧元、日元作为价值锚,而独独避开了排位第三的人民币。这却使人民币得以避开争斗的漩涡而独立前行。2016年1月20日,中国人民银行数字货币研究所宣布自2014年开始的数字货币研究取得阶段性成果,命名为DC/EP(Digital Currency/Electronic Payment)。同时,中国FinTech数字货币联盟成立。中国数字货币将作为人民币的数字货币形态与传统货币长期共存,货币政策会添加新的数字化手段。对比最典型的非中心化公有链的比特币,中国数字货币大概率是具有央行中心的联盟链,并实行分布式账本(DLT)。参照相关专家的观点,DC/EP兼有价值维度的信用货币、技术维度的加密货币、实现方式维度的算法货币和应用场景维度的智能货币。在货币政策效果上可以实现精准投放、实时传导、前瞻指引、窗口指导和逆周期调控,特别是中国特色的向中小企业信贷倾斜的定向减低法定存款准备金政策可以在区块链技术支持下精准实施;反洗钱与反腐败方面可以实现高效精准举证;在技术上可以更为有效地实施零利率和负利率政策,然而中国并不希望走到这一步。值得一提的是,人民币国际化可以在数字手段下顺利展开,特别是建立安全可靠的数字化国际支付系统。
与此同时,国际上正在进行的还有加拿大中央银行的Jasper项目、新加坡金融管理局的 Ubin项目以及欧洲中央银行和日本中央银行联合开展的Stella项目。中国数字货币已经走在世界前面,在移动支付普及的背景下,有可能形成领先优势。
目前“链圈”与“币圈”两大发展领域已经形成。区块链已经脱离数字货币而成为工业和社会治理的全面数字化与智能化的最流行工具。2019年10月中央政治局专门学习讨论区块链对于新工业革命的作用,随之中国各级各地掀起了应用区块链技术的热潮,进一步推动了整个金融科技领域研究和创新的高涨。与金融科技并列,保险科技(insure-tech)也同时开始发展。需求推动科学,区块链丰富的应用场景所针对的是长期以来市场经济的信息不对称问题,旨在实现市场主体之间建立在资源平等基础上的协作信任与一致认同。据此,区块链的分布式数据库技术和加密技术的泛化成为学科发展的技术标志,推动数学、密码学、统计学、经济学与商学、互联网和信息科学的深度交叉与持续突破;业界则聚焦在区块链与大数据商业活动和信用行为相结合商业模式。在智能制造、智能服务、智慧城市到全方位的智能社会的浪潮中,服务新经济的数字货币是5000年来人类货币发展的一个新的起点。在主权数字货币的领域里,区块链技术的完善、微电子器件和高速通讯技术的不断颠覆式的发展都在延续摩尔定律,而数字货币和传统货币的长期共存和全球平衡更是不断挑战着整个经济学和商学。
4 抗衰老药物
第一波新型抗衰老药物已经开始人体测试。虽然它们目前还不能延长寿命,但有望通过减缓或逆转基本的衰老过程来治疗特定疾病。这类药物被称为“长寿药物(Senolytics)”,其工作原理是消除某些随着年龄增长而积累的“衰老细胞”。
2019年6月,总部位于旧金山的联合生物技术公司(Unity Biotechnology)公布了该类药物在轻度至重度膝关节炎患者身上的初步测试结果,预计将在2020年下半年从更大规模的临床试验中获得更多结果。这家公司还在研发类似的药物,用来治疗与年龄有关的眼部和肺部疾病。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
陈建国药理学教授,华中科技大学副校长,同济医学院院长。国家杰出青年科学基金获得者、国家自然科学基金创新群体项目负责人、科技部973计划首席科学家、教育部长江学者计划特聘教授。德国海德堡大学博士、美国爱荷华大学博士后。中国药理学会副理事长、神经精神药理专委会副主委。从事认知与情感障碍性疾病发病机制及药物干预研究。在Nat. Neurosci.、Biol. Psych.、Mol. Psych.等发表文章120多篇。获教育部和湖北省自然科学一等奖等奖励。
入选MIT Technology Review 2020年“全球十大突破性技术”的新型抗衰老药物是指美国梅奥诊所开发的药物组合Senolytics。虽然到目前为止有超过400个可延长模式生物寿命的小分子“长寿药”被发现(如白藜芦醇、二甲双胍、雷帕霉素、精胺、丁酸以及本团队发现的β-胍基丙酸、二甲基硫醚等),但几乎没有在临床研究阶段获得重要突破的药物,即使是抗衰老的明星药——二甲双胍,在非糖尿病患者中开展的临床研究也没有取得令人满意的效果。Senolytics是由梅奥诊所James L. Kirkland博士团队开发的药物组合,2015年其发表在老年医学国际权威杂志Aging Cell上的论文中首次提出了Senolytics一词。该词含义指特异性杀死衰老细胞的药物组合,包括靶向抗癌药达沙替尼和天然黄酮类化合物槲皮素。2016年他们发现了另一种Senolytics——治疗急性淋巴细胞白血病的靶向抗癌药利妥昔(电影《我不是药神》中格列卫的同类药),随后几年他们发表了一系列重量级的研究论文,表明通过Senolytics清除衰老细胞在实验动物中阻止甚至逆转了多种疾病进程。2019年该团队在EBioMedicine杂志上发表的临床研究论文表明连续三周给予Senolytics可改善特发性肺纤维化老年人的活动能力。与以往研究的长寿药物最大的不同在于,Senolytics的关注点在“不老”而非“长生”上,而这种不老恰恰是通过杀死已经衰老的细胞、清除衰老细胞所分泌的有害因子而实现,这可能是其在临床实验中取得较好表现的原因。全世界范围内老龄化情况日益严重,然而过去的二十年中老年医学取得的临床突破却寥寥无几,长寿红利和抗衰老红利的预期被长期压制,Senolytics的抗衰老新概念及其临床试验表现大大激活了资本对抗衰老市场的预期,可以预见未来几年会出现很多新的Senolytics组合,并有可能出现临床应用的明星药物,这应该是其当选今年“全球十大突破性技术”的主要原因。
虽然衰老的机制目前仍有很多不清楚的地方,但细胞衰老作为机体衰老基础的观点已获得学术界的共识。细胞衰老通过两条机制引起机体衰老,即组织细胞衰老后出现的衰老相关分泌表型、分泌有害因子(如炎症因子、蛋白酶等)引起组织功能紊乱,而干细胞衰老会导致细胞新生速率和再生能力显著下降。在针对衰老相关分泌表型方面,Senolytics无疑是目前最有临床前景的发现。在针对细胞新生速率和再生能力下降方面,近年来被热炒的“换血疗法”有可能会带来一些突破。实验研究发现把年轻小鼠的血液输入衰老小鼠体内在一定时间内会带来衰老干细胞的新生,使其重新拥有分裂能力、引起相关功能的改善,但目前在临床研究上没有取得令人惊喜的进展。我国科研界在干细胞的药物调控方面取得了很多突破性进展,如维生素C的干细胞重编程效应等,可能在未来治疗衰老相关细胞再生能力下降方面有着重大的价值。
从Senolytics的组成上看,达沙替尼可以看成是衰老细胞的清除剂,而槲皮素可以看作是衰老细胞有害效应的阻断剂。此外,作为黄酮类的天然成分,槲皮素还有可能扮演限食模拟剂、环境刺激剂的有益角色,增强机体对衰老细胞所产生有害因子的耐受力。组成Senolytics的两个药物都是经典药物,可以看作是老药新用在衰老医学领域中大放异彩。这种“临床老药+天然产物”的药物组合对我国科学家开展抗衰老药物研发有重要的启发意义,可借鉴其思路实现抗衰老领域的弯道超车:一方面加强老药新用研究,基于衰老关键机制和新靶点,反向挖掘经典药物如抗氧化剂、抗炎药、靶向抗癌药、呼吸系统药物、免疫调节药、维生素、降血脂药甚至抗生素中具有抗衰老价值的新成员,例如本团队研究发现具有巯基结构的经典药物如N-乙酰半胱氨酸等可还原衰老过程中突触功能的氧化性损伤,具有“以还原抗衰老”的潜在药理作用;另一方面要注重对已在临床应用的中成药单体成分如黄芩素、丹参酮、青藤碱等作为Senolytics价值的研究,发掘中西合璧的药物组合。此外,应该注重抗衰老药物的临床研究和评价,成立大学—企业—老年病特色医院“三位一体”的抗衰老研究中心,推进抗衰老药物研究,重点考察药物对老年病患者活动能力、认知能力的改善效应。相信在未来十到二十年内,我国抗衰老药物研究将取得一系列重要突破,达到国际前沿水平。
5 人工智能发现分子
科学家们正利用AI技术发现可能在医疗保健领域发挥惊人效用的新分子,这是人类与机器协作力量的又一证明。2019年9月,香港Insilico Medicine公司和多伦多大学的研究团队实现了重大实验突破,通过合成人工智能算法发现了几种候选药物,证明了AI发现分子策略的有效性。研究人员利用深度学习和生成模型相关的技术,即类似于让计算机在围棋比赛中击败世界冠军的技术,成功确定了大约30 000种具有理想特性的新分子。他们从中选择了6种进行药物合成和测试,其中的一种在动物实验中表现出了较高的活性,被证明很有希望。
这是AI第一次从零开始发现全新抗生素分子。传统新药开发之所以成本高昂,部分原因就在于分子鉴定既耗时又困难重重。在AI技术的支持下,我们得以快速、有效地评估数百万种分子构型,并从中选择符合需求的选项。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
黄飞鹤浙江大学教授,博士生导师,教育部长江学者计划特聘教授。主要从事超分子聚合物研究。现任JACS、Chem Soc Rev、高分子学报等杂志编委和中国化学会高分子学科委员会委员和超分子化学专业委员会副主任委员。曾获国家杰出青年科学基金资助、中国化学会—阿克苏诺贝尔化学奖、英国皇家化学会Cram Lehn Pedersen Prize in Supramolecular Chemistry、英国皇家化学会Polymer Chemistry Lectureship Award、德国Bruno Werdelmann Lectureship Award。
杨 波浙江大学求是特聘教授。长期致力于抗肿瘤新靶点发现和确诊、药物作用机制研究及创新药物研发工作。曾获国家杰出青年科学基金资助,享受国务院政府特殊津贴,入选百千万人才工程“有突出贡献中青年专家”、国家万人计划科技创新领军人才、科技部重点领域创新团队等。兼任教育部药学类专业教学指导委员会副主任委员、Acta Pharmacologica Sinica编委等职。
洪 新浙江大学特聘研究员。2010年于中国科学技术大学获学士学位,2014年获加州大学洛杉矶分校获博士学位。2016年加入浙江大学开展独立科研工作,主要从事化学理论与机制领域的研究。以通讯或共同通讯作者身份于Nature Catalysis, JACS等期刊发表论文40余篇。现任中国化学会物理有机化学专业委员会委员。曾获Saul and Sylvia Winstein Dissertation Award和中国化学会物理有机化学新人奖。
“科学革命”之实质就是“研究范式”之变革。上千年的科学历程见证了“实验范式”、“理论范式”和“仿真范式”的诞生。随着21世纪信息科学的蓬勃发展,数据密集型科学发现(Data-intensive Scientific Discovery)正成为“第四研究范式”[1]。探索第四范式与其他学科的交叉融合,将为关键科学问题的解决以及“卡脖子”技术的突破提供全新的方法论。
传统的药物研发需经历海量分子的合成与测试,是研发的关键瓶颈之一[2]
。Aspuru-Guzik教授与合作者在Nature Biotechnology发表论文[3],实现了酪氨酸激酶DDR1靶点活性分子的快速AI设计。“人工智能筛选分子”入选 MIT Technology Review 2020年“全球十大突破性技术”[4]。本文以该技术为着眼点,探讨AI分子设计领域的核心技术突破、关键科学意义、国内研究现状以及未来发展趋势。
该工作的核心技术GENTRL(Generative Tensorial Reinforcement Learning)是一种生成对抗网络GAN的AI模型。其通过分子结构空间与连续潜在空间(Latent Space)互相映射[5],实现分子结构的生成和演化。在此基础上,以多个Kohonen自组织映射网络[6]作为奖励函数进行分子设计的强化学习。本工作以酪氨酸激酶DDR1[7]为靶点,仅用21天就设计了40个潜在抑制剂。选择合成的6个化合物中有4个具有DDR1抑制能力。最优分子在小鼠实验中表现出了良好的活性以及成药性特征。而上述所有工作仅用时46天,该AI分子设计技术有望节省可观的研发时间和经费开支,为药物研发带来颠覆性突破。
“人工智能筛选分子”标志着AI能够以分子功能为目标,定制AI模型,从数据中汲取跨领域专业知识,补充甚至替代研发团队。此外,整个工作所有环节仅用时46天,这意味着AI分子设计将带来颠覆性的效率提升。通过专业数据支撑的AI模型,结合高通量平台以及集成管理软件,将构成逆向分子设计的优化环路,革新功能分子设计领域以新药研发为代表的众多传统行业。
在化学大数据方向,由清华大学程津培院士团队建设的化学键能数据库iBonD.是迄今键能领域综合度最高、收录数目最多的大型数据库[8]。该数据库使得化学键能查找和分析变得可靠便捷,也为AI预测物理化学参数提供了重要的数据基础。
在AI药物研发方向,上海药物所蒋华良院士团队发展了一种基于注意力机制的图神经网络模型,可用于小分子的特征学习和性质预测[9]。该模型出色地兼顾了人工智能模型的推理能力和可解释性,在多个药物发现数据集上均表现出良好的预测精度。
浙江大学侯廷军课题组发展了基于MM/GBSA结合自由能分解和支持向量机的MIEC-SVM方法用于蛋白—多肽/小分子相互作用预测[10],有效降低了自由能计算误差对预测的影响。朱峰课题组针对药靶发现的假阳性和稳定性问题,将多种AI方法引入可药靶性发现,成功降低了临床药靶发现的假阳性率[11],将发现稳定性提升了一个数量级[12]。
随着研究范式变革的不断推进,人工智能必将成为物质科学研究的核心动力之一。尽管AI分子设计领域已取得令人瞩目的进展,在以下重点方向仍亟待发展:
(1) 物质科学全链条AI应用的发展
物质科学中经验驱动的研究模式是其精准设计困难、研发效率低下的关键原因。未来在第四范式的引领下,需要从精准合成、精准结构、精准分离和精准放大等各个层次全链条地推进信息科学和物质科学的会聚造峰。面向国家发展战略和世界科学挑战,以信息科学的“精准化”和“智能化”打破学科壁垒,为物质科学的发展与创新带来强劲动力和广阔前景。
(2) 新型AI技术导向的药物设计与成药性研究
虽然数据驱动式药物研发已取得显著进展,但仍存在生物医药数据利用率不足、AI精度和可靠性欠佳等问题。未来需要面向活性化合物筛选、成药性评价、选择性和脱靶效应评估三个关键目标,应用大数据和AI技术发展活性分子虚拟筛选、成药性预测以及靶标预测,开发高精度药物设计和筛选的在线计算平台,以范式变革推动创新药物研发的技术突破和产业升级。
6 超级星座卫星
美国太空探索技术公司(SpaceX)正在建造的“星链”卫星互联网——这一系统可以让高速互联网“无死角”覆盖全球,但同时,也可以让地球的卫星轨道变成一个充满太空垃圾的“雷区”。
仅SpaceX一家计划在十年内入轨的卫星数量,就比人类历史上发射卫星的数量总和还多 45倍。我们很快就会看到成千上万颗卫星协同工作,让地球上哪怕是最贫穷和最偏远的地区也能用上互联网。
但学界认为大量卫星会对天文学的研究造成干扰。尤其是如此多的卫星在轨运动,可能会引发雪崩式碰撞,最终形成千万块空间碎片。这样的灾难会让未来人类几乎无法再使用卫星服务和进行太空探索。未来十年内,这些巨型卫星互联网的命运将决定地球轨道空间的未来。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
于 全中国工程院院士,信息系统安全重点实验室主任,东南大学网络空间安全学院、西安电子科技大学通信工程学院名誉院长,中国指挥与控制学会副理事长,中国电子学会副监事长。研究方向包括空间信息网络、无线自组织网络、软件无线电、认知无线网等。近年主要关注“类脑神经元的无线异构网络”及“类生物免疫的网络安全防御”等交叉学科领域。
王敬超高级工程师,长期从事空间信息网络、卫星通信等领域的研究工作,在卫星通信等领域获得多项创新科技成果,获得国家科技进步一等奖、省部级科技进步一等奖等奖项,是国家高分专项专家组专家、国家自然科学基金空间信息网络重大研究计划指导专家组学术秘书。
近年来,由于SpaceX[13]、OneWeb[14]、亚马逊和Telesat等公司的大力推动,“超级星座卫星”(Satellite Mega-Constellations)经常成为大众热点话题,入选2020年MIT Technology Review“10大突破性技术”排行榜也算是意料之中。低轨星座系统由于其空间位置特点,具有覆盖范围广、传输时延短、不受地域约束等优势,一直是卫星通信领域的重要发展方向。20世纪80年代末90年代初,全球范围内就曾出现了以铱星、全球星等系统为代表的低轨星座热潮。但由于市场、技术等多方面原因,尤其是地面蜂窝移动通信的兴起,这些项目大都未完成部署或发展艰难。随着多波束相控阵天线、星上处理交换、无线激光链路、一箭多星、火箭回收、低成本小卫星制造等技术的蓬勃发展,利用规模巨大的低轨卫星组网构建超级天基互联网,为用户提供全球无缝覆盖、随遇接入与按需互联服务,又重新得到了业界的高度关注,12个国家近40个星座计划纷纷出台,其中仅SpaceX公司的StarLink一项就打算发射4.2万颗卫星,比人类历史上发射卫星的总数还要多4倍,卫星通信网发展迈入“超级星座”时代。作为航天大国,中国也启动了多项低轨星座计划。2018年底,首颗“虹云工程”试验卫星与首颗“鸿雁星座”卫星先后发射成功,标志着我国低轨星座系统进入在轨试验阶段[15]。针对超级星座的发展热潮,我们认为应关注以下几点:
一是探索适合中国国情的“超级星座”发展道路。SpaceX是火箭制造商和卫星发射商,马斯克提出如此规模庞大的超级星座,首先看到的是大规模卫星发射为其带来的巨额利益。我国发展星座系统的目标是提升整个信息网络的体系服务能力,出发点不同自然会有不同的策略。轨道和频谱是卫星系统能够正常运行的先决条件,国外公司纷纷推出规模庞大的低轨星座方案,主要是以抢占稀缺的卫星轨道和频谱资源为目标,“跑马圈地”意图明显。2019年国际电联大会专门对规则进行了限制性修改,卫星频率、轨位就像房地产行业的土地资源一样无法再生,我们必须发挥体制优势,抓住机遇、提前布局,在国际竞争中积极争取主动。
二是以业务需求为导向,不片面追求卫星数量。天地一体化组网是未来6G网络发展的基本思路,要加强网络架构的顶层设计,充分发挥地面网络与天基网络的各自优势,取长补短,异构融合,实现整体消费比最优。由于卫星在轨寿命有限,为保证超级星座的正常运行需要不断补充发射卫星,以Starlink为例,按照四万多颗的星座规模,每年需要发射五到八千颗卫星进行补网,这笔巨大的开销很可能要拖垮星座运营商,Speacex的主要竞争对手One Web在天上留下74颗卫星后,今年3月底就申请了破产保护。因此,为保证星座系统的可持续发展,不能一味追求卫星数量规模,而是要突出核心应用需求,设计合理的星座方案,做到天地互补、物尽其用,如果亦步亦趋的盲目跟风,很有可能陷入新的“星球大战陷阱”。
三是加强基础理论研究,孕育催生原创性技术突破。各大明星公司炒作“超级星座”概念有为资本市场造势的目的,对此要有冷静淡定的心态。近年来,国家科学技术部、国家自然科学基金委员会在天地一体化信息网络方面部署了多项重大计划,启动了一批基础性、前瞻性、交叉性的基础理论和关键技术课题,如天地融合6G网络架构、星间激光传输与组网、星上采集处理传输一体化等,为发展中国特色的“超级星座”系统奠定了技术基础。
7 量子优越性
美国谷歌公司领衔的团队于2019年10月宣称成功演示“量子优越性”,他们通过一个包含53个有效量子比特的处理器(Sycamore处理器)花费约200秒完成当前最强超级计算机1万年才能完成的计算任务。尽管美国国际商用机器(IBM)公司对谷歌的说法提出了质疑,但这仍是一个里程碑式的提升。
然而,谷歌的演示只是对量子计算概念的一个证明,相当于在计算器上做随机加法并证明答案是正确的。现在的目标是要制造有足够量子位的机器来解决实际问题。这是一个艰巨的挑战:因为量子位越多,就越难维持它们微妙的量子态。谷歌方面也承认,现有成果距离能够真正解决重要问题(即传统计算机无法解决的实际问题)的量子计算机还有数年、甚至数十年的距离。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
郭光灿中国科学技术大学教授、中国科学院院士、第三世界科学院院士。长期从事光学和物理学的教学和科研工作,已培养博士90余人,其中全国百篇优秀博士论文获得者5人,国家杰出青年科学基金获得者7人,优秀青年科学基金获得者 10人,中国青年科技奖获得者3人。曾获得中科院自然科学二等奖、国家自然科学二等奖,何梁何利科技进步奖,安徽省自然科学一等奖,安徽省重大科技成就奖。
郭国平中国科学技术大学教授,博士生导师,本源量子创始人。中国科学技术大学微电子学院副院长、中科院量子信息重点实验室副主任。长期从事半导体量子计算实验研究,在量子比特编码、操控、扩展以及量子软件、量子算法等方面做出系列创新性研究成果。国家重点基础研究发展计划项目A类(超级973)、国家重点研发计划首席科学家,作为负责人承担了国家自然科学基金委重点项目等多个科研任务。获国家杰出青年科学基金、第十四届“中国青年科技奖”、2018年安徽省自然科学一等奖,入选中组部“万人计划”科技创新领军人才,教育部青年长江学者。
2019年10月,Google在Nature上发表了一篇里程碑式的论文[16],在这篇文章中,它们利用有53个量子比特(被称为悬铃木(Sycamore))的超导量子芯片,耗时200秒实现一个量子电路的采样实例,而同样的实例在当今最快经典超级计算机上可能需要运行大约1万年。尽管IBM的科学家对Google宣称实现了“量子优越性”(Quantum Supremacy)还有异议,但这一突破无疑是量子计算领域的一项重大技术进步,它也被MIT Technology Review评为“全球十大突破性技术”。
自20世纪80年代费曼提出量子模拟的思想以来,普适的量子计算机具有比经典计算机更强大的计算能力已是学界的共识,由美国著名科学家Shor教授提出的大数因子分解算法就明确地显示了这一点。然而,要实现普适的量子计算现阶段还不现实。即使在可以预见的将来,中等规模(50~100个物理量子比特)且带噪声(还无法实现量子编码)的量子系统是一个合理的技术预期。那么,在这样的技术限制下,如何来体现量子计算的优越性呢?作为一个量子计算的中间目标,量子优越性被提出。这一概念最早由加州理工大学的John Preskill教授提出[17],它特指在某些特定的问题上量子计算机的计算能力超越了任何经典计算机。这些特定问题的计算复杂度经过严格的数学论证,经典计算机在解决这些问题时复杂度非常高(指数增长或超指数增长)。这样就有可能利用比较少的量子比特来实现所谓的量子优越性,体现量子计算的优越性。根据不同的系统特征,人们选择不同的问题来实现量子优越性。现阶段比较清楚的、已证明可能实现量子优越性的问题包括:量子随机线路问题和玻色取样问题。基于超导系统的量子计算,大多通过实现量子随机线路的取样问题来展示量子优越性(Google公司采取的就是这条路线);而基于光学系统的量子计算大多采用玻色取样的技术路线来实现量子优越性。
Google的技术突破预示着中等规模带噪声量子计算(NISQ)时代的到来,这是量子计算时代的前奏[18]。一方面,我们应该为这一时代的到来而欢呼,另一方面,我们也要保持足够的清醒:无论是随机线路模型还是玻色取样模型都还是一个Toy(“玩具”)模型,它们的实际用途还没有被发现,这一成果还不能直接地用于解决实际问题;这一阶段性成果还只是实现普适量子计算的其中一步,离实现普适的量子计算还有相当长的路要走。中等规模带噪声量子计算(NISQ)时代的核心问题是探索中等规模带噪声量子计算机的实际用途,并进一步体现量子计算的优越性。有两个方向的问题在NISQ时代被人们寄予厚望:组合问题的优化和量子多体系统的模拟。选择合适的问题并进一步优化到近期技术上可实现是关键。
我国对量子计算投入较晚,由于体制及评价等因素,还没能形成从算法研究、芯片设计到工艺发展的完整体系,中等规模带噪声量子计算(NISQ)时代的研究仍然相对落后,需要制度和合作方式的进一步创新。
总之,Google公司的量子优越性技术突破使人们依稀看到了量子计算的曙光,但有实际用途的量子计算机仍然任重而道远。
8 微型人工智能
时至今日,强大的人工智能算法已经能够在手机乃至其他消费级设备上独立运行,不再需要依赖于云端通信。借助微型AI,研究人员能够通过所谓“知识蒸馏”方法显著缩小现有AI模型的体积,同时保证不对现有算法功能或性能造成任何影响。这种在本地设备上运行AI算法具有诸多优势,包括无延迟(不需要与云端通信)以及改善隐私问题等等。目前,谷歌、IBM、苹果以及亚马逊在这一领域占据主导地位。微型人工智能所带来的好处是显而易见的。现有的服务将变得更好更快,新的应用可以成为可能,本地化的人工智能也更利于隐私保护,因为你的数据不再需要离开设备就能实现服务或功能的进化。
但是,随着人工智能技术得到分布普及,其面临的挑战也随之而来。例如,打击那些不法监视系统或深度伪造视频可能会变得更加困难,歧视性算法也可能激增。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
陈云霁中科院计算所所长助理,中科院计算所研究员、博士生导师。带领团队研制了国际首个深度学习处理器芯片寒武纪1号,在计算机体系结构领域的国际顶级期刊和会议上发表论文近100篇,多次获得计算机体系结构顶级国际会议最佳论文奖。曾获得国家杰出青年科学基金、国家优秀青年科学基金项目资助。
张 蕊中科院计算所助理研究员,研究方向为人工智能和深度学习,在人工智能相关领域的国际顶级期刊和会议上发表论文十余篇,包括TPAMI、ICCV、CVPR、IJCAI、AAAI等。
人工智能已成为目前引领新一轮产业变革、促进社会发展的重要因素。但人工智能的成功有赖于庞大的数据量、高复杂度的算法和强大的算力支持。这导致人工智能在应用过程中依赖于中心化的云端计算资源,制约了算法的部署和使用范围,限制了人工智能应用的运行速度,同时在使用过程中会产生惊人的碳排放量,并可能产生很多隐私问题。这些问题还会阻碍人工智能在手机、自动驾驶、视频监控等终端应用场景的离线部署和实时决策。同时,人工智能对算力的需求可能使人工智能的发展掌握在少数科技巨头手中,限制了其在学术界、研究机构和中小公司的研究和使用。
微型人工智能(Tiny AI)的兴起为人工智能的发展带来了新的方向。在算法方面,微型人工智能着眼于降低算法的计算复杂度和延迟时间。包括利用模型剪枝与量化、模型压缩与分解、知识迁移与蒸馏等技术,在不损害算法功能的条件下缩小现有的算法模型。同时,越来越多的研究转向设计轻量级、实时的算法,以适合在终端使用。在硬件方面,微型人工智能通过设计专用的人工智能芯片,结合人工智能算法的特性,将更多的计算能力集成到更紧密的物理空间中,以更低的功耗和延迟来训练和运行人工智能算法。同时,微型人工智能也会将数据存储和算法运行更多地从云端移动到终端,拓展人工智能技术的应用范围,节省传输时延,同时保障数据的安全性。
微型人工智能的发展对人工智能的市场化和普及具有重要意义。微型人工智能将帮助人们在日常生活中更普遍地使用人工智能技术。人们可以更加方便地在手机端离线且快速地使用语音助手、照片处理、文字翻译等功能。微型人工智能也将推动许多新技术的发展,如对处理时间要求较高的自动驾驶、监控视频理解与分析等。同时,微型人工智能还可以与其他行业结合,如移动端的医疗图像分析、自动零售业务、卫星图像分析等等。由于具有广泛的应用场景和广阔的发展前景,并对人工智能的落地和产业化具有深远影响,微型人工智能被MIT Technology Review评选为2020年“全球十大突破性技术”之一。
目前,谷歌、IBM、苹果以及亚马逊等大型跨国科技公司在微型人工智能领域占据主导地位。国内方面则以华为、百度、阿里、腾讯等大型IT公司和商汤、旷视、寒武纪、地平线等初创公司为主导,并与清华、北大、中科院等高校和研究机构进行合作,越来越多的研究人员和工程师投身于微型人工智能的研究和应用中。例如,旷视提出了高效且轻量级的ShuffleNet系列应用于计算机视觉领域,华为提出了模型小、速度快的自然语言处理模型TinyBERT,商汤推出了轻量级人脸识别平台FaceNext,寒武纪推出了边缘端智能芯片MLU220及加速卡,地平线发布了车规级边缘人工智能视觉芯片征程2.0,阿里开源了轻量级深度学习端侧推理引擎MNN。目前,国内的微型人工智能发展一片繁荣,拥有大量的人才和资金投入,研究方向覆盖从算法到硬件的各个层面,应用场景遍及生产和生活的多个领域。中国的微型人工智能发展程度处于国际领先,在发展规模上与美国呈现“齐头并进”竞争格局。但目前国内的研究方向主要还是跟随国外如谷歌等大公司,未来需要更多的结合国情、有创新性的研究。同时,国内研究目前更多的聚焦于算法的研究,需要在硬件和开发平台方面加大研究投入。此外,还需要加强产学研合作,促进研究成果的应用和产业转化,使更多的研究成果成功落地,惠及社会发展和人民生活。
微型人工智能目前尚处于发展初期,未来将会有更大发展。首先,由于微型人工智能面向的应用场景复杂多样,能够使用的数据量相对较少,因此微型人工智能的算法将会从有监督学习向无监督学习发展,以应对数据对算法的制约。其次,由于微型人工智能中算法和硬件是紧密相关的两个部分,传统人工智能中算法和硬件相对分离的研究模式已不再合适,微型人工智能将向着软硬件结合的方向发展,使算法设计和硬件架构相辅相成。最后,微型人工智能将更多的与边缘计算、物联网进行配合,如利用分布式人工智能技术,使微型人工智能可以更好地应用在实际生产和生活中。
9 差分隐私
在2020年的美国人口普查中,差异化隐私将得到大规模使用,这也将成为该技术迄今为止覆盖面最广的应用实例。差异化隐私允许相关组织从提交或收集到的数据中整理并共享与用户相关的汇总信息,同时不影响与个人身份相关的隐私权益。这种技术的核心诉求是在不损害个人隐私的前提下最大限度利用数据资源。在它的帮助下,数据科学家以及数据库管理员将无法直接访问原始数据。这种新技术,为各类组织机构带来解决隐私问题、建立牢固信任体系的可行方法。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
杨 珉复旦大学计算机科学技术学院副院长,教授、博士生导师,主要研究领域包括AI安全、恶意代码检测、漏洞挖掘和操作系统安全机制等,在网络安全四大顶尖学术会议CCS、S&P、Security和NDSS发表论文十余篇。在CCS 2013发表两篇首次来自国内的移动系统安全问题研究论文,引起较大反响,2018年数字货币恶意挖矿代码检测的工作入选CCS highlights论文。
南雨宏美国普渡大学计算机系博士后研究员,信息保障与安全教育研究中心(CERIAS)访问学者。主要研究方向为智能平台下的隐私泄露检测及隐私保护。先后参与国家973计划、美国国防部(海军)等课题研究。其中关于移动应用隐私泄露检测研究发表于Security、NDSS、TIFS等旗舰会议和期刊,多项研究成果已形成行业应用。
近日MIT Technology Review公布了2020年值得关注的十大突破性技术,入选的差分隐私技术引起了全社会的高度关注。毫无疑问,数字文明中的隐私数据保护已经成为网络空间生态安全的核心问题。差分隐私技术的主要特点在于通过提供严格的数学定义,告诉人们一个算法对于任意数据集进行处理之后,能够多大程度上保护数据的隐私性。举例来说,在我们使用某一种数据集时,将群体用户的信息(比如某部分人的平均年龄)公布,这从法律和伦理两个层面而言,都可以认为不是隐私泄露;但是如果能够用一些技术手段,将单个数据集结合其他公开的数据准确推测出具体的个体信息(如某人的身份证号)时,这种情况就是隐私泄露。差分隐私算法通过对原有数据添加一系列“噪声”,使攻击者很难实现对个体用户隐私数据的精确计算,这样便能够在保护数据安全的前提下,提高数据共享和使用的效率。
近年来,随着公众网络安全意识的觉醒,公众与机构对网络空间生态的信任感严重缺失,若我们无法显著提升数据安全保护能力,数字文明发展也将会受到明显制约。例如,因为担心隐私泄露,很多原本用于科学研究和商业应用的数据集无法被公开披露或者被迫中断披露,导致很多好的商业模式与科学研究无法持续推进。面对这种局面,越来越多的人认为,作为一种可以精确评估数据隐私性的数学工具,差分隐私技术可为防范隐私泄露这一科学难题带来新的契机。
差分隐私这一概念最早于2006年由美国哈佛大学的Cynthia Dwork等学者提出,这些年一直在稳健发展。早期的研究主要集中在中心化差分隐私,计算模式为数据中心搜集原始数据并进行差分隐私处理,并将处理后的数据对外发布。中心化差分隐私要求数据的搜集方(数据中心)本身足够可信,然而不断披露的各类大规模隐私数据泄露事件,不断提醒着我们“数据中心可信”这一假设在现实中很难确保。因此,本地化差分隐私算法在近几年逐渐成为新的研究热点,在这种计算模式下,隐私处理过程由数据搜集者转移到了用户侧,不再依赖于第三方的介入,从而有效消除了数据搜集者泄露数据的安全隐患,也减少了数据在传输过程中泄露所导致的风险。
差分隐私通俗来讲就是针对给定的数据集合,在保留统计学特征的前提下去除个体特征以保护用户隐私。与之前隐私保护方法最大的不同之处在于,差分隐私引入了一种全新的数据保护模式来控制数据的搜集、查询及使用过程。这样的方法使得数据安全性、隐私性在得到理论保证的前提下,最大限度地支持了基于数据驱动的科学研究及商业活动,最大化地保留了已有数据的可用价值。
在这些深入的科学研究基础上,目前差分隐私已经在工业界得到了一定的应用。例如,苹果及谷歌公司(RAPPOR 系统)分别在2016年开始使用本地化差分隐私算法搜集用户数据。最近的报道显示,在美国2020年的人口普查中,人口统计部门也将全面采用差分隐私技术,致力于在精确统计超过三亿三千万人口信息的基础上同时保证这些数据的隐私性,这将会成为迄今为止差分隐私最大规模的应用场景。
差分隐私致力于在数据实用性及隐私性之间取得一种平衡,但这种技术不是隐私泄露难题的“终结者”。差分隐私依赖于其使用者通过设定一定的“隐私预算”来调整数据的可用性及隐私性。在实际的生产环境中,隐私预算对隐私保护的有效性具有决定性的作用。隐私预算的合理性如何界定,谁来控制这样的隐私预算,这些开放问题均还处在研究探索的阶段。与此同时,很多用来生成噪声数据的差分隐私算法依赖于数据集达到一定的规模或满足一定的分布,这样的要求在某些特定场景下可能难以满足。尤其是当加入的噪声过大时,很多根据个人信息提供个性化服务的应用场景就遇到很大的挑战。此外,人工智能的迅猛发展,为差分隐私技术带来了许多新的挑战,这方面的智能攻防技术正在成为当下最为迫切的研究热点之一。
差分隐私技术的应用具有很强的专业壁垒,对个人用户来说,差分隐私的使用完全是透明且不可感知的。但是,差分隐私的有效性依赖于利益冲突方(如数据中心)指定隐私预算,而用户作为隐私数据的核心利益相关者,尚不能够自主控制隐私预算。如何增加透明度及各方信赖程度,是差分隐私技术在现实场景中广泛应用前必须解决好的问题。
总体而言,隐私数据保护是一个宏大的科学问题,同时也具有迫切的现实需求。理想的隐私保护体系需要社会科学、法律法规和技术手段的多维协作。差分隐私的理论与方法,为这种协同提供了良好的技术基础。我们期待差分隐私技术产生突破性的进展,并形成广泛应用,真正成为保护数据安全的一把利刃。
10 气候变化归因
随着计算机处理能力的快速提升,科学家们现在能够对气候变化在恶劣天气中的实际作用进行归因。通过把气候变化的影响从其他因素剥离出来,有助于我们弄清如何为未来可能出现的极端状况做好准备,包括预计会有多少洪灾发生,以及随着全球变暖的加剧,热浪会有多严重。气候变化归因可以帮助我们了解我们的城市和基础设施需要进行怎样的改造,以应对气候已发生变化的世界。同时证明各国政府及企业是否应该为由气候变化导致的恶劣天气事件负责。对气候变化的归因能力,也将给相关谈判及诉讼带来指导,先将由整体气候变化引发的特定天气状况确定下来,再判断由此造成的财产甚至生命损失该由哪方承担。
(图片来源: MIT Technology Review 官方 APP)
专家点评:
翟盘茂中国气象科学研究院研究员, IPCC第一工作组联合主席,国家气候变化专家委员会委员,从事气候变化、极端天气气候事件研究。
周佰铨理学博士,中国气象科学研究院助理研究员,IPCC第一工作组技术支持组成员,从事气候变化、极端天气气候事件归因研究。
近期,由于气候模式模拟能力的提高,在伊梅尔达飓风事件发生仅10天后就能快速进行气候变化归因方面研究取得的突破被MIT Technology Review选入2020年“全球十大突破性技术”。这是近年来在气候变化领域气候变化归因方面取得的又一项重要的科学进展。
在气候变化科学中,特别需要回答人类活动影响(包括温室气体排放、气溶胶变化和土地利用等因子)对某类变化或某一事件的具体贡献,这种研究人类活动影响的过程即是气候变化归因,而气候变化是否对极端天气气候事件造成直接影响也是其中最重要的一部分内容。极端天气气候事件归因研究主要致力于量化人类活动与自然强迫改变一种特定类型的极端事件的发生概率及强度的程度,这方面的研究可以更好地帮助我们预估未来在人类活动影响下极端天气气候事件可能带来的风险。
事实上,从2004年Peter Stott等人在揭示气候变化与欧洲热浪事件之间的联系之后,极端天气气候事件归因就成为了气候变化研究领域的国际热点并迅速发展。从研究成果上看,对热浪、寒潮、极端强降水、干旱、热带气旋等不同类型极端事件的归因研究陆续涌现。自2012年以来,《美国气象学会通报》(BAMS)每年都会组织一期年度增刊,专门刊登前一年发生在世界各地的极端事件的归因研究。极端事件归因研究的兴起不仅推进了对气候变化影响极端事件变化的程度及物理机制的深入理解,也推动了极端事件归因的研究方法迅速发展。美国国家科学院出版社2016年发布的题为《气候变化背景下极端天气事件的归因》的报告指出,在众多极端事件类型中,有关温度的极端事件如热浪和寒潮等的人类活动归因结果的可信度最高。极端降水事件归因结果的可信度能达到中等信度,低于热浪和极端低温事件,甚至略低于干旱事件。而在热带气旋的归因认识方面更是不足。
此次入选MIT Technology Review“全球十大突破性技术”的正是针对飓风伊梅尔达的归因研究,该研究使用了多个25~30km的高分辨率模式的不同强迫试验,分析了具有同样强度极端降水的飓风的发生频率与强度的风险变化。研究显示高分辨率模式能够实现对飓风过程中的中小尺度对流过程更好的模拟,同时利用多模式的归因分析也能在一定程度上增加归因结论的可信度。此外,该研究在飓风伊梅尔达发生仅10天之后就给出了非常详实的归因分析结论,指出人类活动使得类似的强风暴的发生频率增加高达2.6倍,强度增强达28%。这一结论证实了气候变化这样长期缓慢的变化过程对单个强风暴事件的发生具有影响,迅速回应了公众、媒体和决策者对频繁发生的极端事件与气候变暖之间联系的认知需求与关切。
极端天气气候事件归因有助于认识并减少灾害风险,归因结论能够为决策者制定应对气候变化的相关减缓政策和适应方案提供重要的科学依据。以此项针对飓风伊梅尔达的归因研究为例,研究结果显示人类活动的增强通过气旋活动使得极端降水频率及强度显著增加,又由于气候变暖引起的海平面升高及快速的城市化导致的渗透层丧失,从而引发洪涝的发生风险增加。此项归因研究是气候变化科学上的突破性进展,深化了对人类活动引起的气候变化加剧通过热带气旋影响区域洪涝风险的科学认识,有利于在科学上支持气候变化减缓策略,也有利于政府和公众结合当地情况制定防灾减灾的一系列应对措施。
近五年,我国的极端天气气候事件的归因研究也快速发展起来,针对极端高温、寒潮以及极端降水的相关归因研究不断涌现。但由于起步较晚,且因地处复杂的东亚季风气候区带来的气候系统模式模拟的局限性,目前针对我国区域的一些重大极端事件的归因研究仍比较匮乏,且归因结论信度水平与国际相比还有一定差距,在时效性上也无法满足公众和政府部门对科学界的诉求。
目前我国科学界已经开始重视气候变化归因方面的研究,也通过国家重点研发计划等项目在对极端高温、极端低温、极端降水和干旱开展一些针对性的研究,但在热带气旋归因研究方面仍十分不足。
今后随着计算能力的提升以及气候系统观测资料的进一步完善,亟需加强高分辨率气候系统模式的发展,提高热带气旋、强对流过程等模拟能力,高度关注并支持针对气候变化和台风等极端天气气候事件及其影响的归因研究。
参考文献
[1]Hey T, Tansley S, Tolle K., et al. The fourth paradigm: data-intensive scientific discovery. USA: Microsoft Research, 2009.
[2] Blakemore DC, Castro L, Churcher I, et al. Organic synthesis provides opportunities to transform drug discovery. Nature Chemistry, 2018, 10: 383—394.
[3] Zhavoronkov A, Ivanenkov, YA, Aliper A, et al. Deep learning enables rapid identification of potent DDR1 kinase inhibitors. Nature Biotechnology, 2019, 37(9): 1038—1040.
[4] Rotman D. AI-discovered molecules. MIT Technology Review, March/April 2020. https://www.technologyreview.com/lists/technologies/2020/.
[5] Gómez-Bombarelli R, Wei JN, Duvenaud D, et al. Automatic chemical design using a datadriven continuous representation of molecules. ACS Central Science, 2018, 4(2): 268—276.
[6] Ritter H, Kohonen T. Self-organizing semantic maps. Biological Cybernetics, 1989, 61: 241—254.
[7] Moll S, Desmoulière A, Moeller MJ, et al. DDR1 role in fibrosis and its pharmacological targeting. Biochimica et Biophysica Acta (BBA)—Molecular Cell Research, 2019, 1866(11): 118474.
[8] Internet bond-energy databank (pKa and BDE) iBonD. http://ibond.nankai.edu.cn/.
[9] Xiong Z, Wang D, Liu X, et al. Pushing the boundaries of molecular representation for drug discovery with the graph attention mechanism. Journal of Medicinal Chemistry, 2020, DOI: 10.1021/acs.jmedchem.9b00959.
[10] Hou T, Li N, Li Y, et al. Characterization of domain—peptide interaction interface: prediction of SH3 domain-mediated protein—protein interaction network in yeast by generic structure-based models. Journal of Proteome Research, 2012, 11(5): 2982—2995.
[11] Zhu F, Li XX, Yang SY, et al. Clinical success of drug targets prospectively predicted by in-silico study. Trends in Pharmacological Sciences, 2018, 39(3): 229—231.
[12] Yang Q, Li B, Tang J, et al. Consistent gene signature of schizophrenia identified by a novel feature selection strategy from comprehensive sets of transcriptomic data. Briefings in Bioinformatics, 2020, 21(3): 1058—1068.
[13]Foust J. SpaceX's space-Internet woes: Despite technical glitches, the company plans to launch the first of nearly 12,000 satellites in 2019. IEEE Spectrum, 2019, 56(1): 50—51.
[14]Radtke J, Kebschull C, Stoll E. Interactions of the space debris environment with mega constellations—using the example of the OneWeb constellation. Acta Astronautica, 2017, 131: 55—68.
[15]奔驰. 我国全球低轨宽带卫星通信系统建设启动. 太空探索, 2019(2): 5.
[16]Arute F, Arya K, Babbush R, et al. Quantum supremacy using a programmable superconducting processor. Nature, 2019, 574(7779): 505—510.
[17]Preskill J. Quantum computing in the NISQ era and beyond. Quantum, 2018, 2: 79.
[18]Kjaergaard M, Schwartz ME, Braumüller J, et al. Superconducting qubits: current state of play. Annual Reviews of Condensed Matter Physics, 2019, 11: 369—395.