不久前,职业社交网络平台领英发布了一款公平工具包——一个开源软件库,其他公司可以用它来测量自己公司的人工智能(AI)模型的公平性。这是帮助企业和政府试图解决公平性问题的又一次尝试。
谷歌也在其网站上列出了一些偏见审查的提示,并附上了相关主题研究论文的连结。
新加坡已经有了人工智能治理框架模型,该模型为如何将公平和透明转化为实践提供建议,例如,让利益相关方了解人工智能政策;欧盟也设有关于信赖人工智能的道德准则。
人工智能日渐普及,不过,依然有人对其感到不安。
在英国,人们根据学生历史成绩,利用算法来预测A水准考试的成绩。结果很多学生的成绩下降,尤其是出身于贫困学校的学生。
人工智能的使用本是为了减少教师在预测学生成绩时的偏见,但是却产生了新的偏见。
算法能够从给定的数据中学习。因而,如果数据存在偏差,结果也会出现误差。
今年早些时候,底特律警方错误逮捕了一名非洲裔美国人,原因是AI面部识别系统错误地将他认定为抢劫嫌疑犯。
面对这些事件,人们不禁要问:算法的结果都是公平可信的吗?
正因如此,采用人工智能的企业有必要建立信任。
研究表明,当人们认为自己受到公平对待时,他们更愿意合作,并且表现得更优秀。同样,如果人们相信人工智能能够确保公平,他们就更愿意接受算法的建议。
教授简介
扫码查看
英文简介
David De Cremer
新加坡国立大学商学院管理与组织系
教务长讲席教授
人工智能技术与人性化管理研究中心
(AiTH)主任
英国·南安普敦大学博士
教研领域:21世纪领导力、商业资产信用、国际商业环境的行为方式、组织正义、商业伦理行为、数字经济和人工智能时代领导力等
那么,在推进人工智能应用的过程中,政府和相关企业应该如何向用户传达人工智能会保持公正呢?
对于这一点,不能简单地像对待技术问题那样,分解为几个层面,如可问责性和可解释性,然后寻找正确的答案。
公平,是一个社会概念,它关系到人们如何与他人互动,让大家都变得更好。这里的重点在于更重要的事业。
因此,如果我们想了解算法的公平性,需要超越其技术层面,考虑到社会的影响。而且一个重要的方面在于,观察人工智能在协助人类合作完成更高层次的任务上表现如何。
人与AI缺一不可
因此,人工智能系统的公平与否不应当仅仅由数据工程师和数据科学家团队决定。政府、公司和机构同样需要考虑利益相关者和最终使用方的感受。
他们是否感觉到自己被公平对待?他们对公平的期望是什么?
由于人工智能不具备道德品质,因此还需要人为去评估人工智能提出的解决方案在社会背景下是否公平。这一现实意味着我们需要了解社会规范,并具备较高道德价值的人。
当然,人们都有自己的偏见,但研究表明在评价他人的决定时,人们不太可能会带有偏见。在这方面,无论是在学校,还是工作场所,这一“道德指南针”的作用再重要不过。
人文关怀
由于人工智能的公平性比简单寻找技术解决方案更为复杂,因此算法的发展也需要更具人性化的方法。
与其寻找最优、最合理的算法,不妨在追求效用与人文关怀之间寻求一个平衡,这样才能让人们接受人工智能,并信任它的公平性。
人类没有固定的生产效率;我们可能会在短期效率爆发,会在特定环境下做得更好,我们也会因为家事忧伤,或者因适应生活中的新变化花费更多时间。
受新冠疫情的影响,许多家庭被迫适应与家人长期分离的生活。有的家长忙于兼顾自己居家办公,同时要照顾孩子在家学习;有的医疗工作者纠结于是否要把孩子寄养到亲戚家,否则的话,继续住在一起就要冒着把新冠病毒传染给他们的风险。
虽然人工智能可以提供最佳资源分配和工作流程管理,但我们需要缓冲,因为人类时常会需要帮助,在社会中的我们都需要牢记这一点。
最终,判断人工智能系统是否公平取决于最终使用者。
系统的技术水平并不重要,人们主要根据自身如何看待算法生成解决方案,以及这些结果与自身价值相符程度来判断其公平性。
这意味着数据科学家和工程师在建立系统时必须牢记这些价值观。例如,如果一家公司注重对少数群体的包容性,那么这些群体的数据应该包括在内,而不是视作数据异常。
出于这个原因,最终人们评判的是公司是否公平,而非算法。事实上,在人们的眼中算法并非道德敏感体(它只是个机器),因此,不能对其生成的解决方案的计算负责。
相反,机构和政府由人类领导,需要对他们的决策负责,其中包括对人工智能系统的应用。
我们需要领导者明确他们的价值观,并考虑到人们面临模型输出结果时的信息需求和期望。
只有这样,人们才会更加信任人工智能。
文章英文版原载于The Business Times,点击左下角“阅读原文”网站
原题为:For people to trust AI, build fairness into it
作者:David De Cremer,新加坡国立大学商学院管理与组织系教务长讲席教授
翻译:汪青青
*本文观点不代表新加坡国立大学商学院机构观点