不平等绝非好事。
无论是待遇不公,还是资源分配不均,这两种情况轻则令人不悦,重则会遭人鄙视。强调不同种族、社会经济阶层之间的不平等,也会加剧社会矛盾。
教授简介
Sam Yam | 任启智
新加坡国立大学商学院
助理院长(师资发展)
管理与组织系院长讲席副教授
美国·华盛顿大学组织行为学博士
教研领域:判断与决策、领导力、组织行为学、商业伦理等
扫码查看
英文简历
不平等是个敏感的话题,但它造成的影响却屡见不鲜。
在第一波新冠疫情爆发的时候,美国黑人死亡率比白人死亡率高出了两倍以上;在新加坡,低收入外劳的大规模感染也登上了新闻头条。穷人和少数族裔总是受疫情影响最为严重,其他国家也是如此。
这些差距的背后存在着大量因素,例如医疗卫生条件和工作环境等。
此外,人们的偏见也有一定的影响。美国Hoffman等人的一项调查研究显示,部分医生不愿向黑人推荐有望救命的医学筛查程序,并认为他们所遭受的痛苦并不严重。
那么算法能否用于减少医疗资源差距呢?
首先要明确一点,人工智能(AI)和算法也会产生偏见。不过,与人类相比它们更容易纠正。人的观念根深蒂固,需要很长时间去改变,但对算法来说很快就能完成。
实际上,算法在医疗保健领域的运用越来越广泛。新加坡综合医院信息系统(IHiS)研发出的商业研究分析洞察网络(BRAIN)能够采集各种渠道的信息,帮助确定糖尿病高危患者。
谷歌和美国连锁医院HCA医疗集团(HCA Healthcare)最近宣布建立合作关系,利用数据来改善运营和安全性。2016年,美国克利夫兰诊所(Cleveland Clinic)与微软合作,利用人工智能识别心衰高危患者。
总而言之,人工智能和算法的广泛使用有望减轻医生的工作量,防止他们过度劳累,同时也能缩小不同群体间的医疗水平差距。
然而,其中存在这样一个矛盾:在普通人看来,算法缺乏同理心,因此通常他们并不愿意让AI和算法做重要的医学决策。
这很可惜,因为在工作量让人不堪重负的时候,例如遇到自然灾害或者疫情爆发等情况,算法完全能够大有所为。
为了减轻人们对算法应用于医疗领域的抵触情绪,我与美国高校的同行展开了相关研究。我们研究发现,关键在于要让不平等差距带来的威胁更加突出。
在针对新加坡和美国参与者的研究中,团队发现强调医疗资源分配不公,能够促使参与者转而选择算法。
研究显示,当参与者了解到新冠疫情因种族和经济差距而对人们产生了不同的影响之后,再问他们愿意选择医生决策还是算法决策的医院时,他们对后者表现出更大的偏好。
他们也更愿意在算法驱动的医院接受政府提供的医疗物资,尤其是发现这种不公会影响到自己切身利益的人群,意愿更为强烈。
然而,通过强调不公平所带来的威胁来促进AI运用固然有其优点,但也有人认为其弊大于利。例如,这样做会削弱医生的权威性,并且可能激化不同群体之间的矛盾。
不过,虽然短期内会产生社会矛盾,但是长期来看它将造福于弱势群体。
人与人之间的偏见固然存在,比起妄想它消失,采取行动去减少偏见更为实际。
在寻求提高AI使用率的过程中,无论是在医疗卫生还是其他行业,强调不平等带来的威胁似乎是一种不正规的手段。但是一般情况下,人们在接触新技术时做不到完全理性。
有时候,一条未经探索的道路反而能够通向一片新天地。
文章英文版原载于新加坡国立大学商学院官网BizBeat
原题为The Hidden Side of the Threat of Inequality
作者:任启智,新加坡国立大学商学院管理与组织系副教授
*本文观点不代表新加坡国立大学商学院机构观点