AI犯错不可怕 反躬自省纠正它

明仕亚洲娱乐平台

2018-10-22

  “人工智能也是人类的镜子。 那些不如人意之处,折射的往往都是人性的不完美,也给人类提供了在更深的层面反省自己的契机。

这次亚马逊的案例就让人认识到原来即便在倡导了几百年男女平权的西方社会,性别歧视问题依然如此严峻。

”  最近,亚马逊招聘软件被爆出具有“重男轻女”的倾向,给女性求职者打低分。 这一时刷新了人们对人工智能更加客观科学的看法。

按照亚马逊研究团队最初的设想,给招聘软件输入100份简历,它会吐出前5名,然后公司就可优先雇用他们,这将大大缓解人力资源部门的压力,结果却事与愿违。   现在不少大公司或许没有亚马逊这般“一揽子”解决选才问题的雄心,但在招聘过程中,通过人工智能来筛选简历、推荐岗位,却是习以为常的事。

在许多招聘者看来,人工智能可以减少招聘人员主观意见的影响。

但亚马逊的失败案例,为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训。 同时,也促使人们反思技术伦理层面的算法公平问题。 显然,在亚马逊的案例中,人工智能不仅继承了人类社会的偏见,而且把这种偏见进行了“提纯”,使它更加“精准”而“直接”。   更关键的是,人类的偏见经过算法“洗地”之后,又披上了貌似客观公正的“科学技术”的外衣。 实际上,在有偏见的数据基础上训练出来的系统,也必然是有偏见的。

比如,此前就爆出过微软的聊天机器人Tay,在与网友的厮混中很快就学了满嘴脏话,以及种族主义的极端言论,在推特上咒骂女权主义者和犹太人。 这提醒我们注意,算法处理的数据是具有人类社会特点的,发展人工智能也好,运用算法也罢,必须目中有“人”,也就是要充分考虑到作为人工智能开发者的人类的局限性,以及这种局限性在人工智能中的“遗传”。

  有人说,孩子是父母的镜子。 人工智能也是人类的镜子。

那些不如人意之处,折射的往往都是人性的不完美,也给人类提供了在更深的层面反省自己的契机。 这次亚马逊的案例就让人认识到原来即便在倡导了几百年男女平权的西方社会,性别歧视问题依然如此严峻。

  人工智能不可能只在脱离现实人类语境的真空中使用,否则,人工智能也就失去了它的意义。

而在可预计的将来,把人类自身推向完美也不过是美好的梦想。

那么,如何克服人工智能自我学习中的这些问题,让不完美的人类创造出接近完美的人工智能,就成为必须攻克的重要课题。

  其实,以不完美创造完美,正是人类这个物种高明的地方。

这一切的实现,不是靠反智的玄想,而是靠不断地打补丁和修复,在科技进步中克服科技前行产生的漏洞。

2017年曾有报道披露,在GoogleImage上搜索“doctor”,获得的结果中大部分都是白人男性。 这实际上反映了医生总是与男性相连,护士总是与女性相连的社会现实。 后来,通过修改算法,基本解决了这一问题。

  进而言之,人工智能的漏洞被及时发现和得到纠正,有赖于科技政策和机制的进一步规范。 在这个问题上,倡导算法在一定限度内的透明和可解释性,不失为可行之策,同时还应加快建立人工智能犯错追责机制。

比如,日本已经把AI医疗设备定位为辅助医生进行诊断的设备,规定AI医疗设备出错,由医生承担责任。 这一做法是否完全合理,值得探讨。

但是,提高算法问责的意识并将之纳入人工智能发展规划和顶层设计,确为人工智能长远发展并造福于人的必要举措。