【新智元导读】应聘某一岗位没被录用?原因可以有很多:个人职业期望与岗位不符;能力尚未达标。但你是否想过,你被拒绝的理由竟是性格测试没通过!算法正在影响我们的工作和生活,其规模、重要程度,隐秘性,使得这种影响不再普通。不仅如此,算法出错了还不好伸冤,而且研究显示,算法对穷人有歧视。
Cathy O'Neil 是约翰逊实验室高级数据科学家、哈佛大学数学博士、麻省理工学院数学系博士后、巴纳德学院教授,曾发表过大量算术代数几何方面的论文。他曾在著名的全球投资管理公司D.E. Shaw担任对冲基金金融师,后加入专门评估银行和对冲基金风险的软件公司 RiskMetrics。
几年前,一个叫Kyle Behm的年轻人由于躁郁症中途辍学,离开他就读的范德比尔特大学,该学校位于田纳西州纳什维尔。一年半后,Kyle康复了,并回到另一所大学继续他的学业。在那时,他从一个朋友那儿了解到一份兼职工作:在Kroger超市打工,尽管工资相当低,但Kyle愿意做。Kyle的朋友正好辞职,并愿意为他做担保。对于像Kyle这样学习优异的学生来说,担保就是走走形式。
然而Kyle并没有接到面试通知。他询问他的朋友,他的朋友解释说:Kyle的性格测试结果显示,他被列入“红灯区”。Kyle做的测试是由总部位于波士顿的人力资源管理公司Kronos开发,作为人力选拔员工的一部分。Kyle把这件事情告诉了他的律师父亲,他的父亲问他测试题问了些什么。Kyle说和他在医院里做的题类似,就是“五因素模型”这类的问题。根据外向性,随和性,谨慎性,情绪稳定性以及开放性评分。
起初,由于测试题丢掉一份工资低廉的工作并不是什么大问题。Roland Behm鼓励他的儿子继续找。但Kyle被一次次拒绝。他应聘的每一家公司用的是同一套测试题,到最后他也没收到一个offer。
Roland Behm也不知所措。心理健康问题似乎严重影响他儿子的就业。研究之后他发现:性格测试题在大型的招聘公司之间非常普遍,尽管在法律上并无实际意义。他解释说:很少有人找工作因为测试结果被列入红灯区。即便他们被“红灯”了,他们也不会想着去找律师。
Behm给包括Home Depot和Walgreens在内的七家公司发了通知,倡议通过集体诉讼来抵制测试招人的违法行为。在我写这篇文章的时候,起诉讼仍在跟进。此次争议主要在于Kronos的测试是否有医学依据;另依据1990年颁布的美国残疾人法案,该行为是违法的。如果诉讼成功,法院不得不就招聘公司或Knoros是否违反美国残疾人法做出判决。
然而,问题不再是这些公司是否需要担责这么简单,基于复杂数学公式的自动化系统在发达国家逐渐普遍。其规模、重要程度,隐秘性,使得算法把一个人普通的生活变得不再普通。
大可不必这样。金融危机后,数学家们所谓的“魔法公式”再一次带来房贷危机,导致一些重要的金融机构倒闭。如果足够理智,我们完全能够阻止类似事件再次发生。可事实却是,新科学技术大热,甚至拓展到更多领域。他们不仅关注全球经济市场,还关注人类。数学家和统计学家正在研究人类的欲望,行为和消费模式。他们预测我们的诚实度,计算我们成为学生,工人,情人,罪犯的可能性。
这是大数据经济,寻求利益最大化。一个计算机程序可以在数千份简历或申请表中运行,获得一份简单明了的表单,最佳候选人位于表单首行。既省时又公正客观。不受人类偏见的影响,就是机器编译代码。2010年左右,数学已经渗透到人类的生活中,受到一众人的青睐。
大多数算法被应用在好的方面。目的是用客观测量代替主观判断——也可能是找出学校里教学最差的教师,或预测一个罪犯二次进监狱的概率有多大。
算法的解决方案主要针对真正存在的问题。一个学校的校长不能总是针对问题老师,因为他们也是朋友。法官是人,是人就会有偏见,有偏见就会导致他们无法做到完全公平。举个例子,午餐前法官们会感到饥饿,饥饿会让他们的判决比平时更苛刻。所以加强人机的一致性十分重要,尤其是当你觉得新系统听起来尚且科学。
难的是最后一部分。只有少数的算法和评分系统经过严格的科学检测,而且我们有充分的理由怀疑他们无法通过测试。举个例子,自动化教师的测评每年都可能不同。蒂姆·克里夫在纽约当了26年的中学英语教师,却从未改变过自己的教学风格。当然,如果分数不重要,那是一回事。但事实却是教师往往都被解雇了。
除了法官的裁决,我们有其他的理由担忧被告被判决有罪。将数据注入算法。其他类型的输入往往也会出现问题,而且更麻烦。一些法官甚至会询问被告家里是否有人有前科,这明显有失公平。
不仅如此,如果你的信用评分较低或无任何不良驾驶记录,你可以用算法决定交多少保险;或者关于贷款条款我们会收到哪类政治信息,我们都会用到算法。算法可以预测天气,然后决定人们的工作行程,减少他们送孩子去医院或者学校可能浪费的时间。
其受欢迎程度依赖于它们是客观的概念,而算法影响数据经济基于人类会犯错误。尽管他们被用在好的事情上,算法还是会把人们的偏见,误解编译到自动化系统里影响我们的生活。就像上帝一样,这些数学模式并不透明,他们的工作原理仅对数学家和计算机科学家可见。判决即使错了也不容争议。往往穷人被惩罚压迫,富人越来越富。
撇开公平性和合法性的问题,研究表明,性格测试并不能很好的预测一个人的工作表现。Roland Behm表示:测试的最初目的并不是招聘好员工,就是为了尽可能多的筛掉人。
你可能认为性格测试很好做。其中一个问题是:“经常会有情绪的波动?”你应该回答“不会”。另一个问题“很容易生气?”你也要回答“不会”。
事实上,企业通过这种方式筛选求职者也会遇到麻烦。监管机构发现,CVS连锁药店通过性格测试要求人们回答诸如“人们做哪些事让你愤怒”,“有亲密的朋友没有任何用;他们总是让你失望”等问题,非法筛选出有心理疾病的应聘者。
Kroger的问题更简单一些:哪一个形容词更能描述你工作时的状态:独一无二还是井井有条?如果回答独一无二,说明你高度开放,自恋;如果你回答井井有条,说明你自觉,自我控制能力强。
想象一下:Kyle Behm被roger拒绝后到麦当劳工作。他成为星级雇员。在厨房管理四个月,一年后拿到整个分店的专营权。这个时候,Kroger会不会有人重新审视当年的性格测试错的离谱。
幸运的是,广大求职者并未因自动化系统被拒绝。但他们依旧面临者简历被筛掉或者面试等挑战。这些问题一直困扰着少数族裔和妇女。
规避这种偏见的理想方法就是不对申请人上纲上线。20世纪70年代,音乐家只要以男性为主。当种族,名望不再重要时,女性音乐家开始出现,虽然仅占总数的四分之一。
求职者一定要让面试官对自己的简历过目不忘。做到简洁有针对性。简历中可以包括之前从事的职位(销售经理,软件构架师),语言(普通话,Java),或者荣誉(成绩优异)。