Exploring the fallout of MIT Media Lab researcher Joy Buolamwini’s startling discovery that facial recognition does not see dark-skinned faces accurately, and her journey to push for the first-ever legislation in the U.S. to govern against bias in the algorithms that impact us all.
豆瓣的热评第一把我想说的都说了。这部片子可取的地方在于指出了人工智能潜在的致命缺点,但片子的意识形态性让这部片子本身的意义打了折扣。
机器学习是一个黑盒子,它依照“多即是好”的原理,从历史数据中学习,因此它的学习过程即使对于创造它的程序员来说,也是一个黑盒子。这就导致了人类只是通过人工智能,在全自动化中复制自己的现有形象,没有鉴别,没有提升。就像片中说的,人工智能可以误判,但无法被质疑,也不被要求承担责任;作为一种唯数据论的技术,其设计目的是追求效率。
因此,就基于数据的机器学习本质而言,其产生的算法将不是中立的。因其通常为权势所用(如平台),机器学习其实会造成一种极危险的隐性的编码歧视,这也是片名的由来。
此外,盲目追求效率的一个弊端是人的物化。人被标准化参数所肢解,被片面化标签化。在教育系统,学生为标准化的培养体系和打分系统所评估,作为养料被高校挑选,再经过下一轮标准化的培养,然后作为“人才”输送入社会,被定义成一张张简历,简历再经过算法的筛查,剩下的简历才来到HR手里,再经过各种参数的标准化考核,把人物化为某一价格,体现为薪资待遇。这让我想起了最近的一部职场喜剧《破事精英》里面对绩效的刻画。
除了人的物化,人工智能还通过机械化,迎合并加深了现代社会对客观的追求。这种“机器客观”杜绝了人性的存在。Intelligence without ethics is not intelligence at all. 缺乏伦理道德的人工智能不是智能。人类的主观判断力、决策力、反抗力和拒绝的能力,是人性闪耀的光辉,这里有让我想起了《禅与摩托车维修艺术》中所提倡的“良质”,即不囿于可观察数据和传统主客观二分法的对quality的一种本能判断。
老外好像很在意自己的生物信息被取样,同时影片中街头的面部识别的成功率也太低了,这么低的成功率按理说不能用来实践。影片的出发点是好的,但眼界过于狭隘,就好像走过头的黑命贵和女木又。动不动就拿主义的帽子乱扣,也能反映出西方社会的媒体还是井底之蛙。中国的古语早有总结,身正不怕影子斜,没做亏心事,不怕鬼敲门,心里怕了,就觉得被歧视了,真够娇气的。
本片是凯西·欧尼尔《大數據的傲慢與偏見》一书的延展。
这是个演算法包围现代公民的时代!演算法在幕后影响着我们生活的各种决定,包括我们上什么学校、能否借到汽车贷款,以及医疗保险必须支付多少保费,愈来愈多判断是由数学模型,而非某些人所做出。这一切看似公平:因为所有人是根据相同的规则评断,不受偏见影响。
对热情的“问题解决者”来说,大数据像仙境,它搜集资讯、再运用数学模型,使我门得以更有效地调配资源、筛选最优的人事物、并做出最好的决定,这些热情的宣扬者更是四处宣传大数据应用的威力。
但是,曾在典型数据分析圈内工作的凯西·欧尼尔不是上述这种人。
她在《大數據的傲慢與偏見》中指出,事实与我们想的恰恰相反!这些数学模型不透明、不受管制,即便出错,受害者往往无法申诉。最令人不安的是,这些模型会“强化歧视”,例如,贫穷学生在申请学贷时,可能因自家的邮递区号,被审核贷款的数学模型视为还款高风险者,因而无法获得贷款……。这类问题会形成恶性循环——奖励幸运儿、惩罚遭践踏的人,创造出危害民主的“有毒鸡尾酒”。
欢迎认清大数据的黑暗面
欧尼尔在《大數據的傲慢與偏見》中揭开对我们人生各阶段有巨大影响的各种黑箱数学模型,不管我们愿不愿意,演算法系统都已经为我们打上“分数”。
当前许多数学模型已经失控滥用、还自作主张地替教师和学生评鉴、筛选履历表、审核贷款、评估员工绩效、锁定目标选民、决定假释名单,以及监测我们的健康状态,决定我们个人及社会的未来。
欧尼尔呼吁:在这个人人都被迫拥有自己在某种演算系统中持有“e化评分”的时代,那些建立模型的人应该为他们所创造出来的演算法负起更多责任,而政策制定者更应该负起监督管理的责任。
这本重要著作使我们得以提出关键问题、揭露这些“数学毁灭性武器”的真相和要求变革。
本片是此书的延展。
电影主要讲人工智能的算法怎么被用来评估每个人在社会系统中的价值以及其中的问题,即算法会复制甚至加剧这个世界长久以来的偏见,比如比法院会参考一个所谓的“再次犯罪率”的算法给予假释,“科学计算”出有色人种的再犯罪率更高;算法被学校用来评价老师的”附加价值”,被公司用来筛选简历,被银行用来计算信用,结论是女性更容易被AI HR淘汰,且比男性的金融信用差。以下是电影的几个观点:
1)技术到来总伴随着不平均。不平均并不是说有钱人比穷人先拥有技术,而是说更具有侵犯性的技术往往先被用弱势群体身上做实验(在纽约,人脸识别门禁率先被房屋出租公司装在低收入有色人种集中的公寓,并将其制造成一种类似交通摄像头的罚款工具,用监视的图像作为对租户违反公寓楼规定的证据)。
2) 目前人工智能在社会中广泛应用主要有两种模式:一种是维稳,一种是获利。没有一种为自由和平等而存在的算法。
3)只要连接到网络社会,世界上每个人都被算法打着各式各样的分,你在某些系统中看起来更不可能犯罪,但同时,你也会另一些系统中为同样的商品付更多的钱。人们谈到算法监控总爱说中国如何如何,其实本质的不同只是中国对这种监控毫不掩饰而已。
> We are all grappling every day with algorithmic determinism. [...] We are all being scored. The key difference between the US and China is that China's transparent about it.
4)反乌托邦可能最终不会像《1984》所描述的那样实现,而是像现在一样,静悄悄地侵入每个人的生活。哪怕你能躲过看得见的摄像头,看不见的追踪和信息收集软件却难以避免。这些信息会泄漏你的软肋,甚至左右你的决定。(比如给奢赌者推送拉斯维加斯的打折机票,比如Facebook按个人的政治倾向有选择地推送大选投票信息。)
5) 算法设计的奥义是自动化和高效,但很多时候,人性意味着拒绝服从,拒绝系统定义的价值。如果把自动化作为一切问题的终点,在有的情况下会造成非常不人道甚至是毁灭性的结果。
6)人工智能的定义到底是什么?这是值得思考的问题。下棋比人类厉害?会分析数据?社会对于科学和技术的理解其实是由很少数一部分精英定义的,他们大部分都是白人、男人。
7)正义地使用算法是现在最紧要的人权问题之一。
纪录片试图代入国际视野,拍摄了英国、南非、香港、和中国大陆的片段。虽然落脚点是对算法广泛应用的质疑,但关于中国的影像始终是“反乌托邦”式的,即便是所谓的“全世界都被监视着”这一论点也还是中美二元思维。对全球的描绘只能说是对美国现状的注脚而已,分析并不到位。
很喜欢电影里的主要人物、也是算法正义联盟的创建者Joy Buolamwini,她日常写一些短诗送给一起努力的合作者,很有感染力。另外,AOC在国会讨论一节短暂出境。
Joy Buolamwini 在电影中念的一首小诗:
collecting data, chronicling our past, often forgetting to deal with gender, race, and class. again, I ask, am I a woman? face by face, the answers seem uncertain, can machines ever see my queens as I view them? can machines ever see our grandmothers as we knew them?
收集数据,记录我们的过去,总是忘了去考虑性别、种族和阶级。让我再一次拷问,(在你的眼里)我是女性吗?一张又一张脸,你的答案似乎难以确定。机器可以看到我所看到的女王吗?机器可以看到我们所认识的祖母吗?
一些扩展资源:
Weapon of Math Destruction (电影中AJL一员 Cathy O'Neil写的书)
Twitter and Teargas by Zeynep Tufekci (作者在电影中出镜)
Algorithmic Justice League (美国的组织,可通过官网邮件订阅信息)
Big Brother Watch (英国的组织)
哈哈哈哈哈这个纪录片是苹果赞助的吧,通篇没提到苹果,但是现在用face ID解锁的人不算少吧
比《监视资本主义》稍好一点。
HIFF 人脸识别技术隐含的种族与性别歧视,及其广泛使用造成的各行业人权侵犯问题。人不能被算法反控制。而在大洋彼岸某个大国,所有的公民已经接受了时刻被监控,还为支付宝人脸识别功能的便捷而感到骄傲……部分观点还是局限,这种议题哪里缺席讨论就哪里误会加深,有什么办法呢哎……
That’s brilliant!LON is brilliant.由弱者/研究者视角的解读,剖析;自由的把BB中的技术性问题深入背后的道德伦理和哲学逻辑,那不经推敲的。渐强化的规则对PR的统领,赋权和合规到秩序、发展。当然这是PR预期低洼处不会涉及反思的。其中涉及的敏感地也成案例相探讨。以是一种特定价值的觉醒和抗争。亦不赞同无脑而無反思的发展科技。Cambridge真是永远好哈哈,AI起源于Dartmouth还蛮意外的…旷视也唉、、、
210415
观点不错,镜头语言丰富,有些地方略显累赘,在如何抗争方面也没交代清楚,单方面表达(不过也没办法),但主角成就斐然。如果是一部展现如何抗争的片子,少了过程;如果是陈述观点的,又略显薄弱。
73/100
Intelligence without ethics is not real intelligence.多數人可能覺得AI具有前瞻性和先進性,但人工智能基於數據,而數據承載著過去。所以歷史中的一切不平等如種族歧視、性别歧視等也存在於算法中。很典型的一个例子是微软在推上搞了个bot叫Tay,让它不断学习推上的数据,然后不到24小时Tay就变得厌女和歧视犹太人和黑人…看完整个纪录片后,问题来了,该如何在一個我們不知道算法如何運作的系統里獲得公平?或许用法律阻挡人脸识别的滥用是第一步,可是下一步呢?
Algorithm Surveillance and Discrimination are universal, there is really no need to attack China that hard.
此片充分展现了美英自由主义进步政治、多元化、国内种族正义斗争,与他者化中国/中国人的并行并举。从刻意的无厘头中文翻译(只为表明这是“中国”),到对中国制度的想当然,到采访这唯一一个惊世骇俗的奇葩中国人(号称要感谢信用积分帮助她有效择友)——纪录片最后,美国英雄说,他们和全球反监视斗士站在一起,胜利属于他们。这就很清楚了,“中国”对于这个纪录片的主体而言,一开始就在这场斗争之外。一开始就是他者。一开始就没有相应的人性。是反乌托邦的平行宇宙。用来侧目,用来酝酿,用来自我鞭策。这其实也都无所谓——如果中国不是一个真实的地方,中美关系不是真实的地缘政治,中国人不是血肉的行在这个地球的人。
3.5 算法是黑洞,吸收一切,不在乎逻辑、也不在乎道德。性别歧视、种族歧视、人权等隐忧经由算法包装后,大摇大摆地横行。关于我们郭嘉的部分,些许失实,对我们信用体系和人脸识别之间的理解还是太粗暴了。
无语了。一个试图教别人不要有偏见的片子,充满了偏见的教育………
90分钟信息量很大,印象深刻也是杭州那位女士,丝毫不担忧信息安全,只觉得什么都刷脸好方便
有被冒犯到 但不得不说一针见血
大部分美国人,这里特指制片团队,对于中国的态度也是coded bias....一群不了解中国情况的家伙们,don't even care enough to get their translation right (把匹配match直接翻译成比赛也是绝)。不管三七二十一直接把中国打成反面例子,甚至还找了个非典型代表,把信用评分作为交友的依据...你要讨论bias就好好讨论,前半部分关于种族、性别、阶级的例子都发人深省,但中国的部分和你要表现的bias有任何联系吗?算了,反正这片也只是拍给欧美地区的人看的,让他们的观众爽就好了。夹带私货的结果就是加深了普通观众的bias,结合片名看也是讽刺...PS. 发行找了个以AI运算出名的平台,不觉得自相矛盾吗...
效率和准确之间做权衡,经济利益和社会公平之间做权衡,这样的权衡不是留给算法留给科技,还是要留给人类,人类依然充满歧视,甚至比计算机更甚,所以提出的问题很可能就成了未来都很难有解的问题,先不说能否数学与模型化,就问善恶的尺度在哪?日漫《心理测量者》给出的探讨或许并不让人舒服,但最终很可能也只能如此吧。
有关算法偏见在面孔识别,治安,教育,法律等领域的讨论。有趣的是研究算法偏见和推动立法的主角是一色的女性研究者,和social dilemma里面负责产品技术的白男形成了鲜明对比。
比较讲究的纪录片。“我们都在被脸部识别监控;唯一区别就是,钟果对这件事是透明的,而霉果不是。” 大实话给五星!
在没接触相关的学术探讨之前可能会觉得这部片子角度新颖,现在会觉得只是记录了几个主人公为发声作出的努力,在引导大众重新审视“人脸识别”/AI/算法技术上没有推进。我在想,也许目前传统纪录片形式并不适合去表达这个话题,因为观众已经适应了这个环境,需要更大的“刺激”才能激发辩证思考,形式创新尤为重要。比如互动纪录片Do Not Track,multimedia project Stealing UR Feelings就用更简短的篇幅和互动形式让观众自发地意识到目前算法技术的问题。
完成度非常非常差,首先中断严重偏题,本身主题是人脸识别技术,但是中间直接跑到大段算法,这是从属关系,如果今天是要讨论算法,那这个东西就深了去了。然而通篇针对人脸识别,也没有足够的论证和论证过程去支撑,大部分只有口号和观点,如果今天有一个人拍一个关于人脸识别如何大面积地降低了犯罪率,那完全可以把舆论转向另一边到,这本应是一个需要强调“宁可错杀一千,不可放过一个”是错误的,但并没有。而且还选取了中国作为一个对照组,但是对于观点选取的极度偏颇也使得这个片子的引导性非常强,就不到一个半小时的片子信息密度还这么低,纪录片可真好拍