首页 理论教育 算法偏见:计算传播学探析

算法偏见:计算传播学探析

时间:2023-11-20 理论教育 版权反馈
【摘要】:很多时候,我们因为过于担心人类的偏见而过于相信算法的公正这件事本身就是一种极大的偏见。事实上,技术工具作为一面镜子,它本质是人类自身的某种隐喻,大量有关算法偏见的案例都指向一个相同的问题:究竟是算法出现了问题,还是算法的设计者出现了问题?所以无论是从理论逻辑上还是从实践层面上,算法偏见所反映出来的基本问题是:算法之所以有偏见不是技术本身存在偏见,而是社会本身以及社会中的人类本身存在偏见。

算法偏见:计算传播学探析

“如果说在原子时代对人起决定作用的是生产方式,那么在比特时代对人起决定作用的则变成了思维方式……算法是思维方式的技术基础,有什么样的技术基础,就有什么样的思维方式。”[3]这也就意味着,如果算法本身出现哪怕微小的问题,它也会直接影响到用户的思维方式甚至产生更严重的社会影响。算法偏见就是算法本身存在的问题之一,尽管很多算法在表面上看上去被设计得非常中立,它所得出的结论或者推荐的内容看上去也非常中立,但它所带来的偏见却是非常微妙甚至隐秘的。美国法院的程序化宣判系统由于训练数据的问题会对倾向于判黑人服更长时间的刑期;由算法作为评委的选美比赛的获胜者中亚洲人和非洲人微乎其微,而那些看上去非常友好的个性化推荐系统向女性推荐的工作比向男性推荐的工作薪酬要低;基于Twitter的一款聊天机器人在受到了某个用户社区的影响之后演变成了种族主义者……越来越多的案例正在向我们证明一个事实:算法并不是中立的,算法并不是客观的,算法并不是没有价值观的。相反的,在中立、客观、不存在价值观这样的技术理性表象之下,算法对于整个世界的认知、分析和预测都在一定程度上存在着或多或少的偏见。很多时候,我们因为过于担心人类的偏见而过于相信算法的公正这件事本身就是一种极大的偏见。我们忽略了一个显而易见的事实:尽管所有的算法有可能在它正常运行的时候不带有任何偏见,但任何算法都是由它的设计者编写和塑造出来的;算法可以没有价值观,但人不会;算法可以没有偏见,但人不会。

“由于算法设计者自身有意或无意的偏见造成算法设计出现偏差……算法设计者在算法设计中居于核心地位。对问题的理解、对数据的选取、对变量的选择、对算法的综合评价等都贯穿着人为因素。当然即便算法设计者力求做到客观、公正,其无意识的认知偏见也会通过算法设计中对标准的选择体现出来……既然算法是由人设计的,那么算法不可能比算法设计者更客观。算法不可避免地会反映设计者对周遭事物和问题的认识。”[4]算法的设计者在他们写入代码的时候、创建数据模型的时候、制定推荐规则的时候、训练机器学习的时候,都会有意无意地把自身所持有的偏见加之于算法,并影响到今后算法对数据的选取、对价值的判断和对信息的推荐。这意味着,算法设计者的价值观和偏见都有可能会在他们所研发的算法中有所体现。例如,如果全部用白人的照片来训练人脸识别的算法,那么经过长时间的数据训练之后它就有可能在遇到其他肤色的人的时候不把他们归为“人类”。“某个人即使表现出明显的偏见,他也只会影响少数人,而算法则有可能影响成千上万的人。”[5]如果所有的算法都存在这样那样的微小偏见,那么这些微小偏见累加起来所造成的负面影响将会是巨大的。

在乔治亚理工大学科技史学家梅尔文·克兰兹伯格教授著名的科技六定律中,第一定律指出“科技既无好坏,亦非中立”,第四定律指出“虽然技术可能是引发诸多公共问题的主因,但非技术因素在技术政策决定中占据主导”[6]。事实上,技术工具作为一面镜子,它本质是人类自身的某种隐喻,大量有关算法偏见的案例都指向一个相同的问题:究竟是算法出现了问题,还是算法的设计者出现了问题?从技术上讲,算法是忠实地按照它的设计者设定的程序在运行,这种所谓的“忠实”并不意味着“中立”。所以无论是从理论逻辑上还是从实践层面上,算法偏见所反映出来的基本问题是:算法之所以有偏见不是技术本身存在偏见,而是社会本身以及社会中的人类本身存在偏见。算法无法将很多具有情感、观念和文化色彩的非中立性事物与类似空气、水、土壤等客观实在分离开来,它唯一能够做的就是按照它的设计者所设定的规则来运行。从这个角度来看,算法偏见完全是社会偏见在技术层面的真实写照,也正因此,我们就不得不认真地反思这个问题。(www.xing528.com)

对于用户而言,算法本身就像一个从外面完全无法看清其内部结构的黑箱,“这些数学模型正日益在更大的程度上影响着我们的生活,但它们却像上帝一样隐晦不明,只有数学家和计算机专家才了解模型是如何运行的,尽管模型运行的结果往往不利于穷人并令富人更加富有,人们对此却毫无争议。”[7]用户每天使用百度进行搜索、使用今日头条进行阅读、使用微信进行社交、使用优酷进行视频观看等所有的信息传播和媒介消费行为几乎都在与各种各样的算法打交道,尽管他们的行为确凿无疑地受到了算法的影响,但他们本身并不清楚算法推荐的内容是否有偏见、有歪曲、有诱导、有操控等非客观、非中立的因素隐含在其中。所有的新闻机构、视频网站、内容平台在今天的后真相和泛娱乐的环境下都在试图通过所谓客观中立的算法来扭转公众的信任危机,但算法似乎没有真正摆脱人类的偏见,反而在一定程度上成了人类偏见的助推者。更严重的问题是,对于有些更加高级的算法,或者利用深度学习自身不断完善的算法,由于其本身的结构复杂性,以至于当初的算法设计者也像普通大众一样无法完全理清其全部规则和所有逻辑。长此以往,算法偏见将会愈演愈烈,如果不能做出有效的处理,它就有可能会被永久性地编程到人机共生的未来社会,从而产生某种不可逆的毁灭性效应。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈