后人类离性别平等有多远②:算法歧视与技术的性别失衡( 二 )


人工智能已经在数据处理和决策中形成了“编码凝视” 。 此前 , 谷歌翻译就已经将医生与男性做联系 , 而把护士同女性做联系——它从人的世界里习得到数据的关联性 , 进而也成为歧视的延伸品 。 学者齐琳珲在研究新闻写作机器人的性别偏见中就发现 , AI新闻编写的体育报道中 , 女性运动员就会重点描述外在形象或者作为妻子、母亲的家庭身份 。 而在政治、能源、市场经济、商业科技等领域的报道 , AI选出的男性配图远高于女性 。 亚马逊的自动招聘程序因为识别到输入的科技行业简历绝大部分都是男性 , 所以根据优化原则 , 对女性从业者的评分较低 , 形成了歧视女性应聘者的情况 。 而谷歌广告中向女性推送的高薪职位明显低于男性用户——男女薪酬差异作为数据结果是客观存在的 , AI的推送更像是镶嵌在现有的社会结构中 , 用数据继续放大这种歧视和不公 。
然而 , 想要进行算法的性别歧视治理来纠正算法偏见却并非易事 。 目前从事人工智能领域的人员中只有10%是女性 , AI工程师仍然是男性俱乐部 。 人工智能和科技产品必然继承了写下代码的程序员、纠正AI训练师、以及初级数据库或样本的价值取向和偏见 。 而相比于来自人的性别歧视 , 人工智能的算法黑箱带来的隐性歧视镶嵌于新经济领域的算法推荐和营销法则中 , 更难以辨认 。 其次 , 在技术方面 , 算法的设计涉及量化的目标设置 , 而人 , 作为消费者或者目标群体 , 其性别、阶级和种族等属性也被二进制地变成标注、分拣的标准 , 人工智能的商业逐利性和服务效率的差别对待 , 本身也构成隐形歧视 , 进而形成了人们所熟知的“大数据杀熟” 。
此外 , 人类社会现有的数据作为一种社会实在的结果 , 不但沿袭了社会不公 , 同时其样本也存在过度代表或者放大差距的嫌疑 , 进而展现出技术的偏见 。 目前商业社会的AI只实现了功能层面上基本智能 , 而在产品设计等其他方面仍需要迎合“市场”即客户的偏见 。 例如扫地机器人的智能体现在对住户可清扫区域的智能覆盖 , 但是在语音播报这一非智能功能上采用女性声音 , 在功能之外 , 技术也是语言、文本和媒介载体 , 也把性别刻板印象真正地定格和固化于扫地机器人和生活助手 。
人的数据化 , 不仅仅是个人的消费轨迹和网络生活习惯留下“数据面包屑”让商家进行差别定价获取更多利润 , 或是让社会管理者进行“精细化的社会管控” , 同时也是人自身在信息化中进一步成为客体的社会转变 。 人的心智和行为被编码实现数据化 , 数据反过来训练和重塑人的行为和心智 , 这一循环过程正在不断放大包括性别在内的社会价值冲突 。 而社会编程化和现实世界的虚拟化 , 必然也把我们从“现实世界是什么”的问题引入“虚拟世界如何产生”的过程 。 人类社会的性别不平等和性别歧视 , 也因科技的发展的“制造认知边界”的过程中展现出新的形态 。
以互联网各种形式的“N号房”和色情暗网成为对儿童妇女侵犯、进行性剥削为例 。 对于网络性侵而言 , “进入”这个动作本身不再是物理上的侵犯 , 而是对数据的使用 。 被破解或者提前安装的监控 , 隐藏的针孔摄像 , 偷拍的镜头、可复制和传播的数据共同组成了新的剥削形式 。 在互联网和社交平台上发生的儿童或妇女性侵中 , 技术不但不需要获得儿童监护人和成年女性的同意 , 甚至也不再需要她们“在场” 。 新型的色情暗网、裸贷、甚至在网络暴力等性犯罪和攻击中 , 对人进行威胁和控制不需要真正绑其手臂 , 把关于隐私和身体的信息组成性羞辱的话语图像散播出去即可——女性就是这样在信息面前失去了自己的身体 。

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。