文章插图
Voyager 会通过社交网络关系链做出判断预测
Voyager 在提交给洛杉矶警局的一份白皮书中就提到了一起袭击案件 , 该案件具体地展示了平台的做法——AI 在没有人介入的情况下会根据人们在社交网络发帖的内容完成自动审查和分类(分别为用户标记蓝色、橙色、红色三种颜色) 。
在具体案例中 , 枪击案嫌疑人 Adam Alsahli 就因为自己在 Facebook 和 Instagram 上发布的伊斯兰主题照片 , 被系统判定为「对阿拉伯传统有强烈自豪感与认同感」 。 因此 , Adam Alsahli 在发动具体的攻击前就被 Voyager 的人工智能工具打上了橙色的颜色标记 。
【晒着照片、聊着天,怎么就有人觉得我要犯罪了呢?】这可以是一个成功预测潜在犯罪者的案例 , 同时也是一个充满「偏见」的案例 。

文章插图
枪击案嫌疑人 Adam Alsahli 的社交媒体信息 , 在他犯罪之前就已经被标记为橙色
数据预测犯罪?但数据也不能完全相信这些结论真的可信吗?他们是根据什么做出判断的呢?大数据下每个人要如何自证清白?
目前确实有不少数据证实社交网络的内容偏向和犯罪事实的相关性 , 但这并不是一个 100% 关联的数据 。
纽约大学坦登工程学院和全球卫生公共学院发布的研究结果显示 , Twitter 上关于种族仇恨言论数量较多的城市 , 相关的犯罪率也更高;芬兰亦有研究表明 , 根据二十年的数据 , 温度每升高 1°C , 犯罪活动就会增加 1.7%;美国研究证明 , 周末晚上的车辆盗窃率激增;被证明过的还有当地足球队意外输球时 , 家暴事件会增加 10% 。
但这些并不能证明什么 , 因为概率和事实是不同的 。
即便有相关数据背书 , 也不能证明在种族仇恨言论最多的城市 , 夏天周末的晚上就一定会有车辆被盗 , 炎热天气遇到当地主队输球 100% 就会有更多的家暴案件发生 。
类似的犯罪预测系统是根据已有的犯罪事实和研究结果进行反推的 , 这造成的另一个问题是它充满了「刻板印象」 。
图灵奖得主杨立昆就曾表示 , 当数据有偏见时 , 机器学习系统就变得有偏见 。 而具体到单一案例 , 当机器学习接收到的信息是监狱中男性黑人用户占比较大时 , 这样的系统可能就会做出黑人男性更容易犯罪的判断 。
对机器学习来说 , 「黑人男性更容易犯罪」可能是数据分析的事实 , 但落在现实中这就会是种族偏见和差别对待 。
暗中将用户进行评级 , 划分哪些更有威胁性 , 对于有威胁的人进行更密切的追踪和预防就是整套系统的运行逻辑 。
类似的创业公司会用算法和人工智能来解释他们处理、分析信息 , 从而做出判定的过程 。 尽管目前没有证据证明这种预测是有效的 , 来自民众的质疑也很多 , 警察局却依旧想要和类似的平台进行合作 。
对警察来说 , 这类工具很有吸引力 , 如 Voyager 这类平台在社交网络的发现可以提供用户侧写的有效辅助 , 也可以不错过线上的细微线索 。 如果仅仅是辅助调查 , 这就会是非常有效的工具 。 但工具发展到后期 , 开始发挥预测犯罪的作用时 , 也会成为伤人的利器 。
经过前些年的狂热后融资后 , 不少 AI 产品已经进入了应用阶段 。 但在某些领域 , 它们依旧是辅助者的角色 。
- 燕麦奶破圈、中国工厂落地,OATLY构建“未来食品”样板
- 系统工程师有前景吗? 数据库系统工程师岗位职责
- 事实证明少吃饭、吃素并不能减肥!有节食减肥成功的案例吗?
- 无痛、无针头也可打针!全球首款疫苗注射机器人Cobi问世
- 代餐粉、酵素、减肥茶等等,网红减肥产品靠谱吗?
- 数据库工程师工资多少? 数据库工程师和数据库系统工程师的区别
- 网络安全工程师年薪? 网络工程师和信息安全工程师区别
- 信息安全工程师考试资料? 信息安全工程师怎么考
- 主人家“每日、每月、每一年”该为小狗做的事
- 信息安全工程师含金量? 软考信息安全工程师证和cisp区别
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
