关于ZAKER 一起剪 合作 加入
雷锋网 10-24

Facebook 的错误信息和暴力问题在印度更为严重

Facebook 举报人 Frances Haugen 的泄密表明其在某些领域的极端主义问题尤其严重。

豪根提供给《纽约时报》、《华尔街日报》和其他媒体的文件表明,Facebook 意识到自己在印度助长了严重的虚假信息和暴力。这个社交网络显然没有足够的资源来处理这个人口众多的国家中有害物质的传播,当紧张局势爆发时,也没有采取足够的行动来回应。

2021 年初的一项案例研究表明,由于缺乏识别以孟加拉语和印地语编写的内容所需的技术知识,来自 Rashtriya Swayamsevak Sangh 和 Bajrang Dal 等团体的大部分有害内容并未在 Facebook 或 WhatsApp 上标记。

与此同时,据报道,由于 " 政治敏感性 ",Facebook 拒绝将 RSS 标记为删除,尽管 Facebook 内部呼吁删除其材料,但 Bajrang Dal(与莫迪总理的政党有关联)并未受到影响。该公司有一份免于事实核查的政客白名单。

根据泄露的数据可与 i 看出,Facebook 在五个月前还在努力打击仇恨言论。就像在美国进行的早期测试一样,该研究表明 Facebook 的推荐引擎建议有毒内容的速度有多快。在 Facebook 推荐之后的三个星期里,一个虚拟账户遭遇了分裂的民族主义、错误信息和暴力 " 近乎持续的攻击 "。

与之前的独家新闻一样,Facebook 表示泄密事件并没有揭露真相。发言人安迪 · 斯通(Andy Stone)辩称,这些数据不完整,没有考虑到在美国以外大量使用的第三方事实核查机构。他补充说,Facebook 在孟加拉语和印地语等语言的仇恨言论检测技术上投入了大量资金,并且该公司正在继续改进这一技术。

这家社交媒体公司随后发表了一篇更长的文章为自己的做法进行辩护。它辩称,它有一个 " 行业领先的流程 ",每六个月审查一次暴力风险高的国家并对其进行优先排序。它指出,团队考虑了长期问题和历史以及当前事件和对其应用程序的依赖。该公司补充说,它正在与当地社区合作,改进技术并不断 " 完善 " 政策。

然而,回应并没有直接解决一些担忧。

印度是 Facebook 最大的个人市场,有 3.4 亿人使用其服务,但 Facebook 87% 的错误信息预算都集中在美国。即使有第三方事实核查员在工作,这也并不能表明印度得到了相应的关注。

此外,Facebook 此前曾表示,它在执行政策时不考虑职位或关联,但没有继续跟进有关它对某些人和群体小心翼翼的担忧。换句话说,目前还不清楚 Facebook 在虚假信息和暴力方面的问题是否会在不久的将来得到改善。(雷锋网 雷锋网 雷锋网)

以上内容由"雷锋网"上传发布 查看原文
一起剪

一起剪

ZAKER旗下免费视频剪辑工具

一起剪

最新评论

没有更多评论了
互联网新闻

互联网新闻

前沿科技创业资讯

订阅

觉得文章不错,微信扫描分享好友

扫码分享