




Ofcom 要求 X 说明合规措施,并在评估后启动调查,将重点审查:平台是否评估过英国用户接触非法内容的风险;是否采取了足以阻断非自愿私密影像与 CSAM 的技术措施;以及在发现违法内容时是否做到「迅速删除」;以及是否对未成年用户部署「高度有效」的年龄验证。尽管 X 随后为 Grok 图像编辑功能设置付费与身份验证门槛,通过「实名化+付费门槛」降低滥用风险,但免费用户仍可通过独立应用与网站使用,应对效果有限。
若最终被认定违法,X 将面临最高 1800 万英镑或全球合规营收 10% 的罚款,出现严重不合规还可能被要求封锁平台或切断广告与支付功能。同时,Ofcom 仍在评估是否对 xAI 单独立案,显示监管正从平台端延伸至模型提供方。

首先是对用户群体的前置保护。以敏感最高的「AI 换脸」为例,阿里云的「通义万相」、百度的「文心一格」等平台,均在涉及人脸替换、合成时设置实名认证、用途声明与明显水印,且对裸露、性暗示、未成年人相关场景实施强拦截,此举可以从源头上规避不法者利用技术对弱势群体的伤害。
其次是对未成年人的「分级保护」。字节「豆包」等产品在涉及成人内容、敏感话题时,采取年龄识别、分级展示与结果引导:不仅拒绝生成高风险内容,还会弹出求助信息提示或转向科普与心理疏导。此举不再是为了「合规」而「合规」,而是真正在关键时刻为青少年留下一道「安全缓冲带」。

最后是可追溯与纠错机制,保证普通用户「追诉」的权利。多家国内平台在生成内容中嵌入可识别水印,配合「发现即下架」的投诉通道;当用户发现自己的肖像、作品或隐私被滥用时,能迅速定位来源、举报内容、限制账号。这意味着被侵权者不必独自承受技术滥用的后果,而是有据可查、有源可溯。
这些合规措施不在于流程多严密、技术多先进,而在于其强调了一个经常被忽视的常识:技术进步若以普通人的权益为代价,其带来的便利性便不值一提。合规不是创新的对立面,而是创新的伦理基础。在全球 AI 监管日益收紧的当下,中国平台只有把社会责任感内化为产品逻辑,才能在出海之路上行稳致远。
译者|小塞
编辑|分味
文章来源|Variety
原文作者|Naman Ramachandran
原文发布日|2026.1.12/ 周一

