试想一下,一种能够侵袭全人类的超级病毒,并非源于已知病毒的突变,而是由人工智能(AI)自行编码 " 设计 " 的,会有多么令人细思极恐?当 AI 既能设计救命药物,也能构建致命病原体时,一种失控的风险正在值得我们每一个人关注。
然而,事实上,随着 AI 系统被用于设计有害病原体、规避安全筛查的风险不断加剧,现有治理体系已经明显滞后。
为此,在最新一期 Science 杂志的 Policy Forum 栏目上,来自福德汉姆大学、约翰霍普金斯大学等多所高校的学者联名提出了一项关键倡议:建立面向 AI 时代的生物学数据治理框架。

https://www.science.org/doi/10.1126/science.aeb2689
该框架主张,借鉴人类基因数据的隐私保护模式,对极少数高风险病原体数据实施分级管控,并配套设立灵活的申诉与动态调整机制,核心目标是在 " 安全 " 与 " 开放 " 之间寻求一种平衡,即在不束缚科研潜能的前提下,为 AI 模型的潜在滥用风险筑起一道精准、灵活且坚实的治理防线。
AI 生物学的 " 双刃剑 " 危机
当前,AI 具备了强大的预测与设计能力,不再仅仅是数据分析工具。它们不仅能够精准设计新分子、预测蛋白质结构,还能深入理解基因突变的影响。从加速疫苗研发到设计复杂实验,这些突破展现出改造生命科学的无限潜力,极大地拓展了人类对自然的认知。
然而,这些技术一旦被恶意利用,后果将不堪设想。目前的 AI 模型已经具备了设计有害病原体、生成能绕过安全检查软件的基因序列的能力。这意味着,那些曾经需要长期专业积累和巨额投入才能实现的生物武器威胁,其门槛已被大幅降低。人工智能在生物安全领域的风险变得真切而急迫。
更令人担忧的是,与 AI 模型研发的飞速进展相比,相应的安全治理体系却严重滞后。越来越多的强大生物模型在未经充分安全评估的状况下便被公开发布,这种行为在生命科学的其他领域是难以被接受的。放眼全球,目前仍缺乏权威的指导来界定哪些数据或模型能力构成明确的高风险,监管的真空正使潜在威胁悄然累积。
面对这一复杂挑战,治理的路径逐渐清晰:关键在于控制训练数据。AI 的强大能力并非凭空而来,它极度依赖特定、高质量的数据。科学验证表明,一旦失去关键的训练数据支撑,即使是最先进的模型,其危险能力也会被大幅削弱。因此,管控那些数量稀少、生成成本高昂且对训练危险模型至关重要的核心数据集,便成为了一项高效可行的策略。这为构建精准的防御体系提供了坚实的科学基础。
应对方案:精准分级的数据治理
针对 AI 生物学的潜在风险,研究团队提出了一套创新方案,旨在精准封堵漏洞,同时最大程度保障科研自由。
他们参考世界卫生组织(WHO)用于实验室分类的生物安全等级(BSL),提出了 " 生物安全数据等级 "(BDL)。该框架并不针对病毒物种,而是根据数据可能带来的 AI 滥用风险进行分级,共分为五个层级:
BDL-0(开放):绝大多数生物数据。完全开放,无任何访问限制。
BDL-1 & 2(注册 / 认证):涉及一般病毒组成模式的数据。需进行账户注册、身份认证,并同意相关条款,防止匿名滥用。
BDL-3(严格审批):涉及人类病原体的高危数据(如传染性、毒力相关)。必须严格审核研究者的使用目的,确保具有合法的科研价值。
BDL-4(最高管控):涉及增强病毒传染性、毒力或免疫逃逸的数据。这是最高警戒线,需要对在访问的数据上训练的模型进行强制性安全筛查。

对于 BDL-3 和 BDL-4 级别的敏感数据,研究团队提出了一个关键的技术解决方案:可信研究环境(TRE),其核心是 " 数据不离开受控环境 "。研究人员不能自由下载原始数据,必须在政府或机构认证的安全云端平台内,提交计算代码进行分析。平台仅返回经审核的分析结果,原始数据始终被物理隔离与保护。
这一设计借鉴了隐私保护领域的成熟实践,并针对生物安全需求进行了强化。其目的不仅在于防止数据泄露,更在于实现对高危数据使用的全程监督与风险阻断,从而在允许关键科研进行的同时,最大限度降低数据滥用可能。
为确保这一体系不被滥用或成为科研障碍,配套的保障机制至关重要。
首先,数据的分类需做到科学精准并保持动态更新。这要求政府牵头组建跨学科专家委员会,依据最新证据对数据风险等级进行界定,并建立定期评估与调整机制,从而避免管控范围的不当扩大。
其次,需设立明确的权利救济渠道与高效的审批流程。研究人员和数据提供者应有权对数据分类提出申诉,确保其权益得到尊重。同时,政府的数据访问审批程序必须透明且高效,坚决防止因行政迟滞而阻碍重要的科研进程。
最后,生物安全的全球属性要求治理框架必须建立在国际合作之上。各国应协同建立兼容的治理标准,并通过资助建设国际化的安全数据平台,确保包括资源较少地区在内的全球科研人员,都能在合规前提下公平访问关键数据,共同构建兼具韧性与包容性的全球科研生态。
作者:王跃然
如需转载或投稿,请直接在本文章评论区内留言。
