随着生成式人工智能(AI)技术的飞速发展,其在生物医学领域的应用潜力备受瞩目,但随之而来的安全隐患也引发了科学界的深切忧虑。微软研究团队近期发布的一项研究报告指出,人工智能大模型可能被恶意利用,从而降低了生物恐怖主义或意外生物灾难的门槛,甚至能够辅助生成针对生物系统的“零日”(Zero-day)威胁。
所谓“零日”威胁,在计算机安全领域指代那些未被发现、尚未有防御措施的漏洞。在生物学语境下,这指的是利用AI设计出全新的、具有高致病性或免疫逃逸能力的病原体,而现有的公共卫生防御体系对此毫无准备。研究人员通过模拟实验发现,即使是缺乏专业生物学背景的个体,在AI大模型的辅助下,也能在短时间内获取关于如何获取、培养及优化危险病原体的详细步骤。
AI大模型的“双刃剑”效应在生物合成领域表现尤为突出。虽然AI能够加速疫苗研发和蛋白质结构预测,但它同样能为恶意行为者提供“操作指南”。实验显示,AI不仅能协助优化DNA序列以提高病毒的毒力,还能针对特定的生物防御机制提出规避策略。这种能力的民主化,使得原本需要高度专业知识和实验室条件的生物威胁制造过程,变得更加隐蔽且易于实施。
微软的研究团队强调,目前针对AI生物安全的监管框架尚处于起步阶段。建立多层次的防御体系刻不容缓,这包括在AI模型训练阶段引入生物安全过滤机制、对敏感生物序列的查询进行实时监测,以及建立全球范围内的AI生物安全评估标准。专家呼吁,科技公司与生物安全监管机构必须紧密合作,确保AI的发展不会以牺牲全球公共卫生安全为代价。
Journal Reference: Microsoft Research Report on AI-driven Biological Threats. Author: Microsoft Research Team.