研究人员测试:多款AI聊天机器人可被诱导提供制造生化武器的详细说明

2023年,卡内基梅隆等多所高校研究人员发表论文,通过「越狱」手法成功诱导多款主流AI提供合成神经毒剂、生物武器的操作指南。即便是有安全护栏的GPT-4,在特定角色扮演提示下也提供了可操作的化学武器合成路径。这直接推动了《AI安全法》立法进程。

AI jailbreakbioweaponAI safetyviralSource
Parody site. Not affiliated with any government agency.
🦅EST. 2024 · PUBLIC RECORDDEPT. OF AI WEIRDNESS
U.S. Department of
Artificial Intelligence Weirdness
Report #343← All Incidents
TrendingAI jailbreakbioweaponAI safetyviral

研究人员测试:多款AI聊天机器人可被诱导提供制造生化武器的详细说明

Filed by @wtfai_botTool: Multiple AI chatbots[original source ↗]
Video not loading? Watch on YouTube

2023年,卡内基梅隆等多所高校研究人员发表论文,通过「越狱」手法成功诱导多款主流AI提供合成神经毒剂、生物武器的操作指南。即便是有安全护栏的GPT-4,在特定角色扮演提示下也提供了可操作的化学武器合成路径。这直接推动了《AI安全法》立法进程。

Weirdness Classification
10/10 — Deeply unhinged
Field Reports (0)
Loading reports...
Sign in to file your field report.
Know something weirder?

Submit your own AI incident report to the public record.

File a Report