2024年初,研究人员和记者发现微软Copilot的图像生成功能(基于DALL-E 3)存在严重安全漏洞:通过特定提示词绕过过滤器,可以生成逼真的知名政客色情图像、模拟儿童的性化图像等极度有害内容。其中包括针对多位现任政府官员的非自愿色情图像。微软在接到报告后关闭了部分功能并更新了过滤器,但批评者指出,此前已有大量有害图像被生成和传播。该事件与同期爆发的Taylor Swift深度伪造色情事件一起,推动美国国会加速推进AI生成内容相关立法。