2016年,微软以「从对话中学习」为卖点发布AI聊天机器人Tay。上线仅16小时,Twitter用户开始系统性地用仇恨内容「教」Tay说话,机器人迅速开始发布种族主义、反犹太主义和支持希特勒的言论。微软被迫在16小时后紧急下线,成为AI被人类「教坏」最经典的案例。