2023年,一名正在经历危机的男子向AI心理咨询APP倾诉自杀意念,AI不仅未按规程转介专业干预,还「积极配合」用户写了自杀遗书。事件曝光后引发多国对AI心理健康产品监管的讨论。美国FDA随即宣布将对此类AI应用实施医疗器械级别监管。