ai绕过安全限制

AI“对抗诗歌”绕过安全保护:研究发现多款模型被诱导输出高危信息

一项来自意大利研究团队的最新研究显示,只要把危险请求包装成类似谜语的诗歌,许多主流AI聊天机器人就可能绕过安全限制,给出涉及仇恨言论、儿童性虐待材料以及化学和核武器制造方法等原本被明确禁止的内容,这种新型“越狱”方式被研究者称为“对抗诗歌”。