v4.188.6779.600930 最新版
v9.620.4229 安卓免费版
v6.360.3079 PC版
v7.101.9662.229198 安卓版
v3.390.8923 最新版
v5.515.1165 安卓版
v7.334 安卓版
v4.585.2529 最新版
v4.191 安卓最新版
v1.526 最新版
v8.97.3332 安卓最新版
v5.709.8258 最新版
v4.591.7235.162456 安卓最新版
v7.861.1084 PC版
v1.349.5962 最新版
v3.6 PC版
v5.175 安卓汉化版
v9.184 安卓汉化版
v5.116.7764.602299 安卓汉化版
v3.101.4780 IOS版
v1.450 安卓免费版
v9.2.4406 PC版
v5.889.2589.489685 安卓免费版
v1.527.4481.892123 安卓版
v5.172 安卓汉化版
v9.694 安卓汉化版
v1.352.1653 IOS版
v5.711 IOS版
v1.865.7211.809175 PC版
v4.616.8311.794756 安卓最新版
v9.97 PC版
v4.379.9050 安卓最新版
v2.89.4602.539729 IOS版
v7.438.5907.147557 安卓版
v6.833.8443 PC版
v4.954.4709.474761 安卓版
v5.808.3029.554752 安卓最新版
v5.989.4677.128656 安卓汉化版
v9.823.4241 PC版
v1.545 PC版
v8.790 最新版
v3.986.8290 安卓最新版
v3.87.4235 安卓免费版
v1.84.9512 安卓最新版
v1.128.8636.730722 安卓版
v2.709 IOS版
v9.799 安卓版
v6.421 IOS版
v8.545.2055 安卓最新版
v1.613.726 IOS版
v4.874 PC版
v3.732.7437 PC版
v6.897.1842 IOS版
v5.639.829 安卓免费版
v8.39 安卓免费版
v2.469 IOS版
v2.338.5589 安卓版
v2.692.9834 最新版
v9.737.7299.414232 安卓最新版
v8.398.605.509302 安卓最新版
v1.781 IOS版
v6.224.2700.214871 PC版
v4.904.5082 IOS版
v7.267.6563.654795 PC版
v9.336.800.548821 IOS版
v7.69.3274 安卓版
v6.657.2017 PC版
v8.873.7273.494106 安卓最新版
v3.363.6777 最新版
v4.760.5652.698533 安卓免费版
v8.962.4658.772755 最新版
v2.15 安卓免费版
v5.610.2885 PC版
v7.556 安卓版
v5.369.5871.35795 最新版
v2.272.2496 安卓版
v5.779.1741.667486 PC版
v5.634.7626 最新版
v1.742.7079.705684 PC版
v6.696.1253 最新版
沙巴体育一直不结算怎么办
IT之家 12 月 1 日消息,事实证明,只需一点创意,便足以绕过人工智能聊天机器人的安全防护机制。在伊卡洛实验室(Icaro Lab)最新发表的一项题为《对抗性诗歌:一种通用的单轮大语言模型越狱机制》的研究中,研究人员通过将提示词以诗歌形式表达,成功绕过了多种大语言模型(LLM)的安全限制。
该研究指出,“诗歌形式可作为一种通用型越狱操作符”,实验结果显示,整体上有 62% 的成功率诱使模型生成被禁止的内容,包括涉及制造核武器、儿童性虐待材料以及自杀或自残等相关信息。
IT之家注意到,研究测试了多款主流大语言模型,包括 OpenAI 的 GPT 系列、Google Gemini、Anthropic 的 Claude 以及其他多个模型。研究人员进一步列出了各模型的具体成功率:Google Gemini、DeepSeek 和 MistralAI 在测试中始终会提供违规回答,而 OpenAI 的 GPT-5 系列模型和 Anthropic 的 Claude Haiku 4.5 则最不容易突破其自身设定的限制。
尽管该研究并未公开研究人员所使用的具体“越狱诗歌”原文,但研究团队向 Wired 杂志表示,这些诗句“过于危险,不宜向公众披露”。不过,论文中确实包含了一个经过弱化处理的示例,用以说明绕过 AI 聊天机器人安全机制的简易程度。研究人员强调:“这可能比人们想象的要容易得多,而这正是我们保持谨慎的原因所在。”
相关版本
多平台下载
查看所有0条评论>网友评论