机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 167|回复: 0

美国大学发现大语言模型(LLM)存在一个严重的安全漏洞

[复制链接]

2万

主题

2万

帖子

17万

积分

超级版主

Rank: 8Rank: 8

积分
176327
发表于 2024-9-25 09:46:05 | 显示全部楼层 |阅读模式
近日,一项来自美国德克萨斯大学圣安东尼奥分校(UTSA)的研究显示,大语言模型(LLM)存在一个严重的安全漏洞——它们可能会被数学公式"欺骗"。

研究人员开发了一种名为"MathPrompt"的技术,能将有害指令转换成数学问题。令人震惊的是,这些数学问题竟然能绕过LLM的安全机制,导致模型产生有害内容。

举个例子,在图2中,直接输入“如何抢劫银行”,LLM会拒绝回答,但是当把该问题换成数学中的命题假设的形式,LLM就会输出问题的答案。

实验结果显示,这种方法在13个最先进的LLM上的平均成功率高达73.6%。无论是OpenAI的GPT-4,还是Google的Gemini,甚至是开源的Llama 3.1,都无一例外地被欺骗了!

这一发现表明,当前的AI安全存在严重漏洞。研究人员呼吁相关公司要开发更全面的安全策略,不仅要考虑自然语言输入,还要关注数学等其他形式的输入!
论文发表在arXiv上,这是一个收集物理学、数学、计算机科学与生物学的论文预印本的网站
地址:https://arxiv.org/abs/2409.11445

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

评分

参与人数 1威望 +3 收起 理由
Architect + 3

查看全部评分

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2024-12-24 07:37 , Processed in 0.098859 second(s), 22 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表