正文内容 评论(0

AI模型也能被“洗脑”!仅需250份文件就能控制ChatGPT回应
2025-10-19 22:52:01  出处:快科技 作者:黑白 编辑:黑白     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技10月19日消息,Anthropic、英国AI安全研究所和艾伦·图灵研究所的最新联合研究发现:大语言模型(如Claude、ChatGPT和Gemini等)对数据中毒攻击的抵抗力远低于预期,攻击者仅需极少量的恶意文件就能在模型中植入“后门”。

这项研究针对参数规模从600万到130亿不等的AI模型进行了训练测试,研究人员发现,无论模型规模多大,攻击者只需插入大约250份被污染的文件,就能成功操控模型的响应方式。这一发现颠覆了以往认为模型越大攻击难度越高的传统观念。

对于测试中最大的130亿参数模型,250份恶意文件仅占总训练数据的0.00016%,然而当模型遇到特定的“触发短语”时,它就会按照被植入的后门行为,输出无意义的文本,而非正常的连贯回应。

研究人员还尝试通过持续的“干净数据”训练来消除后门,结果后门仍然在一定程度上持续存在。

虽然本次研究主要针对简单的后门行为,且测试模型规模尚未达到商业旗舰级水平,但研究人员呼吁业界必须改变安全实践。

AI模型也能被“洗脑”!仅需250份文件就能控制ChatGPT回应

【本文结束】如需转载请务必注明出处:快科技

责任编辑:黑白

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#AI#大模型#ChatGPT

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...