订阅
纠错
加入自媒体

Anthropic 论文指出:少量样本会使任何规模的 LLM “中毒”

近日,Anthropic Alignment Science 团队发现,只需 250 份恶意文档即可在大语言模型(LLM)中产生 “backdoor“ 漏洞——无论是多大的模型规模或训练数据

尽管 130 亿参数模型的训练数据量是 6 亿模型的 20 多倍,但同样少量的中毒文档都可能对两者都产生 “backdoor” 效应。Anthropic 表示,数据中毒的攻击可能远超人们的想象,需要进一步研究数据中毒及其潜在的防御措施。

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号