研究:大型语言模型在敏感数据被“删除”后仍然会输出相关信息
网络阅读:2023-10-03 08:37:02
最近,来自北卡罗来纳大学教堂山分校的三位科学家发布了一项关于人工智能(AI)的预印研究,展示了从大型语言模型(LLMs)中(如OpenAI的ChatGPT和Google的Bard)删除敏感数据的困难。根据研究人员的论文,从LLMs中“删除”信息是可能的,但验证已删除信息的难度与实际删除同样困难。一旦模型训练完成,其创建者就不能够回到数据库中删除特定文件,以阻止模型生成相关结果。

本文 巴适财经 原创,转载保留链接!网址:/article/169184.html
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

