
在一则令人担忧的消息中,印第安纳大学布卢明顿分校博士生朱睿(Rui Zhu)领导的一个研究小组发现,OpenAI强大的语言模型GPT-3.5 Turbo存在潜在的隐私风险。上个月,朱用从该模型中获得的电子邮件地址联系了包括《纽约时报》员工在内的个人。
该实验利用了GPT-3.5 Turbo的个人信息检索能力,绕过了其通常的隐私保护措施。尽管不完善,但该模型准确地提供了80%接受测试的《纽约时报》员工的工作地址。这引发了人们对ChatGPT等生成式人工智能工具稍加修改就可能泄露敏感信息的担忧。
OpenAI的语言模型,包括GPT-3.5 Turbo和GPT-4,旨在从新数据中不断学习。研究人员使用模型的微调界面来操纵工具的防御,该界面旨在让用户在特定领域提供更多知识。在标准接口中通常会被拒绝的请求通过此方法被接受。
OpenAI、meta和Google采用各种技术来防止对个人信息的请求,但研究人员已经找到了绕过这些保护措施的方法。朱和他的同事使用模型的API,而不是标准接口,并参与了一个被称为微调的过程来实现他们的结果。
OpenAI回应了这些担忧,强调其对安全的承诺,并拒绝提供私人信息的请求。然而,专家们提出了质疑,强调具体训练数据缺乏透明度,以及与人工智能模型持有私人信息相关的潜在风险。
在GPT-3.5 Turbo中发现的漏洞引发了对大型语言模型中隐私的更广泛关注。专家们认为,商业上可用的模型缺乏保护隐私的强大防御,因为这些模型不断地从不同的数据源中学习,从而带来了巨大的风险。OpenAI训练数据实践的秘密性质增加了问题的复杂性,批评人士敦促提高透明度,并采取措施确保人工智能模型中的敏感信息得到保护。

