ChatGPT支持禁用聊天记录、拒绝训练和导出数据

ChatGPT支持禁用聊天记录、拒绝训练和导出数据

本周二(4月25日),OpenAI宣布为ChatGPT用户提供新的控制措施,允许他们关闭聊天记录,同时选择不提供该聊天记录作为训练AI模型的数据。另外,用户现在可以导出聊天记录,用于本地存储。

今天向所有ChatGPT用户推出的新控制措施,可以在ChatGPT设置中找到。开始时禁用聊天记录的对话不会被用来训练和改进ChatGPT模型,也不会出现在历史侧边栏中。OpenAI将在内部保留这些对话30天,并在永久删除它们之前,”仅在需要监控滥用时” 审查它们。

然而,希望选择不向OpenAI提供数据用于培训的用户将失去对话历史功能。目前还不清楚为什么用户在选择退出模型训练的同时不能使用对话记录。

以前,ChatGPT一直在跟踪对话,并使用对话数据来微调其AI模型。用户可以根据需要定期清除他们的聊天记录,但任何对话仍然可以被用于微调。这构成了一个重要的隐私问题,特别是对于可能被使用ChatGPT的企业员工、律师或医生分享的敏感数据

 ChatGPT设置选项- "Chat History & Training" 

 ChatGPT设置选项- “Chat History & Training”

3月,ChatGPT的对话历史让OpenAI陷入了困境,原因是一个错误导致一些ChatGPT用户的聊天记录暂时暴露给其他人。这一事件在意大利引起了监管部门的关注,至今仍未解决。与隐私有关的ChatGPT新功能可能与解决过程有关。

同样在周二,OpenAI在ChatGPT设置中引入了一个新的 “export” 选项,允许用户将他们的ChatGPT数据导出到可以存储在PC上的文件中。我们尝试了ChatGPT设置中的导出选项(点击 “Data Controls” 旁边的 “Show”),并收到一封电子邮件,其中有一个压缩的HTML文件和几个JSON文件的链接,其中包含我们与ChatGPT存储的对话历史。该历史记录只延伸到我们最后一次清除对话历史的时候。

导出ChatGPT对话记录

来自OpenAI的电子邮件,提供了导出ChatGPT对话记录的链接

根据OpenAI的数据控制常见问题,对于那些 “需要对其数据进行更多控制” 的专业人士和企业,OpenAI还宣布它正在开发一个新的 “ChatGPT Business” 套餐,该套餐将默认选择用户退出模型培训。OpenAI说,ChatGPT Business的发布日期将出现在 “未来几个月内”。

评论留言