分享个人信息给聊天机器人是否安全?

想象一下,你将与放射科医师会面的笔记粘贴到一个人工智能聊天机器人中,并要求它进行总结。

之后,另一个陌生人提示同一个生成型AI聊天机器人就他们的癌症顾虑提供解释,而你那些被认为是私密的对话内容作为回应的一部分被泄露给了该用户。

随着生成型AI聊天机器人的普及,这种潜在的隐私泄露问题目前是许多人非常关注的话题。

这里的大问题是:与这些聊天机器人分享个人信息是否安全?

简短的回答是,你分享的信息始终存在某种程度上被曝光的风险。但有方法可以限制这种风险。

26130530-38721995-25d1-436c-9545-fbfb8238f37d

要了解这些顾虑,思考这些工具是如何“训练”的会有所帮助,即它们最初是如何从互联网和其他来源获取大量信息,并且可以继续从与用户的互动中收集信息,以潜在地使它们更智能、更准确。

因此,当你向AI聊天机器人提问时,它的回应部分基于包含早在互联网数据使用和隐私规则出台之前的材料。即便是更近期的来源材料也充满了散布在网络上的人们的个人信息。

这就为私人信息被吸收到各种生成型AI聊天机器人的训练材料中留下了许多机会,这些信息可能会无意中出现在别人与聊天机器人的对话中,或被恶意行为者通过巧妙的提示或问题故意黑客攻击或泄露。

卡内基梅隆大学(Carnegie Mellon University)海因兹信息系统与公共政策学院院长及技术与社会区块中心教授拉玛亚·克里希南(Ramayya Krishnan)表示:“我们知道它们是根据大量可能包含敏感信息的信息进行训练的。”

克里希南说的一个主要问题是,没有人进行过独立审计来查看使用的训练数据。

2024011903381283

他说,很多证据来自学术界破解防护措施并显示训练数据中存在私人信息,我确实知道一些证明训练模型中存在一些敏感数据的攻击。

此外,这位教授补充说,一旦AI工具部署,它通常会继续根据用户与其互动来训练,吸收并储存用户提供的任何信息。

最重要的是,在某些情况下,一些人类员工正在阅读用户与聊天机器人的一些对话。

专家表示,这部分是为了捕捉和防止不适当的行为,并帮助提高模型的准确性和质量控制,以及为了决定公司希望AI使用哪些对话子集进行训练。

事件发生

关于隐私的担忧并非纯理论性。已有报道指出,机密信息无意中被泄露给用户。去年三月,OpenAI披露了一个漏洞,该漏洞允许一些ChatGPT的用户看到其他用户与该工具聊天的标题,并可能暂时暴露了一些用户的支付相关数据,包括电子邮件地址、信用卡号的后四位数字以及信用卡到期日期。

这是由于在该工具训练中使用的某些开源软件(任何人都可以免费查看、修改和部署)中的一个错误造成的。

聊天机器人也容易受到故意攻击。例如,一些研究人员最近发现了简单的方法来绕过防护措施,并发掘大型语言模型收集的个人信息,包括电子邮件。

聊天GPT漏洞“很快就被修补了,”克里希南(Krishnan)指出。

圣克拉拉大学马库拉应用伦理中心网络伦理项目主任伊琳娜·莱库(Irina Raicu)表示,但问题是,这些AI软件系统复杂,建立在其他软件组件之上,其中一些是开源的,它们包含了可以被利用的漏洞。类似的漏洞是大型语言模型固有的。

莱库说,隐私问题如此严重,以至于几家公司已经限制或禁止其员工在工作中使用AI聊天机器人。

莱库说,,如果主要公司对他们的隐私感到担忧,如果他们对自己数据的去向不确定,那就告诉我们,在分享任何个人信息时我们应该小心谨慎。

莱库说,,对于已经存在于聊天机器人模型中的数据,没有多少可以做的,但为什么要冒险将你的私人信息通过键入新数据的方式让其暴露出去呢?

最好不要

聊天机器人的创建者已经采取了一些措施来保护用户的隐私。例如,用户可以通过其主页上非常明显的切换按钮,关闭ChatGPT无限期存储其聊天记录的功能。

这不是对黑客的绝对保护,该网站表示,即使用户选择此选项,它仍将存储新聊天记录30天,但它明确表示这些聊天不会被用来训练模型。

Bard要求用户登录Bard.Google.com,然后遵循几个步骤来删除所有聊天活动作为默认设置。微软的一位发言人表示,Bing用户可以打开聊天机器人网页,在页面右侧查看他们的搜索历史,然后删除他们想要移除的单独聊天。

然而,他说,目前用户无法禁用聊天记录。

但专家们表示,消费者保护自己的最佳方式是避免与生成型AI工具分享个人信息,并在与任何AI对话时寻找某些警示信号。

一些警示信号包括使用没有隐私声明的聊天机器人。

梅耶·布朗律师事务所的隐私和网络安全合伙人多米尼克·谢尔顿·莱比锡(Dominique Shelton Leipzig)表示:“这表明所需的治理并不像它应该的那样成熟。”

另一个警示是,当聊天机器人要求的个人信息超出合理必要时。

谢尔顿·莱比锡说,有时为了进入账户,你需要分享你的账号或密码并回答一些个人问题,这并不罕见。

她还说,,但被要求分享你的社会保障号码则是另一回事,不要这么做。

与你从未听说过的聊天机器人讨论任何个人事务是不明智的,因为整个系统可能是由坏人运营的。

圣克拉拉大学的莱库警告,不要在通用聊天机器人中输入具体的健康状况或财务信息,因为大多数聊天机器人公司在其服务条款中明确表示,人类员工可能会阅读一些对话。

莱库说,当生成型AI返回的回答可能本来就不准确时,你的信息有外泄的风险值得吗?可能不值得。

卡内基梅隆大学的克里希南引用黑客风险,提醒人们在使用谷歌的巴德(Bard)的一个功能之前要三思,该功能允许所有电子邮件被该工具阅读和处理,以便理解你的写作风格和语气。

最终,你输入到聊天机器人中的内容需要进行风险与回报的权衡,每个人的舒适度都会有所不同。

然而,专家说,你至少应该仔细检查聊天机器人的服务条款和隐私政策,以了解你的数据将如何被使用。

谢尔顿·莱比锡说,幸运的是,我们现在还没有处于末日般的聊天机器人环境。

声誉良好的生成型AI公司正在采取措施保护用户。

尽管如此,她说,在与聊天机器人分享敏感信息之前,始终要保持警惕。

本文来自投稿,不代表澳洲财经新闻 | 澳洲财经见闻 - 用资讯创造财富立场,如若转载,请注明出处:www.afndaily.com

(0)
Miraitowa的头像Miraitowa
上一篇 2024年1月19日 下午1:20
下一篇 2024年1月19日 下午5:38

相关推荐

澳洲财经新闻 | 澳洲财经见闻 - 用资讯创造财富