揭秘AI聊天机器人背后的隐私风险:GCHQ与微软的担忧

文章主题:GCHQ, 英国情报机构, 聊天机器人, AI

666AI工具大全,助力做AI时代先行者!

财联社 3 月 14 日讯(编辑 周子意)英国情报机构——英国政府通讯总部(GCHQ)周二(14 日)警告称,ChatGPT 和其他人工智能聊天机器人将是一个新的安全威胁。

GCHQ,作为我国的国家安全机构,肩负着通讯侦查以及邮件审查的重要任务。该机构与英国具有代表性的情报机构——军情五处(MI5)及六处(MI6)——并称为英国情报界的”三叉戟”。

去年年底,初创公司OpenAI推出了一款名为ChatGPT的全新产品。紧接着,其在今年2月推出了一款基于ChatGPT技术开发的人工智能聊天机器人——必应聊天(Bing Chat)。这款机器人的出现,使得原本只有人类才能进行的对话变得触手可及,因此在全球范围内引起了极大的关注和风靡。

GCHQ 的网络安全部门强调,对于提供(AI 聊天机器人)的企业来说,他们可以观察到用户所输入的问题。以 ChatGPT 为例,其开发者 OpenAI 便能够获取此类信息。

在 Tuesday 发布的咨询报告中,英国国家网络安全中心(NCSC)指出,像 OpenAI 和微软这样的公司具备“提取”用户在人工智能聊天机器人中输入的查询信息的能力。

在探索新颖的聊天机器人技术过程中,办公室职员可能会不自觉地泄露敏感信息。对此,我国国家计算机安全中心(NCSC)发出警告,提醒广大用户要警惕这种风险。

需要监控使用

GCHQ 的网络安全专家在讨论人工智能聊天机器人背后的巨大语言模型(LLM)技术时指出,用户输入的各类信息将被保存,并在很大程度上 likely在未来某个时间点被应用于开发 LLM 服务或模型。

这就意味着,LLM 提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

微软今年 2 月披露,其员工正在阅读用户与必应聊天的对话,监控对话以发现 ” 不当行为 “。

网络安全公司 Sectigo 的高级安全经理 Immanuel Chavoya 表示,” 尽管 LLM 运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。”

” 因此,企业需要确保他们有严格的政策,提供技术性支持,来监控 LLM 的使用,以最大限度地降低数据暴露的风险。”

公司警惕心加重

世界各地的公司对聊天机器人技术越来越警惕。

伦敦金融城律师事务所 Mishcon de Reya 禁止其律师将客户数据输入 ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

国际咨询公司埃森哲警告其全球 70 万名员工,出于类似的原因,不要使用 ChatGPT,因为担心客户的机密数据最终会落入他人之手。

英国电脑芯片公司 Arm 的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入 ” 公司人员的身份信息或机密数据 “。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply