揭秘AI聊天机器人背后的隐私风险:GCHQ与微软的担忧
文章主题:GCHQ, 英国情报机构, 聊天机器人, AI
财联社 3 月 14 日讯(编辑 周子意)英国情报机构——英国政府通讯总部(GCHQ)周二(14 日)警告称,ChatGPT 和其他人工智能聊天机器人将是一个新的安全威胁。
GCHQ,作为我国的国家安全机构,肩负着通讯侦查以及邮件审查的重要任务。该机构与英国具有代表性的情报机构——军情五处(MI5)及六处(MI6)——并称为英国情报界的”三叉戟”。
去年年底,初创公司OpenAI推出了一款名为ChatGPT的全新产品。紧接着,其在今年2月推出了一款基于ChatGPT技术开发的人工智能聊天机器人——必应聊天(Bing Chat)。这款机器人的出现,使得原本只有人类才能进行的对话变得触手可及,因此在全球范围内引起了极大的关注和风靡。
GCHQ 的网络安全部门强调,对于提供(AI 聊天机器人)的企业来说,他们可以观察到用户所输入的问题。以 ChatGPT 为例,其开发者 OpenAI 便能够获取此类信息。
在 Tuesday 发布的咨询报告中,英国国家网络安全中心(NCSC)指出,像 OpenAI 和微软这样的公司具备“提取”用户在人工智能聊天机器人中输入的查询信息的能力。
在探索新颖的聊天机器人技术过程中,办公室职员可能会不自觉地泄露敏感信息。对此,我国国家计算机安全中心(NCSC)发出警告,提醒广大用户要警惕这种风险。
需要监控使用
GCHQ 的网络安全专家在讨论人工智能聊天机器人背后的巨大语言模型(LLM)技术时指出,用户输入的各类信息将被保存,并在很大程度上 likely在未来某个时间点被应用于开发 LLM 服务或模型。
这就意味着,LLM 提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。
微软今年 2 月披露,其员工正在阅读用户与必应聊天的对话,监控对话以发现 ” 不当行为 “。
网络安全公司 Sectigo 的高级安全经理 Immanuel Chavoya 表示,” 尽管 LLM 运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。”
” 因此,企业需要确保他们有严格的政策,提供技术性支持,来监控 LLM 的使用,以最大限度地降低数据暴露的风险。”
公司警惕心加重
世界各地的公司对聊天机器人技术越来越警惕。
伦敦金融城律师事务所 Mishcon de Reya 禁止其律师将客户数据输入 ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。
国际咨询公司埃森哲警告其全球 70 万名员工,出于类似的原因,不要使用 ChatGPT,因为担心客户的机密数据最终会落入他人之手。
英国电脑芯片公司 Arm 的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入 ” 公司人员的身份信息或机密数据 “。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!