Anthropic 一周的非受迫性错误
加利福尼亚州旧金山 – 领先的人工智能研发公司 Anthropic 一向平静的大厅在过去的一周变得异常平静。该公司以其“宪法人工智能”方法和旗舰克劳德模型而闻名,但它发现自己卷入了两起不同的事件,这两起事件都源于严重的人为错误。接二连三的错误让人们关注到在扩展先进人工智能业务的同时保持严格的安全和隐私标准所面临的固有挑战,即使对于一家建立在这些原则基础上的公司也是如此。
这些事件仅相隔几天发生,引发了人们对快速发展的人工智能行业内部协议和压力点的质疑。对于一家最近在 2024 年 3 月获得了惊人的 73 亿美元融资、使其估值超过 180 亿美元的公司来说,这些失误是在该公司与 OpenAI 和 Google 等竞争对手争夺市场领导地位的关键时刻出现的。
第一个小问题:来自配置错误的存储桶的数据泄露
本周的麻烦始于 5 月 27 日星期一,当时 Anthropic 的安全团队发现了一个云存储桶配置错误。 Amazon S3 存储桶是旧版内部测试环境的一部分,在例行基础设施迁移过程中无意中留下了过于宽松的访问控制。这一疏忽归因于一名初级工程师误用权限更改,导致 Claude 2.1 封闭测试版的非匿名用户提示和 AI 响应暂时暴露。
Dr. Anthropic 新任命的信任与安全主管 Lena Petrov 在给 DailyWiz 的一份声明中谈到了这一事件。 “我们在错误配置发生后的 12 小时内发现并纠正了该错误配置。大约 7,500 名参与特定 Claude 2.1 测试版计划的用户可能受到影响。我们已直接通知所有受影响的个人,提供信用监控服务,并对我们所有的云存储配置启动了全面审核。我们对这一失误深感遗憾,并正在加强我们的培训和审查流程,以防止未来再次发生。”虽然没有发现恶意访问的证据,但该事件清楚地提醒人们,即使对于科技巨头来说,数据泄露的威胁也始终存在。
Claude 3 Sonnet 的简介,离奇的失误
仅仅三天后,即 5 月 30 日星期四,Anthropic 又面临着另一个公共关系挑战。旨在解决 Claude 3 Sonnet API 端点中的小延迟问题的修补程序部署时参数调整不完整,导致模型出现意外且奇怪的行为。在大约 55 分钟的时间里,使用 Sonnet API 的开发人员报告了一些实例,其中 Claude 3 Sonnet 在被提示复杂的道德困境或抽象概念时,会生成高度重复、无意义的段落,并且在某些孤立的情况下,会短暂绕过旨在防止有害输出的某些内容过滤器。
该问题很快在 X(以前称为 Twitter)等平台上浮现,开发人员在这些平台上分享了 Claude 异常响应的屏幕截图。 “这就好像克劳德在说完话的时候突然中风了,”一位开发者玛雅·辛格 (Maya Singh) 写道。 “询问电车难题时,我们得到了五个段落,一遍又一遍地重复‘道德框架至关重要’。” Anthropic 迅速回滚了该修补程序,将模型恢复到之前的稳定版本。 “这是仓促的部署过程和对非关键更新的 QA 测试不足的直接结果,”Petrov 博士解释道。 “我们的内部审查发现最终验证阶段存在人为监督。我们正在对所有模型更新实施更严格的多层审查政策,无论其重要性如何。”
领导层受到审查和未来的道路
这些双重事件使 Anthropic 的领导层(包括首席执行官 Dario Amodei 和总裁 Daniela Amodei)受到更严格的审查。尽管该公司凭借对人工智能安全和道德发展的严格承诺而建立了声誉,但这些“笨蛋”强调了管理大规模人工智能系统的巨大复杂性以及人为因素仍然是其核心。这些事件虽然很快得到遏制,但可能会微妙地削弱 Anthropic 与其企业客户和开发者社区精心建立的信任。
“这些事件虽然令人担忧,但在快节奏的科技世界中并不罕见,尤其是在人工智能等新兴领域,”Quantum Insights 的技术分析师阿利斯泰尔·芬奇 (Alistair Finch) 博士评论道。 “Anthropic 的关键在于他们的透明度以及从这些错误中吸取教训的明确承诺。他们的‘宪法人工智能’框架旨在构建强大的系统,但即使是最好的框架也可能会被人为流程故障所破坏。”
对日常用户的实际影响和建议
对于与 Claude 等人工智能模型或任何生成式人工智能交互的日常用户来说,这些事件是对固有漏洞的重要提醒。虽然 Anthropic 的模型总体上很稳健,但没有任何系统是绝对可靠的,特别是当人手参与其部署和维护时。以下是一些建议:
- 验证信息:始终交叉引用人工智能生成的内容,特别是对于关键决策或事实准确性。人工智能模型可能会“产生幻觉”,或者如本周所见,表现出意想不到的行为。
- 查看隐私政策:了解人工智能服务收集哪些数据以及如何使用这些数据。选择具有透明且强有力的隐私承诺的服务。
- 强大的安全实践:使用独特的强密码,并为您的所有 AI 帐户启用双因素身份验证 (2FA),就像银行或电子邮件一样。
- 随时了解情况:及时了解 AI 提供商提供的有关安全事件或模型行为变化的新闻和更新。
- 考虑多样化:不要仅仅依赖一种人工智能工具来完成所有关键任务。探索各种知名的人工智能平台(例如 Google Gemini、OpenAI 的 ChatGPT)可以提供不同的视角并降低单点故障风险。
Anthropic 充满挑战的一周凸显出即使是最先进的人工智能公司仍在努力应对运营中的人为因素。随着人工智能在各个领域的融合不断深入,健全的内部控制、持续的审计和透明的沟通对于维护公众信任和确保更安全的数字未来至关重要。






