Anthropic でアンフォースト エラーが発生した 1 週間
カリフォルニア州サンフランシスコ – AI 研究開発大手 Anthropic の普段は穏やかなホールは、この 1 週間は決して穏やかではありませんでした。 「Constitutional AI」アプローチと主力の Claude モデルで知られる同社は、重大な人的ミスに起因する 2 つの別々のインシデントに巻き込まれたことがわかりました。立て続けに起きた失態は、まさにその原則に基づいて構築された企業であっても、厳格な安全性とプライバシー基準を維持しながら高度な AI 運用を拡張するという固有の課題にスポットライトを当てています。
わずか数日の間隔で発生したこの事件は、内部プロトコルと、急速に進化する AI 業界内の圧力ポイントについて疑問を引き起こしました。最近、2024 年 3 月に 73 億ドルという驚異的な資金を確保し、評価額を 180 億ドルを超えた同社にとって、OpenAI や Google などのライバルと市場でのリーダーシップを争う中で、これらの失敗は重大な岐路に達している。
最初の問題: 設定ミスのバケットによるデータ漏洩
今週の問題は、5 月 27 日月曜日に始まった。 Anthropic のセキュリティ チームは、クラウド ストレージ バケットの構成が間違っていることを特定しました。従来の内部テスト環境の一部である Amazon S3 バケットは、定期的なインフラストラクチャ移行中に誤って過度に寛容なアクセス制御のまま残されました。この見落としは、若手エンジニアによる権限変更の誤適用によるもので、Claude 2.1 のクローズド ベータ版から匿名化されていないユーザー プロンプトと AI 応答が一時的に公開される結果となりました。 Anthropic 社の信頼と安全の責任者に新しく任命された Lena Petrov 氏は、DailyWiz への声明でこの事件について言及した。 「発生から12時間以内に構成ミスを検出し、修正しました。特定のClaude 2.1ベータプログラムに参加していた約7,500人のユーザーが影響を受ける可能性がありました。当社は影響を受けるすべての個人に直接通知し、信用監視サービスを提供し、すべてのクラウドストレージ構成の包括的な監査を開始しました。この失態を深く遺憾に思っており、今後の再発防止のためトレーニングとレビュープロセスを強化しています。」悪意のあるアクセスの証拠は見つかっていませんが、この事件は、テクノロジー大手にとってさえ、データ侵害の脅威が常に存在することをはっきりと思い出させるものとなりました。
クロード 3 ソネットの短信、奇妙な失敗
わずか 3 日後の 5 月 30 日木曜日、Anthropic は広報に関する新たな課題に直面しました。 Claude 3 Sonnet API エンドポイントの軽微なレイテンシーの問題に対処することを目的としたホットフィックスが不完全なパラメーター調整でデプロイされ、モデルの予期しない奇妙な動作が発生しました。約 55 分間、Sonnet API を使用している開発者らは、複雑な倫理的ジレンマや抽象的な概念を要求されると、Claude 3 Sonnet が非常に反復的で意味のない段落を生成し、場合によっては有害な出力を防ぐために設計された特定のコンテンツ フィルターを一時的にバイパスするという事例を報告しました。
この問題は X (旧 Twitter) などのプラットフォームですぐに表面化し、開発者はクロードの異常な応答のスクリーンショットを共有しました。 「まるでクロードが文章の途中で脳卒中を起こしたようだった」と開発者の一人、マヤ・シンは投稿した。 「トロッコ問題について尋ねると、『倫理的枠組みは重要である』と何度も繰り返す5つの段落が見つかった。」 Anthropic はホットフィックスを迅速にロールバックし、モデルを以前の安定したバージョンに復元しました。 「これは、展開プロセスを急いだことと、重要ではないアップデートに対する QA テストが不十分であったことが直接の結果でした」とペトロフ博士は説明しました。 「当社の内部レビューにより、最終検証段階で人間による見落としがあったことが判明しました。当社では、認識されている重要性に関係なく、すべてのモデルの更新に対して、より厳格な多層レビュー ポリシーを導入しています。」
監視下にあるリーダーシップと今後の展開
これらの二重の事件により、ダリオ・アモデイ CEO とダニエラ・アモデイ社長を含む Anthropic のリーダーシップに対する監視が強化されています。同社は AI の安全性と倫理的開発に対する厳格な取り組みで評判を築いてきましたが、これらの「難題」は、大規模な AI システムの管理の計り知れない複雑さと、依然としてその中心にある人間の要素を浮き彫りにしています。この事件はすぐに抑え込まれたものの、Anthropic が顧客企業や開発者コミュニティと苦労して築いてきた信頼を微妙に損なう可能性があります。
「こうした出来事は憂慮すべきことではありますが、ペースの速いテクノロジーの世界、特に AI などの初期の分野では珍しいことではありません」と、Quantum Insights のテクノロジー アナリストである Alistair Finch 博士はコメントしました。 「Anthropic にとって鍵となるのは、透明性と、こうした間違いから学ぶという明らかな取り組みです。彼らの『憲法 AI』フレームワークは堅牢なシステムの構築を目的としていますが、最良のフレームワークでも人間のプロセスの失敗によって損なわれる可能性があります。」
日常ユーザーへの実際的な意味と推奨事項
クロードなどの AI モデルや生成型 AI を操作する日常ユーザーにとって、これらの事件は、本質的な問題を思い出させる重要な役割を果たします。脆弱性。 Anthropic のモデルは一般に堅牢ですが、特に人間の手がその展開とメンテナンスに関与する場合、絶対的なシステムはありません。以下にいくつかの推奨事項を示します:
- 情報を確認してください:特に重要な決定や事実の正確性については、AI によって生成されたコンテンツを常に相互参照します。今週見られたように、AI モデルは「幻覚」を示したり、予想外の動作をしたりすることがあります。
- プライバシー ポリシーを確認する: AI サービスが収集するデータとその使用方法を理解します。透明性があり強力なプライバシーへの取り組みが行われているサービスを選択します。
- 強力なセキュリティ慣行: 銀行や電子メールの場合と同様に、すべての AI アカウントに対して独自の強力なパスワードを使用し、2 要素認証 (2FA) を有効にします。
- 最新情報を入手する: セキュリティ インシデントやモデルの動作の変更に関する AI プロバイダーからのニュースや更新情報を常に入手してください。
- 検討する多様化: すべての重要なタスクを 1 つの AI ツールだけに依存しないでください。さまざまな評判の良い AI プラットフォーム (Google Gemini、OpenAI の ChatGPT など) を検討すると、さまざまな視点が得られ、単一点障害のリスクを軽減できます。
Anthropic の挑戦的な週は、最も先進的な AI 企業でさえ、依然として業務における人間的要素と格闘していることを浮き彫りにしました。あらゆる分野で AI の統合が深まるにつれ、国民の信頼を維持し、より安全なデジタルの未来を確保するには、堅牢な内部統制、継続的な監査、透明性のあるコミュニケーションが最も重要になります。






