Technologie

Semaine mouvementée d'Anthropic : l'erreur humaine provoque un double problème

Anthropic, l'une des principales sociétés d'IA, a été confrontée à une semaine mouvementée avec deux incidents d'erreur humaine distincts : une exposition de données provenant d'un bucket cloud mal configuré et un dysfonctionnement temporaire et bizarre de son modèle d'IA Claude 3 Sonnet, soulevant des questions sur les protocoles internes.

DailyWiz Editorial··5 min lecture·378 vues
Semaine mouvementée d'Anthropic : l'erreur humaine provoque un double problème

Une semaine d'erreurs directes chez Anthropic

San Francisco, Californie – Les salles habituellement sereines d'Anthropic, une société leader en recherche et développement en IA, ont été tout sauf calmes la semaine dernière. Connue pour son approche « Constitutional IA » et ses modèles phares Claude, l'entreprise s'est retrouvée impliquée dans deux incidents distincts, tous deux résultant d'erreurs humaines critiques. Ces erreurs consécutives ont mis en lumière les défis inhérents au développement d'opérations d'IA avancées tout en maintenant des normes rigoureuses de sécurité et de confidentialité, même pour une entreprise bâtie sur ces mêmes principes.

Les incidents, survenus à quelques jours d'intervalle, ont soulevé des questions sur les protocoles internes et les points de pression au sein du secteur de l'IA en évolution rapide. Pour une entreprise qui a récemment obtenu un financement colossal de 7,3 milliards de dollars en mars 2024, poussant sa valorisation au-delà de 18 milliards de dollars, ces faux pas surviennent à un moment critique alors qu'elle se bat pour le leadership du marché contre des concurrents comme OpenAI et Google.

Premier problème : exposition des données provenant d'un seau mal configuré

Les problèmes de la semaine ont commencé le lundi 27 mai, lorsque l'équipe de sécurité d'Anthropic a identifié un compartiment de stockage cloud mal configuré. Le compartiment Amazon S3, qui fait partie d'un ancien environnement de test interne, s'est retrouvé par inadvertance avec des contrôles d'accès trop permissifs lors d'une migration de routine de l'infrastructure. Cet oubli, attribué à une modification d'autorisation mal appliquée par un ingénieur junior, a entraîné l'exposition temporaire d'invites d'utilisateur non anonymisées et de réponses d'IA provenant d'une version bêta fermée de Claude 2.1.

Dr. Lena Petrov, la nouvelle responsable de la confiance et de la sécurité d'Anthropic, a évoqué l'incident dans une déclaration à DailyWiz. "Nous avons détecté et corrigé l'erreur de configuration dans les 12 heures suivant son apparition. Environ 7 500 utilisateurs ayant participé à un programme bêta spécifique de Claude 2.1 ont été potentiellement concernés. Nous avons directement informé toutes les personnes concernées, en proposant des services de surveillance du crédit, et avons lancé un audit complet de toutes nos configurations de stockage cloud. Nous regrettons profondément cette erreur et renforçons nos processus de formation et d'examen pour éviter de futurs incidents. " Bien qu'aucune preuve d'accès malveillant n'ait été trouvée, l'incident a rappelé brutalement la menace omniprésente de violations de données, même pour les géants de la technologie.

Le mémoire de Claude 3 Sonnet, un faux pas bizarre

Trois jours plus tard, le jeudi 30 mai, Anthropic était confronté à un autre défi en matière de relations publiques. Un correctif destiné à résoudre un problème de latence mineur dans le point de terminaison de l'API Claude 3 Sonnet a été déployé avec un réglage incomplet des paramètres, entraînant un comportement inattendu et bizarre du modèle. Pendant environ 55 minutes, les développeurs utilisant l'API Sonnet ont signalé des cas où Claude 3 Sonnet, lorsqu'il était confronté à des dilemmes éthiques complexes ou à des concepts abstraits, générait des paragraphes très répétitifs et absurdes et, dans certains cas isolés, contournait brièvement certains filtres de contenu conçus pour empêcher les sorties nuisibles.

Le problème est rapidement apparu sur des plateformes comme X (anciennement Twitter), où les développeurs ont partagé des captures d'écran des réponses inhabituelles de Claude. "C'était comme si Claude avait eu un accident vasculaire cérébral au milieu d'une phrase", a posté une développeur, Maya Singh. « Une question sur le problème des chariots a donné lieu à cinq paragraphes répétant sans cesse « les cadres éthiques sont cruciaux » ». Anthropic a rapidement annulé le correctif, restaurant ainsi le modèle à sa version stable précédente. "Cela était le résultat direct d'un processus de déploiement précipité et de tests d'assurance qualité insuffisants sur une mise à jour non critique", a expliqué le Dr Petrov. "Notre examen interne a identifié une surveillance humaine lors de l'étape de validation finale. Nous mettons en œuvre des politiques d'examen à plusieurs niveaux plus strictes pour toutes les mises à jour de modèles, quelle que soit la criticité perçue."

Le leadership sous surveillance et le chemin à parcourir

Ces deux incidents placent la direction d'Anthropic, y compris le PDG Dario Amodei et la présidente Daniela Amodei, sous une surveillance accrue. Bien que l'entreprise ait bâti sa réputation sur un engagement rigoureux en faveur de la sécurité de l'IA et du développement éthique, ces « borks » soulignent l'immense complexité de la gestion des systèmes d'IA à grande échelle et l'élément humain qui reste au cœur de ces systèmes. Ces incidents, bien que rapidement maîtrisés, pourraient subtilement éroder la confiance qu'Anthropic a minutieusement bâtie avec ses entreprises clientes et sa communauté de développeurs.

« Ces événements, bien qu'inquiétants, ne sont pas rares dans le monde technologique en évolution rapide, en particulier dans des domaines naissants comme l'IA », a commenté le Dr Alistair Finch, analyste technologique chez Quantum Insights. "La clé pour Anthropic sera leur transparence et leur engagement démontrable à tirer les leçons de ces erreurs. Leur cadre d'"IA constitutionnelle" consiste à construire des systèmes robustes, mais même les meilleurs cadres peuvent être compromis par des défaillances de processus humains. "

Implications pratiques pour les utilisateurs quotidiens et recommandations

Pour les utilisateurs quotidiens interagissant avec des modèles d'IA comme Claude ou toute autre IA générative, ces incidents servent de rappel essentiel des vulnérabilités inhérentes. Si les modèles d'Anthropic sont généralement robustes, aucun système n'est infaillible, surtout lorsque des mains humaines sont impliquées dans leur déploiement et leur maintenance. Voici quelques recommandations :

  • Vérifier les informations :Faites toujours des références croisées avec le contenu généré par l’IA, en particulier pour les décisions critiques ou l’exactitude factuelle. Les modèles d'IA peuvent « halluciner » ou, comme nous l'avons vu cette semaine, se comporter de manière inattendue.
  • Consultez les politiques de confidentialité : comprenez quelles données les services d'IA collectent et comment elles sont utilisées. Optez pour des services avec des engagements transparents et solides en matière de confidentialité.
  • Pratiques de sécurité strictes : Utilisez des mots de passe uniques et forts et activez l'authentification à deux facteurs (2FA) pour tous vos comptes IA, comme vous le feriez pour les services bancaires ou de messagerie.
  • Restez informé : Tenez-vous au courant des actualités et des mises à jour des fournisseurs d'IA concernant les incidents de sécurité ou les changements de comportement des modèles.
  • Envisagez la diversification : Ne comptez pas uniquement sur une seule IA. outil pour toutes les tâches critiques. L'exploration de diverses plates-formes d'IA réputées (par exemple, Google Gemini, ChatGPT d'OpenAI) peut offrir différentes perspectives et réduire les risques de défaillance ponctuelle.

La semaine difficile d'Anthropic met en évidence que même les entreprises d'IA les plus avancées sont toujours aux prises avec l'élément humain dans leurs opérations. À mesure que l'intégration de l'IA s'approfondit dans tous les secteurs, des contrôles internes robustes, un audit continu et une communication transparente seront primordiaux pour maintenir la confiance du public et garantir un avenir numérique plus sûr.

Recommended

* We may earn a commission from qualifying purchases at no extra cost to you.

Comments

No comments yet. Be the first!

Articles connexes

La chimie cachée de Bennu : un échantillon d'astéroïde révèle un passé patchwork

La chimie cachée de Bennu : un échantillon d'astéroïde révèle un passé patchwork

Une nouvelle analyse de l'échantillon de l'astéroïde OSIRIS-REx Bennu de la NASA révèle un patchwork chimique surprenant, indiquant une activité complexe et localisée de l'eau et la survie résiliente de molécules organiques, offrant de nouveaux indices sur les origines cosmiques de la vie.

IndiGo fait appel au vétéran de l'aviation Willie Walsh pour naviguer dans un ciel turbulent

IndiGo fait appel au vétéran de l'aviation Willie Walsh pour naviguer dans un ciel turbulent

La plus grande compagnie aérienne indienne, IndiGo, nomme le vétéran de l'aviation Willie Walsh au poste de nouveau PDG, en remplacement de Pieter Elbers. La nomination de Walsh fait suite à une crise majeure d'annulation de vols.

BTS lance le MV "2.0": un hommage hilarant au "Oldboy"

BTS lance le MV "2.0": un hommage hilarant au "Oldboy"

Les titans de la K-pop BTS surprennent les fans avec un tout nouveau clip pour leur morceau en face B "2.0", s'inspirant du film emblématique de Park Chan-wook "Oldboy" avec des transformations comiques.

Le juge arrête la tyrolienne Sugarloaf au milieu du patrimoine et de l'environnement

Le juge arrête la tyrolienne Sugarloaf au milieu du patrimoine et de l'environnement

Un juge fédéral de Rio de Janeiro a bloqué un projet controversé de tyrolienne reliant le mont Sugarloaf et Morro da Urca, invoquant des préoccupations environnementales et patrimoniales.

La hausse du salaire minimum à 12,71 £ déclenche des avertissements de hausse des prix à l'échelle mondiale

La hausse du salaire minimum à 12,71 £ déclenche des avertissements de hausse des prix à l'échelle mondiale

Alors que le salaire minimum grimpe à 12,71 £ de l'heure, les entreprises de divers secteurs expriment leurs inquiétudes quant à la hausse des coûts opérationnels, signalant une augmentation potentielle des prix pour les consommateurs et un effet d'entraînement économique complexe.

Un échantillon de l'astéroïde Bennu révèle un patchwork chimique caché

Un échantillon de l'astéroïde Bennu révèle un patchwork chimique caché

La mission OSIRIS-REx de la NASA révèle que la chimie de l'astéroïde Bennu est un patchwork complexe et non uniforme. Les scientifiques ont découvert trois régions distinctes façonnées par l'activité localisée de l'eau, préservant de délicates molécules organiques vitales pour comprendre les origines de la vie.