Technologie

Anthropic enquête sur un accès non autorisé à son modèle d’IA Mythos

Cet incident est le troisième problème de sécurité interne signalé chez Anthropic depuis un mois.

Publié le 

Archive Archive

Anthropic a annoncé mardi enquêter sur un accès non autorisé à Mythos, son modèle d’IA le plus avancé, pour l’heure réservé à un cercle restreint d’entreprises en raison de ses puissantes capacités présentées comme capables de provoquer une vague sans précédent de cyberattaques.

Selon Bloomberg, qui a dévoilé l’incident, un petit groupe d’utilisateurs professionnels a accédé au modèle via l’environnement informatique réservé aux prestataires externes d’Anthropic.

«Nous enquêtons sur un signalement faisant état d’un accès non autorisé à Claude Mythos Preview via l’environnement d’un de nos prestataires tiers», a confirmé un porte-parole d’Anthropic auprès de l’AFP.

L’accès s’est produit dans cet environnement informatique utilisé par ce sous-traitant pour le développement du modèle, et non pas via les systèmes qu’Anthropic utilise pour ses clients commerciaux, ce qui limite le périmètre potentiel de l’incident, selon des précisions obtenues par l’AFP.

Un modèle d’IA est trop dangereux pour être rendu public, selon ses développeurs Les dirigeants des banques canadiennes et les autorités de régulation se sont réunis le 10 avril dernier pour discuter des risques posés par Claude Mythos Preview, le nouveau modèle d’IA d’Anthropic, que l’entreprise juge si puissant qu’elle a décidé de ne pas le rendre public.

L’entreprise n’a pas identifé à ce stade d’élement permettant de penser que l’incident ait dépassé ce périmètre.

Anthropic avait lancé Mythos début avril auprès d’un groupe limité de partenaires américains — dont Amazon, Microsoft et Apple — pour qu’ils testent les capacités de ce modèle non public et résolvent les failles de cybersécurité détectés avant sa publication.

Cet incident est le troisième problème de sécurité interne signalé chez Anthropic depuis un mois.