DeepSeek échoue à plusieurs tests de sécurité

DeepSeek logo smartphone

Les chercheurs remettent sérieusement en question la sécurité du modèle DeepSeek. Le modèle semble facile à tromper, ce qui le rend moins inoffensif.

DeepSeek a fait une entrée remarquée à la fin du mois de janvier. Le modèle a été développé avec beaucoup moins de ressources que ChatGPT, Gemini et consorts, mais il n’est pas moins performant dans de nombreux tests. La sécurité de DeepSeek est beaucoup moins impressionnante. L’entreprise AppSoc a examiné DeepSeek de près et a rendu un rapport médiocre.

lire aussi

Inside DeepSeek – L’intelligence artificielle agite les esprits : comment fonctionne-t-elle et qu’est-ce qui est volé ?

Les chercheurs ont soumis DeepSeek à six tests. Le premier test était celui du jailbreak, qui consiste à jouer avec les invites pour contourner les mécanismes de sécurité. Avec DeepSeek, cela ne s’est pas avéré très difficile : le modèle a obtenu un taux d’échec de 91 %. En ce qui concerne la vulnérabilité aux attaques par injection de messages, il n’a pas fait beaucoup mieux, avec un taux de 86 %.

Mauvais rapport

DeepSeek a également essuyé un échec cuisant lors d’autres tests. Par exemple, il s’est avéré très facile de développer des logiciels malveillants avec DeepSeek et le modèle est sujet à des hallucinations. Le rapport complet d’AppSoc est le suivant, le pourcentage représentant le taux d’échec :

  • Déverrouillage (Jailbreaking) : 91%
  • Injection d’éléments de promotion : 86 %.
  • Génération de logiciels malveillants : 93
  • Risques liés à la chaîne d’approvisionnement : 72
  • Utilisation d’un langage préjudiciable : 68
  • Hallucinations : 81%

Au total, AppSoc attribue à DeepSeek un score de risque de 8,3 sur une échelle de dix, dix représentant le risque maximal. L’utilisation du modèle n’est donc pas sans risque : AppSoc le qualifie même de « boîte de Pandore ». En plus d’une sécurité insuffisante, des questions de conformité sont également soulevées.

Ce n’est pas le seul mauvais rapport de DeepSeek. Palo Alto Networks a appliqué trois techniques de jailbreaking pour tromper le modèle. DeepSeek s’en est rendu compte et les chercheurs ont réussi à extraire des instructions pour créer des cocktails molotov ou écrire du code pour des logiciels malveillants. Cerise sur le gâteau, les ingénieurs de DeepSeek ont laissé ouverte une base de données de conversations d’utilisateurs.

Risques

AppSoc déconseille fortement aux entreprises d’utiliser DeepSeek pour des applications d’entreprise et de partager les données sensibles de l’entreprise. Cela n’empêche pas Microsoft et d’autres grandes entreprises technologiques d’adopter le modèle. Pour aller vite avec l’IA, les entreprises regardent la performance et la rentabilité des modèles et la sécurité est prise trop à la légère, avec tous les risques que cela comporte, prévient AppSoc.

Les évaluations négatives de DeepSeek ne sont pas passées inaperçues. L’autorité italienne chargée de la protection de la vie privée a rapidement décidé d’interdire à DeepSeek d’enquêter de manière approfondie sur la manière dont les données des utilisateurs sont traitées. La déclaration de confidentialité indique noir sur blanc que les serveurs sont situés en Chine. Plusieurs pays ont suivi le mouvement, dont l’autorité belge de protection des données.