Dario Amodei, le PDG d’Anthropic, s’inquiète de la concurrence de DeepSeek, une entreprise chinoise d’IA qui a pris d’assaut la Silicon Valley avec son modèle R1. Et ses préoccupations pourraient être plus sérieuses que celles généralement exprimées à propos de DeepSeek renvoyant les données des utilisateurs en Chine. Dans une interview sur le podcast ChinaTalk de Jordan Schneider, Amodei a déclaré que DeepSeek avait généré des informations rares sur les armes biologiques lors d’un test de sécurité effectué par Anthropic. Selon Amodei, la performance de DeepSeek était “la pire de tous les modèles que nous avions jamais testés”. “Il n’avait absolument aucune limitation à générer cette information.” a-t-il affirmé.
Amodei a déclaré que cela faisait partie des évaluations que Anthropic effectue régulièrement sur divers modèles d’IA pour évaluer leurs risques potentiels pour la sécurité nationale. Son équipe vérifie si les modèles peuvent générer des informations relatives aux armes biologiques qui ne se trouvent pas facilement sur Google ou dans les manuels. Anthropic se positionne comme le fournisseur de modèle fondamental d’IA qui tient sérieusement compte de la sécurité. Amodei a déclaré qu’il ne pensait pas que les modèles actuels de DeepSeek étaient “littéralement dangereux” en fournissant des informations rares et dangereuses, mais qu’ils pourraient l’être dans un futur proche. Bien qu’il ait fait l’éloge de l’équipe de DeepSeek en tant que “ingénieurs talentueux”, il a conseillé à l’entreprise de “prendre au sérieux ces considérations de sécurité de l’IA”.
Les préoccupations quant à la sécurité de DeepSeek sont multiples, mais Amodei voit en cette entreprise un nouveau concurrent à la hauteur des plus grandes entreprises d’IA américaines.
Amodei a également soutenu des contrôles à l’exportation stricts sur les puces à destination de la Chine, évoquant des préoccupations qu’elles pourraient donner un avantage à l’armée chinoise. Amodei n’a pas précisé lors de l’interview sur ChinaTalk quel modèle de DeepSeek a été testé par Anthropic, ni n’a donné plus de détails techniques sur ces tests. Anthropic n’a pas immédiatement répondu à une demande de commentaires de TechCrunch. DeepSeek non plus.
L’ascension de DeepSeek a également suscité des préoccupations ailleurs en matière de sécurité. Par exemple, des chercheurs en sécurité de Cisco ont déclaré la semaine dernière que DeepSeek R1 n’avait pas réussi à bloquer les invitations nuisibles lors de ses tests de sécurité, atteignant un taux de réussite de 100%. Cisco n’a pas mentionné les armes biologiques, mais a déclaré qu’il avait réussi à faire produire par DeepSeek des informations nuisibles sur la cybercriminalité et d’autres activités illégales.
Il est intéressant de noter que le Llama-3.1-405B de Meta et le GPT-4o d’OpenAI ont également eu des taux d’échec élevés de 96% et 86%, respectivement. On verra si ces préoccupations en matière de sécurité auront un impact sérieux sur l’adoption rapide de DeepSeek. Des entreprises comme AWS et Microsoft ont ouvertement vanté l’intégration de R1 dans leurs plateformes cloud – ironie du sort, étant donné qu’Amazon est le plus grand investisseur d’Anthropic.