Il est maintenant possible de faire tourner un modèle de langage européen sur votre propre machine sans avoir besoin d’un serveur surpuissant. EuroLLM vient de démontrer qu’il est possible d’exécuter un modèle contenant 9 milliards de paramètres avec un peu moins de 6 Go de RAM, le tout sur un simple laptop. Grâce à une seule commande via Ollama, vous pouvez commencer à interagir avec ce modèle. Bien que cela ne concurrence pas encore les modèles propriétaires tels que GPT-5, EuroLLM représente une avancée significative en matière de modèles de langage locaux en Europe, tout en restant respectueux de la vie privée et gratuit.
Ce projet est le fruit d’une collaboration entre plusieurs laboratoires européens tels que l’Instituto Superior Técnico de Lisbonne, l’Université d’Édimbourg, l’Université Paris-Saclay et Unbabel, avec le soutien de l’initiative Horizon Europe et de l’EuroHPC. Le modèle supporte non seulement les 24 langues officielles de l’Union européenne, mais également 11 langues supplémentaires comme l’arabe, le chinois et le russe. Sa formation a été réalisée sur 4 trillions de tokens grâce au supercalculateur MareNostrum 5 à Barcelone.
EuroLLM permet d’utiliser l’intelligence artificielle sans dépendre des services cloud, offrant ainsi un contrôle total sur les données utilisateurs.
Avec EuroLLM, vous avez accès à d’autres versions adaptées à des usages variés, comme EuroLLM-1.7B pour smartphones ou EuroLLM-22B pour une utilisation plus intensive. Des modèles de type vision-language et Mixture-of-Experts sont également en cours de développement. De plus, le modèle est disponible sous une licence Apache 2.0, permettant à quiconque de l’utiliser à des fins commerciales et d’apporter des modifications sans redevance.
L’installation du modèle est simplifiée grâce à des outils comme Ollama. En utilisant la commande appropriée, vous pouvez télécharger et exécuter le modèle localement. Les utilisateurs préférant Python peuvent également le faire via Hugging Face Transformers, avec la possibilité d’utiliser le modèle hors ligne. Pour ceux disposant de moins de RAM, la version 1.7B est même compatible avec des Raspberry Pi, ce qui témoigne de la flexibilité de cette initiative.
EuroLLM marque une étape importante pour l’intelligence artificielle en Europe, particulièrement dans des contextes où la confidentialité des données est primordiale. Que ce soit pour les administrations publiques, les journalistes en zone sensible, ou les chercheurs manipulant des données confidentielles, EuroLLM fournit une alternative locale aux services cloud. Alors que le modèle ne surpasse pas encore GPT-4, il est suffisamment performant pour répondre à 80% des cas d’utilisation, comme les résumés, la traduction et la génération de code basique. L’avenir promet des améliorations avec des intégrations de vision et de voix, ouvrant des perspectives passionnantes pour l’IA européenne.
