OpenAI a annoncé son nouveau modèle de raisonnement, o3, passant outre o2 pour éviter des conflits de marque. Ce modèle est plus fiable dans des domaines comme la physique et les mathématiques, mais peut encore faire des erreurs. Il met plus de temps à arriver à des solutions par rapport aux modèles non-rationnels. OpenAI affirme que o3 se rapproche de l’IA générale (AGI) basée sur des points de référence, mais il existe des limitations à ces évaluations.
Le modèle o3 surpasse son prédécesseur sur diverses épreuves, mais ces affirmations proviennent d’évaluations internes. Il y a eu une explosion de modèles de raisonnement de la part des entreprises de l’IA rivales, mais tout le monde n’est pas convaincu que les modèles de raisonnement soient la meilleure voie à suivre. Ce nouvel outil d’OpenAI excelle donc dans des domaines spécifiques, tout en laissant la place à des erreurs ponctuelles, une caractéristique qui prouve qu’il reste encore un chemin à parcourir vers une véritable intelligence artificielle générale.
“Il y a une certaine ambivalence au sein de la communauté de l’IA quant à savoir si les modèles de raisonnement sont réellement le meilleur chemin à parcourir pour un véritable apprentissage inférentiel.”
Parallèlement à l’annonce de ce nouveau modèle, OpenAI a également fait une annonce majeure concernant son effectif. Alec Radford, un scientifique clé de l’organisation, a annoncé son départ pour poursuivre des recherches indépendantes. Radford a été un acteur majeur dans le développement des capacités de raisonnement d’OpenAI, et son départ pourrait certainement avoir un impact sur le futur de ces modèles.
Dans l’ensemble, bien que le chemin vers l’AGI s’avère encore long et semé de défis, des progrès importants sont constamment réalisés. Les limitations actuelles du modèle o3 témoignent de cette réalité, tout en soulignant l’ampleur de l’ambition d’OpenAI. Il sera intéressant de voir comment cette technologie évoluera dans les mois et les années à venir.