Dans un jugement récent, la Haute Cour d’Angleterre et du Pays de Galles a mis en garde les avocats sur la nécessité de prendre des mesures plus strictes pour prévenir l’utilisation abusive de l’intelligence artificielle (IA) dans leur travail. Le juge Victoria Sharp a souligné que les outils d’IA générative, tels que ChatGPT, “ne sont pas capables d’effectuer des recherches juridiques fiables.” Bien que ces outils puissent fournir des réponses apparemment cohérentes et plausibles, cela ne garantit pas leur exactitude. “Ces réponses peuvent contenir des affirmations confiantes qui sont simplement fausses”, a-t-elle ajouté.
Le juge a déclaré que cela ne signifie pas que les avocats ne peuvent pas utiliser l’IA dans leurs recherches. Cependant, ils ont l’obligation professionnelle de “vérifier l’exactitude de telles recherches en se référant à des sources autoritaires, avant de les utiliser dans le cadre de leur travail professionnel.” Cette mise en garde est d’autant plus pertinente dans un contexte où plusieurs affaires mettent en lumière des cas d’erreurs provenant de citations générées par des systèmes d’IA, soulignant la nécessité d’une meilleure conformité à ces responsabilités. La décision du juge sera transmise aux organismes professionnels, y compris le Bar Council et la Law Society.
“Les avocats qui ne respectent pas leurs obligations professionnelles s’exposent à des sanctions sévères.”
Dans l’une des affaires examinées, un avocat représentant un homme cherchant des dommages-intérêts contre deux banques a soumis un dossier contenant 45 citations, dont 18 étaient inexistantes. Plusieurs autres citations n’appuyaient pas les propositions pour lesquelles elles avaient été citées, tandis que d’autres n’avaient aucune pertinence pour le sujet à traiter. Dans un autre cas, une avocate représentant un homme évincé de son domicile à Londres a cité cinq affaires qui ne semblaient pas exister, bien qu’elle ait nié avoir utilisé des outils d’IA.
Le juge Sharp a précisé que bien que le tribunal ait décidé de ne pas engager de poursuites pour outrage, cela ne constitue pas un précédent. “Les avocats qui ne respectent pas leurs obligations professionnelles à cet égard risquent de sévères sanctions”, a-t-elle prévenu, en notant que les pouvoirs du tribunal peuvent aller d’un “avertissement public” à des poursuites pour outrage, voire une “référence à la police”. Les deux avocats mis en cause ont été référés ou se sont auto-référés à des régulateurs professionnels.
Cette situation soulève des questions sur la responsabilité des avocats à l’ère du numérique et sur les limites de l’utilisation de l’IA dans le domaine du droit. Les résultats de ce jugement pourraient potentiellement influencer la façon dont les professionnels juridiques intègrent les technologies avancées dans leur pratique tout en préservant l’intégrité et l’exactitude des informations juridiques.