Le sujet de l’intelligence artificielle (« IA ») est actuellement abordé sur tous les canaux et s’abat sans cesse sur la profession des avocat·e·s. Elle suscite des espoirs immenses (p. ex. faciliter le travail quotidien et être l’arme ultime dans la lutte contre la pression des coûts), mais aussi des craintes (p. ex. les avocat·e·s ne sont plus nécessaires). La vérité actuelle est bien plus profane et le stade des systèmes d’IA n’est aujourd’hui pas encore là où de telles déclarations correspondent déjà aux faits.

Cependant, il est vrai que depuis la publication de ChatGPT en novembre 2022 et d’autres systèmes d’IA similaires, les systèmes d’IA peuvent effectivement écrire des textes et qu’un saut quantique a ainsi été réalisé. De plus, l’utilisation des machines est devenue beaucoup plus simple ces dernières années ; on parle avec les systèmes d’IA comme avec un être humain. Le libre accès pour tout le monde a fait tomber le dernier obstacle à l’expérimentation.

La FSA est persuadée que les systèmes d’intelligence artificielle vont faire leur entrée dans notre travail quotidien. Il faut donc se familiariser avec les nouvelles méthodes de travail. Toutefois, comme toute nouvelle technologie, les systèmes d’IA ont leurs inconvénients et il est nécessaire de garder à l’esprit le secret professionnel et la protection des données lors de leur utilisation (comme cela va de soi pour chacune de nos actions).

Le groupe d’expert-e-s relatif à la numérisation a donc élaboré des lignes directrices en matière d’IA, qui ont été approuvées par le Conseil de la FSA et publiées ici. Ces lignes directrices expliquent quelles mesures de sécurité doivent être prises et quels principes doivent être respectés lors de l’utilisation.

La Revue de l’avocat 9/24, rédigée par des membres du groupe d’expert·e·s en matière de numérisation, reprend ensuite les principaux sujets et donne en outre un aperçu des systèmes d’IA dans la pratique des études d’avocat·e·s et des services juridiques.