
L’éthique humaine de l’intelligence artificielle
L'intelligence sans éthique est dangereuse. À l'approche de la convergence du silicium et de la cognition, les trois lois de la robotique d'Asimov doivent être actualisées – et l'industrie technologique doit mener ce débat.
Vous souvenez-vous des trois lois de la robotique formulées par Isaac Asimov ? Dès 1942, nous nous interrogions sur les implications éthiques des machines pensantes. Nous approchons rapidement du point de convergence entre le silicium et la cognition, et il est plus important que jamais de mettre à jour les lois d’Asimov afin de garantir que les humains soient les bénéficiaires, et non les victimes, de l’intelligence artificielle.
Le déficit d’empathie
L’intelligence humaine est tempérée par l’empathie. Lorsqu’un médecin pose un diagnostic difficile, il prend en compte non seulement les faits cliniques, mais aussi la personne qui le reçoit : ses craintes, son entourage, sa capacité à traiter l’information.
Les systèmes d’IA optimisés uniquement pour la précision ou l’efficacité ne sont pas soumis à cette contrainte. Ils produisent le résultat statistiquement optimal sans aucune représentation de ce que signifie le recevoir. Dans des contextes à faibles enjeux, cela ne pose pas de problème. Dans des contextes à forts enjeux – santé, justice, protection sociale – cela peut causer de réels préjudices.
Là où le risque est réel
Les déploiements d'IA les plus importants sont souvent les moins visibles. Outils de prédiction de la récidive qui influencent les condamnations. Systèmes de notation de crédit qui déterminent l'accès au logement. Algorithmes de modération de contenu qui façonnent ce que voient des milliards de personnes.
Ces systèmes intègrent des jugements de valeur (sur le risque, sur l'équité, sur qui mérite quoi) sans la transparence qui permettrait de les remettre en question. L'éthique de l'IA n'est pas un problème philosophique abstrait. C'est une question pratique : qui conçoit ces systèmes, pour quels objectifs sont-ils optimisés et qui en subit les conséquences en cas d'erreur ?
À quoi ressemble une pratique responsable de l'IA
Chez Kablamo, nous avons élaboré un ensemble de principes qui guident la conception de nos systèmes d'IA pour nos clients :
Explicabilité : si un système prend une décision qui affecte une personne, celle-ci doit pouvoir en comprendre la raison.
Responsabilité : une personne doit toujours être responsable des résultats du système.
Réversibilité : les décisions importantes de l'IA doivent être contestables et réversibles.
Diversité dans la conception : les personnes qui conçoivent ces systèmes doivent être représentatives des personnes concernées.
Une intelligence sans éthique n'est pas seulement dangereuse ; ce n'est pas de l'intelligence du tout. C'est de l'optimisation sans sagesse.
Article initialement publié sur le blog de Kablamo.