L’éthique, c’est quoi ?
Avant de parler traiter de l’IA éthique, attardons nous sur l’éthique elle même. L’éthique fait partie de ces sujets que l’on comprend intuitivement, mais qui nous échappent dès qu’on essaye de les définir, comme le temps, la vie ou le vide par exemple.
Ou encore, pour les plus matheux, l’infini, les séries divergentes ou le théorème d’incomplétude. Nous manquons des concepts et du vocabulaire pour bien en parler, et les définitions et explications deviennent rapidement circulaires. Si nous manquons de mots, c’est bien parce que ces notions sont aux frontières de notre perception.
Intimement liée à la notion de morale, l’éthique a donné lieu à de nombreuses réflexions philosophiques depuis la haute antiquité (Confucius, Platon…), au XIXème siècle (Kant, Schopenhauer…) et jusqu’aujourd’hui (Levinas, Ricoeur…) sans discontinuer.
Pour simplifier, disons que la philosophie morale (“l’éthique”) est une discipline philosophique ayant comme objet l’étude de la morale. La philosophie morale a pour objet la morale, comme la morale a pour objet la finalité des actions humaines, dans le but d’une vie conforme au bien. Eh bien voilà, on l’a, notre définition récursive…
On voit immédiatement se tisser des liens, potentiellement sulfureux, avec les aspects religieux, politiques et sociaux qui unissent (ou divisent) nos sociétés selon leur histoire, leur culture, leurs croyances et leurs contradictions.
Les sciences de la vie
Dès son origine, le domaine médical s’est préoccupé d’éthique. En témoigne le serment d’Hippocrate, IVe siècle av. J.-C.
Les progrès de la biologie et de la médecine ont amplifié (et compliqué) les problèmes, notamment en lien avec ce qui touche au début et à la fin de la vie, mais aussi la psychiatrie et les transplantations d’organes par exemple.
Afin d’aider patients, praticiens et législateurs avec ce sujet délicat, des institutions de ‘’sages et sachants’’ ont vu le jour (en France, le Comité Consultatif National d’Ethique pour la Vie et la Santé).
L’éthique médicale actuelle s’articule donc autour de quatre principes :
- L’autonomie : respect de la personne et de sa capacité à décider de sa propre santé.
- La bienfaisance : faciliter et faire le bien, contribuer au bien-être du patient.
- Primum non nocere : l’obligation de ne pas nuire.
- La justice : apporter le même traitement de façon juste et/ou équitable à tous les patients.
L’éthique dans le numérique
“Why software is eating the world”, écrivait Marc Andreessen.
En quelques années seulement, le numérique a pénétré nos administrations, l’espace public, les entreprises et nos vies (si peu) privées. La puissance des logiciels s’accroît exponentiellement, en témoignent de façon spectaculaire les progrès de l’Intelligence Artificielle.
Pour le bien parfois (imagerie médicale), pour le mal aussi (infox, complotisme), et pour … on ne sait pas quoi le plus souvent (réseaux sociaux, chatbots).
La puissance des outils est devenue telle que leurs effets potentiellement néfastes (addiction, manipulation, surveillance de masse) ont fini par inquiéter une société fascinée par la technologie mais (pour les plus éclairés) inquiète de ses conséquences.
En France, on aime bien les comités : Le décret du 23 mai 2024 a annoncé la mise en place du Comité Consultatif National d’Éthique du Numérique. Cette institution consultative marque un tournant pour la prise en considération des enjeux éthiques liés aux avancées technologiques et numériques.
Reconnaissons que c’est un sujet difficile, et qu’il y a du panache à s’en saisir.
Il n’y a que l’intention qui compte (?)
Un coup de pouce pour le meilleur et pour le pire
Le “nudge” est une manière d’organiser l’environnement d’une personne ou la communication avec elle, en se fondant sur sa psychologie (réflexes, biais, grégarisme, etc.). Il est fait pour orienter la prise de décisions difficiles autour du principe : “inciter sans contraindre”.
Par exemple, pour changer les comportements alimentaires, des nudges sont mis en place dans les établissements de restauration collective. Mettre en avant les légumes, utiliser de plus petites assiettes pour donner l’impression d’une portion importante, prédécouper les fruits pour qu’ils soient mangés aisément : autant de nudges pour favoriser une alimentation raisonnable, tant en quantité qu’en qualité.
L’utilisation de nudges soulève son lot de problèmes éthiques. À vrai dire, on peut le voir comme un dispositif infantilisant, qui cautionne une certaine forme de manipulation. Ils peuvent aussi être à l’origine d’un sentiment de culpabilité chez ceux qui les contournent délibérément. D’ailleurs leur impact réel est encore sujet à caution.
- Nudge for good : lutter contre les addictions, favoriser l’éducation, conduire plus prudemment, réduire son impact carbone…
- Nudge for bad : favoriser les addictions, manipulation et surveillance de masse, complotisme, captation de temps de cerveau disponible …
Pour le bien comme pour le mal, il s’agit de tromper pour compenser un penchant que l’on cherche à corriger.
Cow-boy Malborough contre photos de poumons goudronneux ? Il n’y a que l’intention qui compte, ça se discute, non ?
L’irrationalité devient la norme
Emmanuel Kemel, professeur-chercheur au CNRS – Economie et Sciences de la Décision et HEC Paris, alerte sur la puissance du couple [IA + nudge] au service d’un marketing manipulateur dont il pense qu’il va jusqu’à saper les fondements de l’économie de marché au profit d’entreprises prédatrices.
Alors que les biais comportementaux sur lesquels reposent les Nudges usuels ont été issus de recherches expérimentales, le big data permet de détecter automatiquement le moindre point faible de la prise de décision, pouvant être exploité pour influencer le consommateur. Une fois un nouveau levier comportemental identifié, les algorithmes peuvent l’implémenter massivement. Quelles en sont les conséquences ? Les consommateurs peuvent se trouver lésés, soit parce qu’ils procèdent à des achats ne correspondant pas à leurs réels besoins, soit parce que les tentatives pour résister aux influences créent une fatigue qui dégrade l’expérience d’achat. Ainsi, l’utilisation des Nudges en marketing dégrade le bien-être du consommateur.
De façon plus générale, l’utilisation de Nudges à grande échelle, tend à rendre systématique des erreurs qui étaient occasionnelles : l’irrationalité devient la norme. A cet égard, l’utilisation grandissante des Nudges fragilise un des fondements de l’économie de marché. En théorie, c’est parce que les consommateurs font des choix éclairés que les producteurs sont incités à proposer les produits les plus adaptés et aux meilleurs prix. Le Nudge renverse ce processus en permettant au producteur d’imposer les préférences des consommateurs. Un consommateur sous influence n’exerce donc plus son contrepouvoir sur les producteurs. La possibilité que les consommateurs agissent sous influence questionne donc certaines vertus de l’économie de marché, au même titre que le vote de citoyens sous influence fragilise les fondements du modèle démocratique
Emmanuel Kemel
Nudges Et Intelligence Artificielle : Unis Pour Le Meilleur Ou Pour Le Pire ? Vous pourrez ainsi lire cet article dans son intégarlité.
L’informatique affective
Il est impossible de ne pas parler ici de Theodore. Mais qui est Theodore ?
Theodore Twombly, homme sensible au caractère complexe, est inconsolable suite à une rupture sentimentale. Il acquiert une application capable de s’adapter à la personnalité de chaque utilisateur. Il y fait alors la connaissance de ‘Samantha’, voix féminine intuitive et drôle. La relation de Theodore et de Samantha évolue, et peu à peu, ils tombent amoureux… Sauf que…
Comme dans le film Her, de Spike Jonze , l’informatique affective (“affective computing” en anglais) consiste en une application capable de percevoir les émotions des utilisateurs avec qui elles interagissent, d’analyser les circonstances de ces émotions, et d’en déduire ses comportements selon l’objectif qui lui a été assigné par son programmeur.
Louis de Diesbach, éthicien de la technique, remarque que personne ne salue sa porte d’entrée ou sa serrure quand il rentre chez lui, peu nombreux sont ceux qui remercient leur lave-vaisselle une fois qu’il a fait son office. Sauf Ali Baba pourrait-on lui répliquer : les interactions conversationnelles sont de natures différentes et comblent en partie l’asymétrie de la relation utilisateur/machine. C’est ce qui fait son charme, dans tous les sens du mot.
Hypertrucage (Deep Fake)
Pour commencer, rappellons ce que sont les Deepfakes : Contraction de “deep learning” et de “fake”, faux.
Apparus en 2014, les premiers deepfakes étaient des manipulations numériques pour impliquer une personne – en général publiquement connue – dans des scènes pornographiques.
Depuis, les vidéos hypertruquées ont fleuri sur le web, comme, un faux Barak Obama avertissant sur les risques des deepfakes ou un faux Donald Trump annonçant l’éradication du SIDA.
Nicolas Obin, maître de conférences à Sorbonne Université et chercheur à l’Ircam :
En tant que manipulation sémantique d’un contenu audio-visuel, les deepfakes peuvent être utilisés à des fins malveillantes comme l’usurpation d'identité, etc. Deux propriétés de l’IA moderne rendent les deepfakes particulièrement dangereux : d’une part le réalisme des générations rendu possible par la combinaison d’algorithmes d’apprentissage performants et les masses de données disponibles pour réaliser ces apprentissages ; d’autre part la démocratisation de ces outils avec des ressources partagées (les modèles de voix de chanteurs, sont par exemple, en libre accès sur des canaux de communication).
Aujourd’hui tout le monde publie en permanence des données personnelles sur les réseaux en grande partie accessibles publiquement. En conséquence, toute personne est susceptible d’être la victime d’un deepfake. Néanmoins, les personnalités publiques sont largement plus exposées par la quantité de données librement accessibles. Ces attaques malveillantes peuvent alors s’avérer critiques dans le cas de personnalités sensibles, comme récemment avec les fausses déclarations de Volodymyr Zelensky ou de Joe Biden.
Mais il existe d’autres manipulations plus pernicieuses, comme la manipulation des émotions, qui s’adresse à nos affects. Par exemple, un assistant vocal pourrait avoir des interactions émotionnelles ou expressives et influencer nos comportements en infléchissant nos émotions, ou en nous incitant à acheter quelque chose, etc. En politique, un même discours pourrait être adressé à chaque citoyen avec des variations de ton adapté pour obtenir un effet optimal de persuasion.
Nicolas Obin
Contenus falsifiés, vidéos artificielles… : le cyberespace et en particulier la sphère informationnelle sont des espaces où les fausses informations foisonnent. Certains de ces faux contenus visent à déstabiliser les opérations militaires et peuvent avoir des répercussions sur les théâtres d’opérations. Les détecter et les contrer sont essentiels pour protéger les opérations et garantir la crédibilité des forces de défense.
Tout est poison, rien n'est poison, c'est la dose qui fait le poison
Selon Laurence Devillers, professeure en informatique appliquée aux sciences sociales à l’Université Paris-Sorbonne :
- Pour être naturelles, les interactions avec les humains doivent être sensibles aux émotions ;
- L’humain se projette naturellement (anthropomorphise) sur les objets du quotidien ;
- Les robots peuvent interpréter les signes, mais n’oublions pas qu’ils n’ont pas d’émotions eux-mêmes ;
- L’IA n’est pas un objet neutre et il faut des règles d’éthiques, car les éditeurs ont une responsabilité ;
- C’est à la société de définir les règles ; le moteur économique ne suffira pas. Pour un médicament, on définit une posologie et des effets secondaires qui sont suivis dans le temps : pour l’IA c’est pareil, il faut en encadrer les risques et les suivre dans le temps.
Vous pouvez retrouver l’intégration de son intervention dans l’excellent talkshow Trench Tech ici.
L’éthique dans le monde professionnel
Comme tous les acteurs du numérique et de l’IA, les éditeurs sont sensibles à l’aspect éthique de leurs solutions, avec plus ou moins de sincérité évidemment. Par conséquent, ils tentent de comprendre quel rôle ils doivent jouer, jusqu’où ils sont impliqués et à comprendre quels risques juridiques ils courent.
Le sujet n’est pas facile, car il faut équilibrer l’innovation, ses effets bons et mauvais avec les conséquences auprès des entreprises, et cela dans un environnement instable et très compétitif.
Certaines initiatives sont à saluer sur ces sujets de réflexion et nous tenions à vous les partager.
La Villa Numeris, pour une IA a impact positif (et donc éthique)
Think tank indépendant, La villa Numeris promeut un modèle européen du numérique affirmant la primauté de l’humain.
La Villa numeris appelle à une nécessaire structuration de l’écosystème européen de l’IA, ainsi qu’à la création d’un géant européen dans le domaine, dans son plaidoyer Pour une IA à impact positif.
En partenariat avec le Metalab de l’ESSEC, la Villa numeris constate que, ‘’si elle est nécessaire pour protéger les droits fondamentaux, la régulation seule ne sera pas suffisante. De leur élaboration à leur utilisation, les techniques numériques doivent être réfléchies dans leurs conséquences humaines, sociologiques, sociales, économiques et environnementales’’.
Numeum : une réflexion de fond sur l'IA éthique
Numeum est le syndicat professionnel français des ESN et des éditeurs de logiciel. Parmi des différentes thématiques abordées, l’IA tient une bonne place.
Comment accélérer, en toute sécurité, le développement des usages de l’IA dans les différentes sphères de notre vie quotidienne ? Telle est la mission de la commission IA qui accompagne la création et le déploiement d’IA dignes de confiance et promeut les bénéfices du recours à ces technologies pour le bien de tous.
Numeum
L’initiative Ethical AI de Numeum vise à accompagner les « faiseurs d’IA » qui souhaitent intégrer l’éthique au cœur de leurs activités pour soutenir la déclinaison opérationnelle de principes éthiques généraux, issus de travaux existants, en méthodes et outils pratiques.
L’éthique chez les grands éditeurs d’IA générative
Le sujet est bien identifié chez les principaux éditeurs d’IA générative. La profusion de comités, de guides et de red teams en témoigne. Comme toujours les promesses n’engagent que ceux qui les écoute, mais c’est tout de même encourageant.
La crainte principale des éditeurs est l’apparition de réglementations au niveau des Etats, qui viendraient restreindre leur capacité d’action et alourdir les coûts de production de leurs solutions d’IA. Pour éloigner tant faire se peut ce risque, ils appliquent la maxime de Jean Cocteau : “puisque ces mystères me dépassent, feignons d’en être l’organisateur”.
Avec quelque raison, le sujet étant immature et complexe. Alors qu’Apple a d’ores et déjà annoncé qu’Apple Intelligence ne serait pas lancé en Europe à la rentrée 2024, comme dans les autres pays du monde, Meta lui emboîte le pas, évoquant un cadre réglementaire trop incertain dans les pays de l’Union Européenne (RGPD, IA Act, DMA…).
OpenAI, IA et éthique ?
Fin 2015, Elon Musk a co-fondé OpenAI avec Sam Altman et plusieurs autres associés. Comme son nom l’indique, OpenAI s’inspire des logiciels open source. Le but de cette organisation ouverte à but non-lucratif est de proposer une intelligence artificielle sûre pour le bénéfice de l’humanité. La technologie ne pourrait pas être monétisée, mais serait utilisée pour améliorer la société.
Toutefois, les bonnes intentions n’ont pas résisté à la réalité économique. OpenAI est devenue exactement le contraire : une solution fermée à but lucratif, contrôlée par une des plus grandes multinationales du monde : Microsoft.
Courant 2024, après le départ de ses deux responsables, l’équipe d’OpenAI chargée de la sécurité d’une potentielle superintelligence artificielle (IA) a été dissoute.
À vrai dire, que l’un des hommes (E. Musk) les plus riches du monde attaque en justice sa propre création n’est pas anodin.
Microsoft, l'éthique au coeur de l'IA
Comme toujours, avec Microsoft c’est du solide : son rapport sur une IA responsable est précis et consistant.
La politique IA responsable est déclinée en quatre points : gouvernance, cartographie, mesure, management. Voir aussi “Principes et approche de l’IA responsable”.
Vous pouvez aussi consulter le livre blanc How Microsoft Secures Generative AI.
Meta, une IA sérieusement éthique
Quant à Meta, les équipes de Mark Zuckerberg semblent avoir pris les aspects éthiques et sécuritaires au sérieux, en multipliant garde-fous et points de contrôle (red teams notamment).
L’avenir en dira l’efficacité.
Vous trouverez deux ressources dédiées de l’éditeur ici :
- Développer de manière responsable nos grands modèles de langage open source
- Guide d’utilisation responsable
Les aspects suivants sont particulièrement évoqués : cybersécurité, armes chimiques et biologiques, sécurité pour les enfants et enfin confidentialité.
Que retenir ?
Ce qu’on ignore ne fait pas peur : on ne sait pas ce qu’on ne sait pas. Et ce qu’on croit savoir est à la source de bien des phantasmes.
L’éthique touche à la morale et il n’est pas facile de faire rentrer celle-ci dans des règlements et des lois. Rappelons-nous les polémiques autour de la vaccination, obligatoire ou volontaire, des récentes années Covid.
Les quatre principes de l’éthique médicale (autonomie, bienfaisance, ne pas nuire et justice) ne pourraient-ils pas servir de guide dans ce voyage qu’il nous faudra bien entreprendre, sans naïveté mais sans inquiétude trop prononcée ? L’Union Européenne tente de s’y intéresser, à travers l’IA Act notamment, ce qui ne va pas sans discussion.
C’est bien la dose qui fait le poison.
_____________
Vous êtes un éditeur de logiciel ? Nous espérons que cet article aura nourri vos réflexions sur l’IA éthique.
Agora Software est l’éditeur de solutions d’IA conversationnelle dédiées aux éditeurs. Nous déployons, rapidement, des interfaces conversationnelles applicatives renforçant l’expérience utilisateur des applications et des plateformes. En intégrant Agora Software à votre application, vos utilisateurs bénéficient d’interactions riches, multilingues et omnicanales.
Vous souhaitez intégrer une IA conversationnelle à vos applications ?
Parlons-en : contact@agora.software
Si vous avez aimé cet article, vous aussi pourriez lire La Loi sur l’IA (AI Act) : dura lex, sed lex.
Et rejoignez-nous sur notre page Linkedin pour suivre notre actualité !
Vous voulez comprendre comment notre IA conversationnelle optimise la productivité et l’engagement de vos utilisateurs en complétant efficacement vos applications ?