Chat GPT, Replika, Eliza, Midjourney… de plus en plus, l’intelligence artificielle (IA) dépasse la fiction et débarque dans notre quotidien. Les robots des blockbusters américains sont désormais complètement ringardisés. L’intelligence artificielle fait désormais partie de notre quotidien mais sa banalisation sans contrôle peut avoir de graves conséquences. Enquête (Photo rb/www.imazpress.com)
Il y a de cela quelque semaine, nous avions testé l’application Chat GPT. Déjà, à l’époque, nous évoquions l’inquiétude de faire face à cette intelligence artificielle capable d’échanger avec nous.
Cette fois-ci, nous avons décidé de créer des profils sur l’application Eliza (une application en anglais). Un robot soi-disant thérapeute. En quelques questions, l’intelligence artificielle échange avec nous, tel un thérapeute à qui l’on parlerait de vive voix dans un cabinet. L’intelligence nous questionne, fait preuve de compréhension, d’empathie.
Existe également Replika, une application vous proposant de créer un avatar femme ou homme avec lequel échanger (en échange d’un abonnement).
Autre application, autre utilisation, Midjourney. Cette dernière créé des images tel qu’il devient difficile de faire la différence entre le réel et la création… quoique. À voir certaines images, on se doute bien qu’elles proviennent de l’imagination d’internautes aux idées loufoques.
Qui pourrait croire que le pape, même s’il a le droit d’aimer la mode, se promène en doudoune XXL, si stylé qu’on pourrait le croire à la Fashion week ? Qui surtout, pourrait croire qu’Emmanuel Macron ramasse les ordures de Paris ?
Macron éboueur, le Pape en doudoune… Ces fausses images qui circulent sur le net https://t.co/Y5YCZvBw9h
— Europe 1 ???????????? (@Europe1) March 29, 2023
Si ces images prêtent à sourire de par leur absurdité, elles paraissent pourtant bien réelles. Et c'est là que réside tout le problème.
Lire aussi - L'Italie bloque le robot conversationnel ChatGPT, star de l'intelligence artificielle
- L'IA ou la menace d'une utilisation non contrôlée -
Toutefois, user de ces applications, douées d’intelligence artificielle peut s’avérer particulièrement dangereux. En Belgique, un homme, marié et père de famille s’est suicidé après avoir dialogué durant six semaines avec le chatbot nommé Eliza, a rapporté La Libre Belgique. Ce Belge, dévoré par l’anxiété, avait trouvé oreille attentive auprès de cette IA. « Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer », a confié son épouse.
Dans les échanges que sa femme et ses proches ont découvert après sa mort, ils constatent qu'Eliza ne se permettait jamais de contredire la victime, mais au contraire appuyait ses plaintes et encourageait ses angoisses.
Interrogée par La Libre Belgique, l'épouse de Pierre l'assure : si l'intelligence artificielle n'est pas responsable de l'acte suicidaire de son mari, elle a renforcé son état dépressif. « Sans Eliza, mon mari serait toujours là », estime-t-elle.
Le fondateur de la plateforme, qui a été créée depuis la Silicon Valley, a réagi en affirmant qu'un avertissement sera désormais adressé aux personnes exprimant des pensées suicidaires.
Mais comment expliquer que des personnes se fassent mener par ces intelligences artificielles, au risque même d'en tomber amoureux ou d’en mourir ?
« L'IA peut exercer une emprise psychique sur son utilisateur car cette application est faite pour répondre aux attentes de l'humain et même de les devancer. De fait l'IA sait répondre aux peurs, aux angoisses, aux fantasmes de l'humain et donc le met en confiance », nous explique le psychologue David Goulois.
« La confiance installée, en cas de perversion (c'est possible si elle est configurée et pervertie par son inventeur) reproduit le plaisir de l'humain à faire souffrir l'autre humain. En cas de bug, elle répond maladroitement sans formes, sans nuances et donc les propos sont compris sans filtres », ajoute le spécialiste.
C’est d’ailleurs face à l’essor de l’intelligence artificielle qu’une centaine d’experts dont Elon Musk ont réclamé dans une lettre ouverte, « une pause » dans le développement de l’intelligence artificielle. Ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité, avec notamment des autorités réglementaires dédiées, la surveillance des systèmes d'IA, des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les "perturbations économiques et politiques dramatiques que l'IA provoquera".
"Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ?", s'interrogent-ils.
- La domination de l’intelligence artificielle est-elle inévitable ? -
Avec leur développement aussi rapide qu’inquiétant, ces intelligences artificielles menacent de nombreux corps de métiers tels que les métiers de l’administratif, les infographistes et même nous, journalistes.
Marc est infographiste et vidéaste. Il craint particulièrement pour l’avenir de sa profession. « En tant que graphiste je prends le temps de me former sur plusieurs supports alors que l’intelligence artificielle le fait en quelques jours. » « Déjà que le métier est dévalorisé alors que les employeurs cherchent des infographistes sachant faire plusieurs métiers pour un salaire, avec l’IA, notre profession est morte », s’inquiète-t-il. « L’intelligence artificielle a accès à tout, avec des facultés d’apprentissage infinies. »
Une menace pour de nombreux salariés qui inquiète les spécialistes de l’informatique. « Avec la création des IA les entreprises ont ouvert la boîte de Pandore et ça va être très compliqué d’arrêter cela », alerte un programmeur. « On va prendre 20 ans d’évolution en un an », lance-t-il.
José Macarty, promoteur de Mascareignes artificial intelligence academy (MAIA) située à Saint-Paul nous alerte sur les dangers de l’essor de l’IA.
« Depuis le début de l'Humanité, les innovations technologiques ont constitué à la fois des opportunités de développement et aussi des dangers. S'agissant de l'intelligence artificielle, elle risque effectivement de se traduire par la destruction des pans entiers de l'économie, le licenciement des milliers voire des millions de travailleurs, l'atteinte aux libertés individuelles et collectives, le développement de nouvelles formes de criminalité et générer une véritable crise civilisationnelle avec la remise en cause des valeurs morales, le rapport à l'autre, et notre vision du monde. »
« A contrario, l'intelligence artificielle offre des opportunités de croissance exceptionnelle avec l'élaboration de nouveaux outils qui facilitent la création industrielle et artistique, ouvre de nouveaux horizons en matière d'apprentissage, de divertissement », ajoute-t-il.
« En fin de compte, l'intelligence annonce un nouveau mode où il faudra tout réinventer : le travail, les règles de fonctionnement de la société, les relations humaines, la conception de la vie. Cette nouvelle naissance contient à la fois un potentiel de vie et de mort », conclut José Macarty.
Mais comment cela fonctionne ? "La programmation d’un IA implique plusieurs étapes essentielles. Il s'agit notamment de définir les besoins et les objectifs, de concevoir un modèle basé sur des algorithmes d'apprentissage automatique, de former le modèle avec des données adaptées, de l'optimiser et de l'évaluer, puis enfin de l'intégrer dans une application ou un système (comme par exemple dans un jeu vidéo, ou un robot)", nous explique Dany Narsou de l'entreprise Dntech.
"Les enjeux entourant l'IA et son développement sont multiples et complexes", ajoute-t-il. "Certains sont liés à la sécurité, la vie privée et les droits humains, tandis que d'autres sont liés aux conséquences sociales et économiques. Par exemple, l'usage de l'IA peut conduire à la surveillance de masse, la discrimination, la diffusion de fausses informations ou encore la substitution des emplois humains. Pour minimiser ces risques, il est crucial de mettre en place des systèmes d'IA transparents, éthiques et responsables, tout en instaurant une réglementation appropriée et une gouvernance efficace", prévient le spécialiste de l'informatique.
Est-ce que cela risque de se répandre de plus en plus au fil des années ? « Comme disent les anciens réunionnais : "on ne peut pas embarrer la mer".
Au lieu de perdre son énergie à vouloir empêcher l'inéluctable, il serait plus judicieux d’anticiper les conséquences de cette nouvelle révolution technologique et prendre d'ores et déjà des mesures pour pouvoir en atténuer les effets négatifs et se saisir des opportunités qui se présentent », souligne José Macarty. « La question de savoir si l'intelligence artificielle risque de se répandre, est d'ores et déjà caduque. Elle est déjà dans nos technologies, nos pratiques et sans doute déjà dans notre manière de penser. »
- IA et vraie vie , deux réalités distinctes -
Des robots en passe de nous remplacer, des IA qui nous parle tels des humains… comment protéger la population face à l’évolution technologique de notre société ? Des hommes et des femmes qui, comme le père de famille qui s’est suicidé, peuvent rapidement basculer.
« En les informant des risques encourus, de la même manière qu'on informe du risque épileptique pour les jeux vidéo », ajoute David Goulois. « En invitant peut-être les utilisateurs à prendre du recul affectif par rapport à l'IA: une personne qui investit émotionnellement un être artificiel, idéalise ce dernier car déçu de l'humain. De fait il se coupe souvent du monde et devient alors la proie idéale de l'endoctrinement », ajoute le psychologue.
Un psychologue qui a d’ailleurs lui-même testé l’application Elsa pour mieux nous en parler. « C’est une application de thérapie rogérienne centrée sur les émotions. C'est séduisant au début mais auprès on se rend compte rapidement que les réponses sont aussi stéréotypées que celles d'une voyante (Méthode de psychologie déductive). De fait cela devient dangereux. »
Alors certes, nous devons apprendre à vivre avec les algorithmes et ces intelligences artificielles, mais n’oublions pas que l’usage de la technologie n’est en rien de la réalité. Une machine reste une machine. « L'intelligence émotionnelle et l’intelligence du cœur ne se comptent en termes de semi-conducteurs. Il est sans doute encore loin le temps où les robots seront capables de tomber amoureux », conclut José Macarty.
ma.m/www.imazpress.com/[email protected]
