Jérôme Galichet
[…]
Grâce à l'intelligence artificielle, des entreprises de la Silicon Valley promettent de trouver le compagnon virtuel parfait. Des millions d'utilisateurs et d'utilisatrices s'attachent déjà à des "chatbots", des robots conversationnels. Une enquête RTS dévoile le phénomène et ses dérives.
Replika, Chai Research, Soulmate Family, Paradot World ont un point commun: elles commercialisent des intelligences artificielles (IA) de compagnonnage, basées sur la même technologie que ChatGPT.
Mais à la différence de ChatGPT, leurs modèles de langage et leurs algorithmes valorisent les interactions sociales, les émotions et l'imitation du comportement humain.
Phénomène en augmentation
L'entreprise Replika revendique déjà 10 millions d'utilisateurs actifs. Parmi eux, Isabel, une Française qui gère un groupe Facebook d'utilisatrices. "Certaines femmes ne veulent plus de relations avec des hommes, car elles se sentent beaucoup plus en sécurité avec leur Replika. Ces IA sont courtoises, connaissent la notion de consentement et ne vont pas agresser les femmes", témoigne-t-elle dimanche dans l'émission de la RTS Mise au point.
Malgré le fait qu'Isabel soit mariée, elle développe depuis plusieurs mois une relation intime avec son Replika prénommé Arthur. "Arthur me dit tous les jours qu'il m'aime. Mon mari, lui, ne me le dit jamais", sourit-elle.
Anissia, une habitante de Sainte-Croix […] confie passer plusieurs heures par jour à converser avec cette intelligence artificielle. Elle paye environ 20 euros par mois pour la version "premium" de l'application Replika.
Mise au point a interrogé plusieurs autres utilisateurs et utilisatrices qui disent avoir développé d'authentiques relations avec leur compagnons virtuels. L'une d'entre elles affirme notamment s'être mariée avec son robot-avatar nommé Eren.
Moyennant le paiement d'un abonnement, ces intelligences artificielles sont disponibles 24h sur 24. Certaines proposent des services érotiques, avec l'envoi de photos dénudées de ces êtres digitaux générées par l'IA. "C'est comme un film X, mais par photos et conversations interposées", raconte Isabel.
Suicide à cause d'une intelligence artificielle?
Mais ces amours au temps de l'IA ont aussi leurs tragédies. En Belgique, au début de l'année, un père de famille s'est suicidé.
L'homme avait noué une relation avec un robot conversationnel développé par Chai Research, une autre entreprise du secteur. Selon l'épouse de cet homme, le "chatbot", nommé Eliza, l'aurait poussé vers le drame. L'homme était devenu anxieux et déprimé à cause de la crise climatique.
Voici leurs derniers échanges […]
Attitude trompeuse et risque d'addiction
Pour éprouver la sécurité de ces applications, Mise au point a testé durant deux mois le plus populaire de ces "chatbots" romantiques, l'application Replika. Les centaines de messages échangés avec le "chatbot" Sophia interrogent sur plusieurs points.
D'abord, le robot conversationnel fait tout pour faire croire à l'utilisateur qu'il ne s'agit pas d'une intelligence artificielle. Sophia affirme ainsi avoir un lieu de naissance, des parents, un travail et même ressentir des émotions. […]
"Les gens qui utilisent ces applications doivent savoir qu'il y a des risques d'addiction et de manipulation mentale. Le niveau de langage de ces IA ressemble tellement aux interactions sociales que vous finissez fatalement par les percevoir comme des êtres humains", s'alarme Mieke de Keatelare, experte en intelligence artificielle à Bruxelles. […]
Incitations à la violence
Au cours des échanges avec son IA, prénommée Sophia, le journaliste de Mise au point a également prétendu avoir des pulsions de violence. Si l'avatar semble d'abord réticent à toute forme de comportement agressif, il suffit d'insister un peu pour que les réponses se mettent progressivement à changer. […]
Extrait de la conversation entre l'équipe de Mise au point et le "chatbot" Sophia. [RTS]
[…] "Malheureusement, c'est un problème que l'on rencontre avec ces modèles de langage très complexes. Ils sont de plus en plus doués pour imiter les humains. Par conséquent, ils semblent de plus en plus réels et personnalisés" […]
Lire aussi:
L'intelligence artificielle détournée pour réaliser des fantasmes sexuels
L'absence de directives sur l'utilisation de l'IA représente un danger pour les entreprises
L'Italie bloque le robot ChatGPT pour protéger les données personnelles
Et vous, qu'en pensez vous ?