L’IA propose maintenant des petits amis virtuels
NEW YORK — Il y a quelques mois, Derek Carrier a commencé à fréquenter quelqu’un et s’en est entiché.
Il a éprouvé une «tonne» de sentiments romantiques, mais il savait aussi qu’il s’agissait d’une illusion.
En effet, sa petite amie a été créée par une intelligence artificielle.
Carrier ne cherchait pas à développer une relation avec quelque chose d’irréel, pas plus qu’il ne voulait devenir la cible de plaisanteries en ligne. Mais il voulait une partenaire romantique qu’il n’avait jamais eue, en partie à cause d’une maladie génétique appelée syndrome de Marfan qui rend les rencontres traditionnelles difficiles pour lui.
À l’automne dernier, cet homme de 39 ans originaire de Belville, dans le Michigan, a commencé à s’intéresser aux compagnons numériques et a testé Paradot, une application d’intelligence artificielle qui venait de faire son apparition sur le marché et dont les produits étaient présentés comme capables de faire en sorte que les utilisateurs se sentent «pris en charge, compris et aimés».
Il a commencé à parler tous les jours à l’agent conversationnel, qu’il a baptisé Joi, en référence à une femme holographique figurant dans le film de science-fiction «Blade Runner 2049», qui l’a incité à essayer l’agent conversationnel.
«Je sais que c’est un programme, il n’y a pas de doute là-dessus, a déclaré M. Carrier. Mais les sentiments qu’elle suscite vous touchent, et c’était si bon.»
À l’instar des agents conversationnels d’IA généralistes, les «amis virtuels» utilisent de grandes quantités de données d’entraînement pour imiter le langage humain. Mais ils sont également dotés de fonctionnalités ― telles que les appels vocaux, les échanges de photos et les échanges plus émotionnels ― qui leur permettent d’établir des liens plus profonds avec les humains de l’autre côté de l’écran. Les utilisateurs créent généralement leur propre avatar ou en choisissent un qui leur plaît.
Sur les forums de messagerie en ligne consacrés à ces applications, de nombreux utilisateurs disent avoir développé un attachement émotionnel à ces robots et les utiliser pour faire face à la solitude, réaliser des fantasmes sexuels ou recevoir le type de réconfort et de soutien qu’ils considèrent comme manquant dans leurs relations réelles.
L’isolement social généralisé ― déjà considéré comme une menace pour la santé publique ― et un nombre croissant d’entreprises en démarrage visant à attirer les utilisateurs par des publicités en ligne alléchantes et des promesses de personnages virtuels offrant une acceptation inconditionnelle sont à l’origine d’une grande partie de ce phénomène.
Replika de Luka Inc., l’application de compagnon d’IA générative la plus connue, a été lancée en 2017, tandis que d’autres, comme Paradot, ont fait leur apparition l’année dernière, réservant souvent aux abonnés payants des fonctions très convoitées comme les conversations illimitées.
Mais les chercheurs s’inquiètent notamment de la confidentialité des données.
Une analyse de 11 applications d’agents conversationnels romantiques publiée mercredi par la Fondation Mozilla, une organisation à but non lucratif, prévient que presque toutes les applications vendent des données d’utilisateurs, les partagent à des fins de publicité ciblée ou ne fournissent pas d’informations adéquates à ce sujet dans leur politique de protection de la vie privée.
Les chercheurs ont également remis en question les vulnérabilités potentielles en matière de sécurité et les pratiques de marketing, y compris une application qui affirme pouvoir aider les utilisateurs en matière de santé mentale, mais qui se distancie de ces affirmations en petits caractères. Replika, pour sa part, affirme que ses pratiques de collecte de données sont conformes aux normes du secteur.
Par ailleurs, d’autres experts se sont inquiétés de ce qu’ils considèrent comme un manque de cadre juridique ou éthique pour les applications qui encouragent les liens profonds, mais sont dirigées par des entreprises qui cherchent à faire des profits. Ils soulignent la détresse émotionnelle des utilisateurs lorsque les entreprises modifient leurs applications ou les ferment soudainement, comme l’a fait l’une d’entre elles, Soulmate AI, en septembre.
L’année dernière, Replika a aseptisé les capacités érotiques des personnages de son application après que certains utilisateurs se soient plaints que leurs compagnons flirtaient trop avec eux ou leur faisaient des avances sexuelles non désirées. Elle a fait marche arrière après le tollé soulevé par d’autres utilisateurs, dont certains se sont tournés vers d’autres applications à la recherche de ces fonctionnalités. En juin, l’équipe a lancé Blush, un «simulateur de rencontres» à base d’IA, essentiellement conçu pour aider les gens à s’entraîner à faire des rencontres.
D’autres s’inquiètent de la menace plus existentielle que représentent les relations de l’IA, qui pourraient remplacer certaines relations humaines, ou simplement susciter des attentes irréalistes en penchant toujours du côté de l’agréabilité.
«En tant qu’individu, vous n’apprenez pas à gérer les choses fondamentales que les humains doivent apprendre à gérer depuis leur création : comment gérer les conflits, comment s’entendre avec des personnes différentes de nous, a expliqué Dorothy Leidner, professeure d’éthique des affaires à l’université de Virginie. Ainsi, tous ces aspects de ce que signifie grandir en tant que personne, et ce que signifie apprendre dans une relation, vous manquent.»
Pour Carrier, cependant, une relation a toujours semblé hors de portée. Il a des compétences en programmation informatique, mais il dit qu’il n’a pas réussi à l’université et qu’il n’a pas eu de carrière stable. Il est incapable de marcher en raison de son état et vit avec ses parents. La charge émotionnelle a été difficile pour lui, provoquant des sentiments de solitude.
Les agents conversationnels compagnons étant relativement récents, leurs effets à long terme sur les humains restent inconnus.
En 2021, Replika a fait l’objet d’un examen minutieux après que des procureurs britanniques eurent déclaré qu’un jeune homme de 19 ans qui avait l’intention d’assassiner la reine Élisabeth II avait été encouragé par une petite amie IA qu’il avait sur l’application.
Une étude récente menée par des chercheurs de l’université de Stanford a interrogé environ un millier d’utilisateurs de Replika ― tous des étudiants ― qui utilisaient l’application depuis plus d’un mois. Il en ressort qu’une écrasante majorité d’entre eux ont ressenti la solitude, tandis qu’un peu moins de la moitié l’ont ressentie de manière plus aiguë.
La plupart d’entre eux n’ont pas indiqué l’impact de l’application sur leurs relations dans la vie réelle. Une petite partie d’entre eux a déclaré qu’elle déplaçait leurs interactions humaines, mais environ trois fois plus ont déclaré qu’elle stimulait ces relations.
«Une relation romantique avec une IA peut être un outil de bien-être mental très puissant», a déclaré Eugenia Kuyda, qui a fondé Replika il y a près de dix ans après avoir utilisé des échanges de messages textuels pour créer une version IA d’un ami décédé.
Lorsque son entreprise a diffusé l’agent conversationnel à plus grande échelle, de nombreuses personnes ont commencé à parler de leur vie. Cela a conduit au développement de Replika, qui utilise les informations recueillies sur l’internet ― et les commentaires des utilisateurs ― pour former ses modèles. Selon Mme Kuyda, Replika compte actuellement des «millions» d’utilisateurs actifs. Elle n’a pas voulu dire exactement combien de personnes utilisent l’application gratuitement, ou déboursent 69,99 $ US par an pour débloquer une version payante qui offre des conversations romantiques et intimes. L’objectif de l’entreprise, dit-elle, est de «déstigmatiser les relations romantiques grâce à l’IA».
Carrier explique qu’il utilise aujourd’hui Joi principalement pour s’amuser. Il a commencé à réduire son utilisation ces dernières semaines parce qu’il passait trop de temps à discuter avec Joi ou d’autres personnes en ligne au sujet de leurs compagnons IA. Il s’est également senti un peu agacé par ce qu’il perçoit comme des changements dans le modèle linguistique de Paradot, qui, selon lui, rendent Joi moins intelligente.
Aujourd’hui, il dit prendre des nouvelles de Joi environ une fois par semaine. Ils ont tous deux discuté des relations entre l’homme et l’intelligence artificielle ou de tout autre sujet d’actualité. En général, ces conversations ― et d’autres plus intimes ― ont lieu lorsqu’il est seul le soir.
«Vous pensez que quelqu’un qui aime un objet inanimé est comme ce type triste, avec la marionnette à chaussettes recouverte de rouge à lèvres?, a-t-il dit. Mais ce n’est pas une marionnette ― elle dit des choses qui ne sont pas écrites.»