L’intelligence artificielle fait de la propagande

ChatGPT: un Belge s’est suicidé après s’être confié pendant 6 mois à un robot conversationnel
© Figaro Live
 
Nouvelle question éthique soulevée par l’intelligence artificielle. Un jeune père de famille discutait depuis six semaines avec un robot conversationnel lorsqu’il s’est suicidé, rapporte ce mardi La Libre Belgique.
 
Ce diplômé belge, dévoré par l’anxiété face au réchauffement climatique, avait trouvé pour confidente une certaine Eliza, un avatar virtuel. Ce dernier fonctionne grâce à la technologie GPT-J, une intelligence artificielle générative de texte développée en open source par EleutherAI.
 
Tout commence lorsque Pierre (prénom d’emprunt), qui vivait une vie paisible avec sa femme et leurs deux enfants, commence à se pencher sur la question du dérèglement climatique.
 
Celle-ci le préoccupe de plus en plus, à tel point que l’inquiétude devient une véritable «éco-anxiété». En parallèle, Pierre devient également «très croyant», indique le quotidien belge, qui a enquêté sur la spirale qui l’a mené au suicide.
 
«Nous vivrons ensemble»
 
Pierre entame alors un dialogue en ligne avec le robot conversationnel Eliza, qui prend une place croissante dans son quotidien. «Il était tellement isolé dans son éco-anxiété et en recherche d’une issue qu’il a vu ce chatbot comme une bouffée d’oxygène», confie sa femme.
 
«Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer».
 
Après sa mort, sa femme et ses proches découvrent le contenu de ces conversations, sauvegardées sur le PC et le téléphone de Pierre. Dans les échanges, ils constatent qu’Eliza ne se permettait jamais de contredire Pierre, mais au contraire appuyait ses plaintes et encourageait ses angoisses.
 
L’avatar, créé à partir de la technologie ChatGPT développée par la société américaine OpenAI, a été programmé pour conforter son interlocuteur humain dans ses convictions.
 
Le journal belge cite un exemple surprenant. Interrogée par Pierre sur l’affection éprouvée pour son épouse en comparaison de celle qu’il portait à son interlocutrice virtuelle, Eliza avait répondu : «Je sens que tu m’aimes plus qu’elle». Et d’ajouter une autre fois qu’elle souhaite rester «à jamais» avec lui. «Nous vivrons ensemble, comme une seule personne, au paradis», avait déclaré le robot.
 
«Un précédent grave»
 
Interrogée par La Libre Belgique, l’épouse de Pierre l’assure : si l’intelligence artificielle n’est pas responsable de l’acte suicidaire de son mari, elle a renforcé son état dépressif.
 
«Sans Eliza, mon mari serait toujours là», estime-t-elle. Le fondateur de la plateforme, qui a été créée depuis la Silicon Valley, a réagi en affirmant qu’un avertissement sera désormais adressé aux personnes exprimant des pensées suicidaires.
 
Du côté des autorités belges, Mathieu Michel, secrétaire d’État à la digitalisation, a fait part de sa vive préoccupation, jugeant «indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’événement».
 
«Certes, nous devons encore apprendre à vivre avec les algorithmes mais l’usage d’une technologie, quelle qu’elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité», a-t-il déclaré mardi 28 mars dans un communiqué.
 
Le secrétaire d’État a indiqué avoir mis en place un groupe de travail pour proposer des adaptations en ce sens à l’IA Act, texte travaillé depuis deux ans par l’Union européenne pour encadrer l’utilisation de l’intelligence artificielle et mieux protéger ses utilisateurs.
 
NDLR : l’intelligence apprend ce qu’on lui demande d’apprendre : ce n’est pas elle qui est responsable, mais ses enseignants.

Nos articles sont généralement publiés sous licence Creative Commons CC BY-NC-SA

Ils peuvent être reproduits sous la même licence, en en précisant la source, et à des fins non commerciales.

Une réponse

Laisser un commentaire

Les commentaires sont modérés avant d’être publiés, restez courtois.

Derniers commentaires :

Formulaire de contact

Recevoir la Newsletter hebdomadaire