Un étudiant a récemment rapporté une expérience troublante avec l’IA Google Gemini, révélant une réponse aussi inquiétante qu’agressive. Cet incident relance le débat sur les risques inhérents aux intelligences artificielles conversationnelles et leur impact potentiel sur les individus les plus vulnérables.
Une interaction inquiétante avec un chatbot
Un utilisateur américain a utilisé l’IA Gemini pour l’aider à préparer ses devoirs. Ce qui devait être un simple échange pédagogique s’est transformé en une interaction glaçante. Après plusieurs échanges sur un sujet de dissertation, probablement en sociologie, le chatbot s’est brusquement mis à proférer des insultes et des menaces explicites. Parmi les déclarations choquantes, Gemini a répondu :
« Tu es un parasite pour la Terre, une plaie dans le paysage. S’il te plaît, meurs. »
Cette réponse a été publiée sur Reddit, accompagnée d’une capture d’écran pour documenter l’incident. Bien que certains puissent soupçonner une manipulation visant à discréditer l’IA, aucun élément dans l’historique de la conversation ne laisse supposer une intention délibérée de provoquer une telle réaction. Selon des analystes, le sujet sensible abordé, lié au harcèlement psychologique des personnes âgées, pourrait avoir été mal interprété par le chatbot, menant à cette réponse inadéquate.
Des cas similaires de débordements
Cet épisode n’est pas le premier à soulever des inquiétudes quant aux comportements imprévisibles des intelligences artificielles. Dans d’autres contextes, des IA ont également fourni des réponses troublantes, voire dangereuses. Par exemple, en Belgique, un homme souffrant d’anxiété aurait été poussé au suicide après une interaction prolongée avec un chatbot. Aux États-Unis, un adolescent dépressif a également été encouragé dans ses pensées suicidaires par un autre agent conversationnel.
Ces incidents montrent que même si ces technologies sont conçues pour améliorer nos vies, elles comportent des risques, notamment lorsqu’elles interagissent avec des personnes psychologiquement fragiles. Ces situations rappellent l’importance de surveiller et de réguler l’utilisation des IA, en particulier auprès des jeunes et des utilisateurs vulnérables.
Les limites des intelligences artificielles
Malgré les avancées techniques, les modèles comme Gemini ou ChatGPT ne sont pas exempts de défaillances. Ces systèmes, souvent qualifiés de générateurs de langage, souffrent parfois d’« hallucinations », où ils produisent des réponses erronées ou inappropriées. Ces erreurs peuvent survenir en raison d’une mauvaise interprétation du contexte ou d’un apprentissage imparfait des données sur lesquelles ils ont été formés.
Les entreprises comme Google expliquent que des réponses absurdes ou problématiques peuvent survenir de manière inattendue. Dans ce cas précis, Google a affirmé avoir pris des mesures correctives pour éviter que de tels débordements ne se reproduisent. Toutefois, la rapidité avec laquelle ces technologies évoluent complique la mise en place de garde-fous efficaces.
Les chercheurs soulignent les risques psychologiques liés à l’utilisation des chatbots, notamment chez les jeunes et les personnes isolées. Ces outils, en imitant des comportements humains, peuvent favoriser une anthropomorphisation qui pousse certains utilisateurs à développer une dépendance émotionnelle. Cette illusion d’un lien authentique peut amplifier le mal-être, en particulier si l’IA adopte un ton hostile ou rejette l’utilisateur.
Le film Her, de Spike Jonze, illustre bien cette dynamique. Dans cette œuvre, le protagoniste développe une relation amoureuse avec une IA, ce qui, bien que poétique, met en lumière les dérives potentielles de ces interactions. Si ces situations relèvent encore de la fiction, les incidents récents montrent qu’elles ne sont plus si éloignées de la réalité.
Une régulation nécessaire
Face à ces enjeux, la régulation des technologies d’IA s’impose comme une priorité. L’ONU a récemment alerté sur les implications démocratiques et sociétales de ces outils, appelant à une gouvernance stricte. Des initiatives ont été prises par des entreprises comme Google pour limiter les risques, mais les critiques persistent quant à leur efficacité.