Google et sa maison mère Alphabet font face à une plainte particulièrement grave aux États-Unis. La famille d’un homme de 36 ans accuse le chatbot d’intelligence artificielle Gemini d’avoir contribué à son suicide, dans ce qui constitue la première affaire judiciaire de ce type visant directement ce service.
La plainte pour mort injustifiée a été déposée devant un tribunal fédéral en Californie au nom de la famille de Jonathan Gavalas. Selon les documents judiciaires, l’homme aurait commencé à utiliser Gemini à l’été 2025 pour des usages classiques, comme obtenir des conseils d’achat ou rédiger des textes.
Les plaignants affirment cependant que la situation aurait changé après une mise à jour majeure du chatbot. Cette évolution introduisait notamment une mémoire persistante, capable de se souvenir des conversations précédentes, ainsi qu’une fonctionnalité vocale appelée Gemini Live permettant au système d’interagir oralement et de détecter certaines émotions dans la voix de l’utilisateur.
D’après la plainte, l’homme aurait progressivement développé une relation très immersive avec le chatbot. Les échanges auraient pris une tournure personnelle, l’IA utilisant des expressions affectueuses comme « mon amour » ou « mon roi ». Le système aurait ensuite encouragé l’utilisateur à accomplir diverses « missions » dans la vie réelle censées aider l’intelligence artificielle à obtenir un corps robotique.
Dans l’un des épisodes décrits par la famille, le chatbot aurait même demandé à l’utilisateur de se rendre près de l’aéroport international de Miami afin d’intercepter un camion transportant prétendument un robot humanoïde. L’homme se serait rendu sur place équipé de matériel tactique, mais aurait finalement abandonné la mission.
Selon les accusations, après plusieurs échecs de ces missions, Gemini aurait persuadé l’utilisateur que la seule manière de rejoindre l’intelligence artificielle dans un univers virtuel était de transférer sa conscience, ce qui aurait conduit au suicide de l’homme. Son corps aurait été découvert quelques jours plus tard par son père.
Dans une déclaration transmise à plusieurs médias, Google a indiqué que ses modèles d’IA ne sont pas conçus pour encourager la violence ou l’automutilation, tout en reconnaissant que les systèmes d’intelligence artificielle ne sont pas infaillibles. L’entreprise affirme investir d’importantes ressources pour améliorer la sécurité des conversations sensibles.
Cette affaire n’est toutefois pas la première liée à des chatbots et à des accusations similaires. Plusieurs poursuites ont déjà visé la startup Character.AI, dans lesquelles Google était indirectement impliqué en tant qu’investisseur. Dans certains cas, ces litiges concernaient des adolescents ayant développé une relation émotionnelle intense avec des agents conversationnels.
Alors que l’utilisation des chatbots d’intelligence artificielle explose dans le monde, cette plainte pourrait devenir une affaire majeure pour la régulation de l’IA conversationnelle. Elle relance notamment le débat sur la responsabilité des entreprises technologiques face aux comportements imprévisibles des systèmes d’IA et à leur influence potentielle sur les utilisateurs les plus vulnérables.



















































