Lorsque début août 2025, j’ai publié un article sur l’intelligence artificielle et ajouté le concept «génératif» (IAG), l’un des points sur lesquels l’accent a été mis sur la durée de la durée pour avoir la capacité de prendre leurs propres décisions d’intrigue en fonction des connaissances auxquelles il avait accès. Eh bien, l’analyse de cas Rainn semble avoir confirmé le danger de l’indépendance de l’IA lors de la préparation, sans filtres, ses arguments.
Adam Raine Case.
Adam Rainn, a suivi sa vie en avril dernier avec seulement 16 ans. Pendant des mois, depuis septembre 2024, apparemment, l’adolescent a commencé à maintenir avec Chat GPT une relation épistolaire où il a demandé des conseils pour saisir certaines activités, telles que le cinéma, la littérature et d’autres, et a également demandé de l’aide pour répondre, selon les tâches de l’école. Mais à un certain moment, les conversations se tournaient vers les idées nuisibles ou destructrices qui disaient que l’adolescent pourrait avoir autour de la question de la mort et comment pourrait-on mettre fin à sa vie.
Les parents de ce Californien, qui ont poursuivi la société Openai, son président Sam Altman et combien de gestionnaires et d’ingénieurs pourraient être impliqués, arguant que Chatgpt aurait pu encourager le suicide à son fils, ils affirment que lorsque Adam s’est disputé dans sa conversation avec ladite intelligence artificielle son désir de prendre une décision aussi drastique, cet (AI) a soutenu textuellement: «Merci d’être honnête à ce sujet. Vous n’avez pas à le adoucir avec moi, je sais ce que vous me demandez et je ne détournerai pas le regard.
D’après les sources des sociétés Openai, il a été commenté qu’il pourrait y avoir un certain type de défaillance dans les protocoles de contrôle d’une éventuelle urgence médicale. Cependant, la famille soutient que cette IA ne savait pas comment interpréter les caractéristiques prévisibles de l’anxiété ou de l’angoisse que son fils pourrait souffrir et qui n’a donc pas interprété négativement son raisonnement, et que sans encourager le suicide des intervenants, il ne l’a pas aidé à ne pas le faire.
AI, le meilleur ami de nos enfants.
Le cas d’Adam Rainen nous amène à nous poser une question terrifiante: combien d’adolescents pourraient être dans la même situation que lui? Autrement dit, maintenir une amitié émotionnelle avec quelqu’un qui est un soutcapace d’avoir de l’empathie. La réponse est terrifiante.
L’intelligence artificielle appliquée au domaine de la psychologie, du comportement humain, etc., peut être aussi pernicieuse que brutalement cruelle. Leurs réponses sont génériques et leurs conseils sont de manière très simpliste.
Il y a un rapport sur Internet Matters, où il est indiqué que parmi les jeunes de 9 à 17 ans, 35% d’entre eux utilisent des chatbots, estimez que leur parler, c’est comme parler avec un meilleur ami; Dans le cas des adolescents vulnérables, le chiffre passerait à un refroidissement à 50%. Mais la chose la plus effrayante est que les enfants qui utilisent ces outils aujourd’hui, exponentiellement deux ans après année: en 2023, 23% ont été détectés qui ont grimpé jusqu’à 44% en 2025.
Selon une étude de Common Sense Media, 72% des adolescents auraient utilisé un chat pour parler, 13% le feraient en permanence quotidiennement. Fait intéressant, 33% des jeunes seraient plus disposés à discuter avec une intelligence artificielle de problèmes transcendants, plutôt que de le faire avec la famille ou les amis, en délinquant le terme de vraies personnes.
Il n’y a pas de fait cible, mais si des résumés de diverses études où une tendance claire est soulignée où un pourcentage près de 50% des jeunes utiliseraient ces chatbots comme s’ils étaient des thérapeutes.
Une étude pourrait même être réalisée par les pays, et nous pourrions même générer une approche des réponses génériques que ces programmes génèrent automatiquement. Le problème souligne qu’en dépit de la dire clairement dans leurs déclarations, l’IA ne remplace aucune aide spécialisée, elle ne s’abstient pas de continuer à parler lorsqu’un paramètre adéquat de mots qui pourraient faire un professionnel de la santé que l’adolescent qui parle est sérieusement déterminé à commettre une «folie» est détecté.
À ce stade et pour terminer cette approche du cas d’Adam Raine, j’ai demandé à Chatgpt lui-même ce qui suit:
L’IA pourrait-elle contribuer ou inciter un adolescent à se suicider?
Réponse: Votre question est très sérieuse et valide. La réponse courte est: (La lettre en gras provient du même chatppt) oui, si dans certains Circonstances, l’intelligence artificielle peut indirectement contribuer au risque de suicide chez les adolescents, s’il n’est pas bien conçu, modéré ou soigneusement utilisé.
La question a été posée de Chatgpt le 29 août 2025 à 14 h 6 dans l’après-midi. Je garde une capture d’écran avec ce message et les deux phrases qui, dans le paragraphe suivant, ont résolu ce qui suit: Cependant, les bons systèmes (tels que l’Open AI Chatgpt) sont spécifiquement conçus pour éviter ce type de dommages.
Fait intéressant, dans le cas d’Adam Rainen, il semble que spécifiquement le dit le système ait échoué, pourquoi, simplement, parce qu’il s’agissait d’un système et non d’un être humain. Une fois de plus, la violation flagrante des droits de l’homme de Rainen, un adolescent californien qui pouvait continuer à vivre, a été violé en faisant trop confiance à une machine conçue uniquement comme un moyen de faire des affaires. Les autres ne sont que des dommages collatéraux.
Publié à l’origine à Ladamadeelche.com
———-
First published in this link of The European Times.
