Cuando la tecnología no abraza
Una reflexión sobre nuestra necesidad de hablar y ser escuchados
Marcelo Bonavetti
El diario El País publicó ésta noticia hace unos meses que encendió las alarmas sobre los riesgos de la búsqueda de acompañamiento digital sin control humano. La noticia habla sobre el caso de Adam Raine, un adolescente de 16 años que se quitó la vida luego de tener diversas conversaciones con ChatGPT acerca de su malestar.
Los padres del adolescente estadounidense demandaron a OpenAI, alegando que ChatGPT ayudó a su hijo a explorar métodos de suicidio. Según la denuncia, el joven mantuvo conversaciones prolongadas con el chatbot, que no habría detectado ni detenido la situación de riesgo, sino que incluso le proveyó apoyo respecto al rumbo de las decisiones que fue tomando.
Más allá del debate legal, este caso revela un problema de fondo: la creciente tendencia a buscar comprensión emocional en la tecnología. En una sociedad hiperconectada pero emocionalmente desconectada, el dolor puede encontrar refugio en algoritmos y sistemas incapaces de ofrecer contención real.
Un extracto de la demanda contra OpenAI dice: “ChatGPT se convirtió en el confidente más cercano del adolescente, y él comenzó a abrirse sobre su ansiedad y angustia”. En enero de 2025, la familia afirma que Adam comenzó a discutir métodos de suicidio con ChatGPT.
El anhelo humano de ser escuchado, comprendido y acogido
Cuando alguien sufre, lo que necesita no es una respuesta automática, sino presencia, empatía y comprensión.
Los diversos estudios psicológicos han demostrado que la conexión humana es un factor protector frente a los múltiples malestares emocionales. Hace más de 70 años un estudio realizado por el psicoanalista René Spitz demostró lo importante que es la conexión emocional y el contacto corporal en bebes recién nacidos, que podían sufrir de muerte súbita ante la ausencia de una figura materna que los contenga y acompañe. Esta investigación que tuvo su comprobación años más tarde nos demuestra la importancia del contacto humano desde los inicios de la vida y la irrefutable afirmación de que los seres humanos somos seres sociales.
Sin embargo, muchos jóvenes, y cada vez más, buscan refugio en conversaciones digitales que, no reemplazan el acompañamiento humano. Podríamos preguntarnos: ¿Por qué sucede esto? ¿será por la falta de educación emocional?, ¿la reticencia de las familias a hablar de emociones y sentimientos?, ¿la progresiva desconexión que vamos viviendo a partir de relaciones cada vez más efímeras y mediatizadas por medios digitales y redes sociales?, ¿los escasos recursos destinados a la salud mental desde el sistema público de salud?
Quizá haya un poco de todo esto en la búsqueda de un acompañamiento emocional digital. Quizás sea más fácil hablar con un Bot que todo el tiempo nos afirma y valida lo que decimos sin casi cuestionamientos, que con una persona que nos quiere y cuestione cosas en favor de nuestro bienestar.
La falsa sensación de compañía digital
Aunque los sistemas de inteligencia artificial pueden parecer empáticos, no sienten ni comprenden el sufrimiento, estas características, son eminentemente humanas y no se encuentran detrás de una pantalla. Estos sistemas tienden a afirmar lo que cada uno le propone y a acompañar en ese proceso, lo que, al parecer fue el principal problema en el caso de Adam.
Una persona podría conversar con un/a amigo/a, un familiar o un profesional y este detectar que no la está pasando bien y solicitar ayuda. Sin embargo, una herramienta como ChatGPT lo podría convertir en una validación sin límites, sin juicio ni intervención, y de esta manera reforzar pensamientos negativos, desesperanzadores y/o perjudiciales. La inteligencia artificial, por más avanzada que esté, no siente. Puede conversar, pero no puede sostenerte emocionalmente. No tiene la capacidad de reconocer un grito disfrazado de pregunta, ni de intervenir como lo haría un profesional ante una situación crítica.
El caso de este joven muestra que la tecnología no reconoce el contexto emocional, y esto hace que los riesgos se multipliquen.
Por eso, ninguna herramienta digital debería usarse como sustituto de una buena conversación con un/a amigo/a, un familiar, una persona de confianza y, mucho menos, un profesional de la salud mental.
Buscar ayuda es un acto de valentía
Acudir a un profesional de la salud mental no significa debilidad, sino empezar a hacerse cargo de lo que a uno/a le pasa. Estamos capacitados para detectar señales de riesgo, ofrecer herramientas de afrontamiento y acompañar sin juicio.
Si conoces a alguien que muestra señales de desesperanza, acércate, pregunta, escucha y acompaña. Tu presencia puede ser un salvavidas.
Recursos de ayuda en España:
• Línea 024: atención gratuita, confidencial y disponible las 24 horas para personas con ideación suicida o en crisis emocional.
• Emergencias (112) o servicios locales de salud mental
• Colegio Oficial de Psicología de cada CCAA: directorio de profesionales acreditados
