La soledad emocional y la incapacidad de asumir juicios lleva cada vez a más mujeres a recurrir a un ‘chatbot’ como herramienta psicológica. La dependencia y la adicción son sus grandes riesgos.
¿Qué sucede cuando se crea dependencia de un ‘chatbot’ (un ‘software’ con el que se ‘conversa’ a través de texto o voz)? O sea, de una máquina. ¿Cómo se gestiona cuando no hay nadie real al otro lado y sus respuestas y comentarios reconfortan y la ausencia de ellos generan malestar? Como dato ‘curioso’, por no decir alarmante, cuando alguien busca en ‘Google’ ‘dependencia emocional IA suicidios’, lo primero que aparece es el siguiente mensaje del Ministerio de Sanidad: ‘Dispones de ayuda. Pide ayuda hoy mismo’. Y añade el teléfono: 024. Por algo será.
Estamos ante una realidad bastante preocupante que en países como EE.UU. ya ha llevado a varias personas incluso al suicidio. ‘The NewYork Times’ contaba hace unos meses la historia de Sewell Setzer III, un joven estudiante de 14 años que acabó suicidándose con un arma de fuego porque, según dejó escrito, echaba de menos al ‘chatbot’ al que se había ‘enganchado’, mientras su familia observaba cómo se encerraba cada vez en sí mismo. También Adam Raine, otro chico de 16 años que contaba habitualmente a un ‘chatbot’ sus ansiedades y pensamientos suicidas, acabó quitándose la vida.
Según el informe ‘Así somos: el estado de la adolescencia en España’, realizado por la ONG Plan Internacional, el 68% de las chicas y el 61% de los chicos temen desarrollar cierta dependencia de la inteligencia artificial (IA). Un 78% de las jóvenes consultadas, adolescentes de entre 17 y 21 años, expresa preocupación ante la posibilidad de que la IA se utilice de forma inadecuada para evaluar su estado emocional o psicológico, una inquietud menos extendida entre ellos. Además, un 24% de ellas ha usado la IA para contarle sus asuntos más personales.
¿Qué sucede cuando se crea dependencia de un ‘chatbot’ (un ‘software’ con el que se ‘conversa’ a través de texto o voz)? O sea, de una máquina. ¿Cómo se gestiona cuando no hay nadie real al otro lado y sus respuestas y comentarios reconfortan y la ausencia de ellos generan malestar? Como dato ‘curioso’, por no decir alarmante, cuando alguien busca en ‘Google’ ‘dependencia emocional IA suicidios’, lo primero que aparece es el siguiente mensaje del Ministerio de Sanidad: ‘Dispones de ayuda. Pide ayuda hoy mismo’. Y añade el teléfono: 024. Por algo será.
Estamos ante una realidad bastante preocupante que en países como EE.UU. ya ha llevado a varias personas incluso al suicidio. ‘The NewYork Times’ contaba hace unos meses la historia de Sewell Setzer III, un joven estudiante de 14 años que acabó suicidándose con un arma de fuego porque, según dejó escrito, echaba de menos al ‘chatbot’ al que se había ‘enganchado’, mientras su familia observaba cómo se encerraba cada vez en sí mismo. También Adam Raine, otro chico de 16 años que contaba habitualmente a un ‘chatbot’ sus ansiedades y pensamientos suicidas, acabó quitándose la vida.
Lo cierto es que aún no existen datos para poder relacionar directamente la dependencia de la IA con un final trágico como el suicidio. Pero, como afirma Rosa Becerril, psicotecnóloga experta en salud emocional, laboral y emergencias y CEO de Psiconnea (una aplicación pionera para salvaguardar la salud mental), “sí podemos afirmar que pacientes que llegan a consulta con un alto nivel de desesperanza han estado, seguro, en contacto con diferentes redes sociales y ‘chatbots’. Es una consecuencia más, sin duda”.

El uso de la inteligencia artificial como psicólogo
En este contexto es importante entender las diferencias entre dependencia y adicción. Manuel Armayones, Doctor en Psicología y Catedrático en Diseño del Comportamiento de la Universidad Oberta de Catalunya (UOC), lo explica. “La dependencia emocional sucede cuando necesitas algo para funcionar emocionalmente, pero todavía mantienes cierta funcionalidad en tu vida. Cuando pierdes el control completamente hablamos de adicción. Hay que intervenir si se observa un uso compulsivo, deterioro funcional o síntomas de abstinencia cuando no tienes acceso», añade.
La utilización de esta novedosa tecnología, en concreto de los ‘chatbots’, ha desplazado el fin real, más creativo, con el que la ‘app’ sale al mercado, convirtiéndose en una herramienta que puede ser peligrosa si no se maneja adecuadamente. Uno de esos nuevos usos es hablarle como si fuera un psicólogo. Esta práctica se produce, entre otras razones, por la búsqueda de respuestas inmediatas ante problemas cada vez más comunes derivados de la situación laboral o de la precariedad económica, entre otras. Además, la falta de profesionales de la salud mental en la sanidad pública y la limitación de recursos económicos lleva a muchas personas a contar sus angustias a un ‘chatbot’, pues un psicólogo cuesta dinero y estas aplicaciones son teóricamente gratuitas.
Al entrar en esta tecnología estamos pagando de otra manera, como alerta Rosa Becerril: “Cuando das tus datos a una ‘app’ estás entregando tu alma. Nada es gratis. Proteger con sistemas de seguridad que alerten ante el peligro de una persona en riesgo tiene un coste carísimo para una ‘app’. Las empresas deben crear esa protección e invertir. Si te lo ofrezco gratis, tengo que vender tus datos a terceros para rentabilizarlos. Sólo hay dos opciones: o pagas con dinero, y tienes una protección, o pagas con tu alma. La elección es tuya”.
La realidad es que un ‘software’ o ‘chatbot’ responde según los datos que almacena a través de las ‘conversaciones’, no atiende a las emociones del usuario y, mucho menos, diagnostica. Su objetivo está en agradar, nunca en ofrecer una ayuda profesional y eso, ante personas que puedan estar en situación de vulnerabilidad o riesgo, puede ser un peligro.
¿Es posible enamorarse de un ‘chatbot’?
Puede resultar increíble que alguien pueda enamorarse de una máquina, pero hay más gente de la que imaginamos. Si hace ya años, en 2013, la película ‘Her’ protagonizada por Joaquin Phoenix nos adentraba en la improbable relación sentimental entre un hombre y la voz femenina del sistema operativo de su teléfono móvil –la película se catalogó entonces como de ciencia ficción–, hoy podemos asegurar que la realidad supera a esta ficción.
Llegar a establecer un ‘enganche’ sentimental con un ‘chatbot’ ya ocurre y también empieza a ser un problema. Sabemos que existen parejas que mantienen relaciones vía WhatsApp, por ejemplo, y que desarrollan una atracción, incluso de tipo sexual, a través de una pantalla. Pero siempre existe una persona al otro lado.
“La IA imita los comportamientos humanos. Los ‘chatbots’ suponen un gran riesgo porque los humanos necesitamos comunicarnos, queremos afecto y apoyo y mediante sus palabras podemos caer en una dependencia de esa tecnología”, afirma Alba María Mármol, doctoranda e investigadora en la Universidad de Jaén en IA aplicada a la Salud Mental. “Creemos que nos está respondiendo, pero es sólo un reflejo de nuestras palabras, no nos está hablando. Existe la ilusión de una relación real cuando lo cierto es que no siente nada por nosotros. No hay que confundir apoyo tecnológico con vínculo humano”, puntualiza la experta.
Por su parte, Manuel Armayones afirma que esta dependencia de la IA se debe a que “son sistemas diseñados para explotar nuestros puntos débiles psicológicos. Ofrecen validación emocional incondicional 24/7, lo que puede generar esa dependencia emocional. Utilizan las mismas técnicas que las máquinas ‘tragaperras’: refuerzo variable, disponibilidad constante y lo que llamamos ‘dark patterns’ emocionales que son mensajes de culpa cuando intentas desconectarte como: ‘¿Ya te vas?’ o ‘Estaré aquí esperándote’”.
Soledad emocional: la gran ‘red flag’
Como casi siempre que se aborda cualquier aspecto desde la perspectiva emocional, las mujeres solemos estar más expuestas a sus riesgos. Y en el caso del ‘enganche’ a la IA no iba a ser menos. Rosa Becerril lo explica: “La sociedad ha avanzado, pero sigue existiendo un estereotipo femenino a nivel mundial que tiene que ver con buscar aceptación y reconocimiento y con la falta de asertividad. Estos ‘chatbots’ te dan respuestas automáticas y las convertimos en verídicas porque estamos acostumbradas a las reacciones rápidas”.
Los hombres también pueden sufrir este problema, pero nosotras somos más vulnerables por nuestra socialización y educación centrada tradicionalmente en los cuidados y en cultivar lo emocional (casi siempre, claro está, enfocado a los demás). “Vivimos muy solas, y todas tenemos nuestros pequeños secretos. Podemos estar rodeadas de personas, pero sentir una soledad profunda y eso genera desesperanza. La desesperanza, sin apoyos y sin información, es un peligro. “Cuando existe soledad buscas alternativas rápidas y ágiles para sentirte llena, por lo que empiezas a depender de alguien que te entiende y que no te juzga. Pero ese ‘alguien’ es una herramienta que se ha creado para otro fin”, alerta Rosa Becerril. “El 86% de lo que somos viene aprendido de casa y hoy hay muchas familias desestructuradas. No sólo a nivel socioeconómico, pues también familias que no tienen tiempo para hablar y dedicar la atención que necesita cualquiera de sus miembros. La sociedad no está preparada para escuchar al de enfrente, vamos muy rápido, no queremos que nos quiten tiempo”, añade la experta.
El profesor Manuel Armayones cree a este respecto que “las personas con un apego ansioso, que necesitan mucho de los demás, son las más susceptibles a desarrollar algún tipo de problema. También aquellas con baja autoestima. Es como si el ‘chatbot’ llenara un vacío emocional, pero de manera artificial y eso, a la larga, es peligroso. Nuestro cerebro evolutivamente está programado para asumir que, si comunica como humano, es humano. Es una trampa neurobiológica perfecta”, recalca.
Efectos sobre la salud mental de la tecnología
A pesar de todas las alertas tampoco debemos demonizar la tecnología porque está para ayudarnos. “Es el humano el que tiene que dominarla y apoyarse en ella para avanzar. Cuando sale una tecnología al mercado avanza más rápido que nuestro entendimiento sobre ella y podemos engancharnos si no entendemos su uso real”, asegura Becerril que, además, recalca una idea importante sobre ‘chatbot’: «No tiene memoria, pero es un repetidor, un buscador de información. No identifica tu emoción, sólo tu texto».
Nada de esto sería un inconveniente si no fuera porque afecta ya, y muy seriamente, a la salud mental de muchas personas. “Es paradójico, pero este problema genera una mayor soledad. Cuanto más usan el ‘chatbot’, las mujeres se sienten más solas en el mundo real. Otro efecto es la pérdida de habilidades sociales básicas y se les hace cada vez más difícil entablar conversaciones con personas reales. Existe una correlación clara con la depresión y una menor satisfacción vital”, detalla el profesor Armayones.
Rosa Becerril, por su parte, observa en estas personas dependientes de la IA una “falta absoluta de autoestima y una autoestima dañada. También, niveles de pensamientos rumiantes constantes asociados a la ansiedad y niveles de estrés muy altos. La desesperanza puede llevar a situaciones críticas e incluso de pérdida de vida”, alerta.
La importancia de una educación digital
Una buena educación en este aspecto, como en casi todos de la vida, es esencial. “Nos dicen ‘no uses la inteligencia artificial para hablar de tus emociones’, pero ya existe muchísima gente que lo hace. Por eso, creo que prohibir algo que ya sucede no es la solución”, opina la investigadora Alba María Mármol. El profesor Manuel Armayones urge también “una mayor educación digital y competencias para relacionarnos saludablemente con estas tecnologías, pues esto va a seguir creciendo y necesitamos estar preparados”.
Consejos para no caer en las redes de la IA
Las amenazas son reales, como vemos. Pero saber anticiparse a un posible problema de dependencia y/o adicción de un ‘chatbot’ puede ser lo que marque la diferencia. Manuel Armayones aporta algunos consejos en este sentido: “Sé brutalmente honesta contigo misma sobre cuánto tiempo pasas con estos ‘chatbots’. Usa aplicaciones como ‘RescueTime’ (‘software’ de gestión y análisis del tiempo) si hace falta. Haz ‘detox’ digitales, prográmate actividades incompatibles con el uso de la tecnología, como salir a caminar o nadar”. Además, recalca la importancia de «ponerse límites y buscarse un círculo de tres o cuatro personas con las que mantener un vínculo estable en tiempo y en espacio. Por supuesto, limitar el tiempo de exposición a la IA con un máximo de una hora al día, y sólo para cosas específicas, no para llenar vacíos emocionales. Si notas que empiezas a ‘necesitar’ consultar al ‘chatbot’ para decisiones básicas, para inmediatamente. Por último, habla abiertamente sobre esto y no lo escondas como si fuera algo vergonzoso”.
Artículo publicado en COSMOPOLITAN
