Una psicotecnóloga revela los peligros de simular una amistad con una app: “Puede crear una nueva forma de dependencia emocional”

Hablamos con Rosa Becerril, experta en psicología, inteligencia artificial y big data sobre cómo está transformando la gestión de la salud emocional tanto en empresas como en la sociedad.

Rosa Becerril es CEO de Psiconnea y pionera en psicotecnología, un campo que integra psicología, inteligencia artificial y big data para transformar la gestión de la salud emocional en las empresas y en la sociedad. En un momento donde la incertidumbre afecta a toda la sociedad, tenemos cercano el apagón y lo que supuso, la pandemia, la situación en cuanto a los conflictos armados y el momento pre bélico en todo el mundo que nos tiene mirando las noticias sin parar, la relación entre las emociones, los vínculos humanos, o la inteligencia artificial es algo que nos puede desbordar si no lo abordamos bien.

Hablamos con ella para saber si este auge de aplicaciones basadas en inteligencia artificial que prometen desde mejorar la productividad hasta crear la “pareja perfecta”, nos afecta de manera extrema. Se busca el piel con piel, pero como no se llega, la tecnología, lo que nos provoca, nos sirve.

P – ¿Qué opinión le merece esta tendencia desde el punto de vista psicológico?

R – Estamos viviendo un boom de aplicaciones basadas en inteligencia artificial que prometen desde maximizar la productividad hasta ofrecer la “pareja perfecta”. Desde el punto de vista psicológico, esta tendencia refleja una necesidad real: muchas personas están buscando compañía, comprensión y alivio emocional. El problema no está en la tecnología en sí, sino en el uso (y el propósito) con el que se diseña.

Cuando una app simula una amistad empática o un vínculo afectivo sin intervención humana, sin ética emocional ni comprensión del contexto, corre el riesgo de ofrecer una experiencia vacía: entretiene, pero no repara. Puede incluso crear una nueva forma de dependencia emocional, especialmente en personas que ya se sienten solas o vulnerables, como muchas personas mayores o adolescentes.

Desde Psiconnea creemos que la tecnología emocional debe estar al servicio del bienestar real: prevenir, anticipar riesgos emocionales, personalizar el acompañamiento y crear espacios seguros de expresión. La psicotecnología no nació para simular afectos, sino para mejorar el acceso al cuidado emocional de forma rigurosa, ética y humana.

 
 

El debate sobre la IA no es tecnológico, es profundamente humano. No se trata de temerle a la inteligencia artificial, sino de preguntarnos para qué la estamos creandoquién la diseña y con qué valores. El foco no debe estar en la IA como amenaza, sino en nuestras intenciones al desarrollarla. Por eso, apostamos por una IA emocionalmente ética, que complemente sin sustituir, que acompañe sin engañar, y que potencie el bienestar sin ponerlo en riesgo.

P – ¿Qué riesgos emocionales puede tener el uso de estas apps que simulan vínculos o que crean parejas ideales en función de algoritmos?

R – Como todo en tecnología, el riesgo no está en la herramienta, sino en el uso que se hace de ella y en la ética de quienes la diseñan. Estas apps, si están bien planteadas, pueden ser una vía real para conectar, acompañarse y hasta encontrar el amor. De hecho, cuando nacieron las primeras aplicaciones de citas, generaban miedo y desconfianza. Hoy, para muchas personas, son una forma habitual (y positiva) de conocer a alguien.

El problema aparece cuando se usan sin conciencia, sin protección o con una expectativa de inmediatez emocional. Igual que no das tu número de cuenta al conocer a alguien en un bar, tampoco deberías entregar tus datos o emociones sin saber dónde van ni quién los gestiona. Hay que informarse, cuidarse, y entender que no todas las apps son iguales. Algunas están diseñadas con criterios éticos y científicos; otras, no. El consejo es claro: elige bien. Y recuerda que la tecnología no sustituye el vínculo humano, lo puede potenciar… siempre que detrás haya personas responsables y con propósito.

P – ¿Cree que la inteligencia artificial está cambiando la forma en que las personas se vinculan, no solo en lo amoroso, sino también en lo social y laboral?

R – La inteligencia artificial no viene a romper los vínculos humanos, viene a ofrecer nuevas formas de construirlos. Ya la estamos viendo en acción: en hospitales, en centros de salud mental, en residencias, acompañando a personas que están solas en casa, facilitando la detección temprana de estados emocionales críticos. Y también en lo cotidiano: en el trabajo, en nuestras relaciones, en cómo socializamos. Si se usa con ética y empatía, puede ser una aliada maravillosa para cuidar, acompañar y conectar.

El verdadero problema no es la IA. Son las personas que la crean y quienes deciden cómo usarla. Si quienes la desarrollan no tienen principios éticos o no priorizan el bienestar humano, la tecnología pierde su sentido. Por eso es clave entender que la IA refleja nuestros valores. Es una herramienta: ni buena ni mala por sí misma. Depende de la intención con la que se diseñe y se aplique.

La psicotecnología no sustituye el vínculo humano: lo anticipa, lo potencia y, en muchos casos, lo hace posible donde antes no lo había. Reivindiquemos la tecnología con propósito, con alma, con sentido. Porque cuando se combina inteligencia artificial con ética humana, lo que se genera no es distanciamiento: es cercanía.

P – ¿Cómo abordan el equilibrio entre el uso de la tecnología y la preservación del vínculo humano auténtico?

R – Creemos que la inteligencia artificial no debe deshumanizar, sino hacer más humano lo humano. Nuestra tecnología emocional está diseñada y liderada por psicólogos, en colaboración con tecnólogos e ingenieros, siempre bajo criterios clínicos, éticos y con supervisión constante. No automatizamos emociones: las interpretamos con responsabilidad.

Desarrollamos nuestra propia IA, no la compramos a terceros, y lo hacemos cumpliendo el código deontológico de la psicología y la legislación europea en ética y protección de datos. Porque para nosotras el problema no es la IA, sino cómo se usa y quién la diseña. Cuando se construye con propósito, la IA puede ser una aliada terapéutica poderosa: para acompañar a personas que están solas en casa, prevenir el burnout laboral, detectar señales de desesperanza o incluso anticipar problemas físicos derivados del malestar emocional, como afecciones cardíacas o consumos de riesgo.

Emotinet, nuestra red de apoyo emocional, permite a las personas expresar lo que sienten, detectar su estado emocional y recibir acompañamiento sin juicios. Muchas veces, ni siquiera sabemos cómo nos sentimos. Ahí es donde la IA puede ayudar, no a reemplazar el vínculo humano, sino a facilitarlo, hacerlo más accesible y personalizado. El reto es hacer IA con alma, ciencia y sentido. Y eso es lo que hacemos desde la psicotecnología.

P – Se habla mucho de la soledad digital. ¿Cree que estas herramientas están ayudando a combatirla o, por el contrario, podrían reforzarla?

R – La inteligencia artificial une o desune según el propósito con el que ha sido creada. Y eso no depende de las máquinas, sino de las personas que la diseñan. La IA no nace sola: nace de decisiones humanas. Por eso, desarrollamos una IA emocional y ética, diseñada específicamente para combatir la soledad, acompañar, empoderar y prevenir el malestar emocional que hoy afecta a millones de personas en todo el mundo.

No creemos en una tecnología que aísla, sino en una que conecta. Usamos la ciencia, la psicología y la tecnología para detectar a tiempo señales de alerta, ofrecer apoyo real y devolver a las personas el poder de entenderse y cuidarse. La soledad digital no se combate desconectando, sino utilizando la tecnología con sentido y propósito.

Si alguien usa la IA para manipular o generar daño, no debemos señalar a la IA como el problema, sino a quien la ha creado sin ética ni responsabilidad. Por eso defendemos una IA que no solo sea legal, sino profundamente humana. Bien utilizada, es una herramienta potentísima para reducir desigualdades, fomentar el bienestar y avanzar hacia los Objetivos de Desarrollo Sostenible. La clave está en cómo y para qué la usamos.

P – ¿Qué rol puede jugar la psicotecnología en fortalecer relaciones más sanas y conscientes, en lugar de sustituirlas?

R – La psicotecnología permite entrenar habilidades emocionales, identificar patrones de malestar y actuar antes de que una relación (personal o laboral) se deteriore. No reemplaza el contacto humano. Lo prepara. Lo protege. Y lo enriquece con datos que antes no estaban disponibles. Gracias a la psicotecnología, una persona puede entender mejor lo que siente, y desde ahí, vincularse de forma más saludable con los demás.

P – ¿Cuál es el consejo que daría a alguien que está tentado a buscar en una app una solución emocional inmediata?

R – Mi consejo es que elija bien la app que va a usar. Cuando hablamos de salud emocional, hablamos de salud mental. Y eso significa que estamos hablando de algo sanitario. Igual que no todos los medicamentos que se venden por internet son seguros, tampoco lo son todas las apps. Hay que buscar aquellas que estén validadas científicamente, que cuenten con rigor clínico y estén diseñadas para ayudarte de verdad.

Por eso desarrollamos nuestra red social de apoyo emocional basada en ciencia, liderada por psicólogos y diseñada para acompañarte de forma segura y personalizada. Te ayuda a identificar cómo te sientes, compartirlo sin juicios y avanzar, rodeado de personas que están en un momento similar al tuyo. Porque el cambio no ocurre de golpe, pero con apoyo profesional, tecnología ética y ciencia, ese clic interior se vuelve mucho más posible.

Compartir: