Código de Conducta de IA de la UE: 5 claves para tu empresa
¿Qué es el Código de Conducta en IA?
La inteligencia artificial ya no es solo una herramienta innovadora; es una tecnología que empieza a regirse por marcos éticos y normativos definidos, especialmente en la Unión Europea. El nuevo Código de Conducta en IA impulsado por la Comisión Europea establece principios éticos, técnicos y operativos para un desarrollo responsable de la inteligencia artificial. Aunque es voluntario (no tiene cumplimiento obligatorio como lo tendrá el futuro AI Act), este código ya está marcando la pauta para empresas y proveedores tecnológicos que trabajan con datos sensibles, personas o entornos de riesgo.
En otras palabras, estamos ante una guía de buenas prácticas que busca:
- Promover el uso seguro y ético de sistemas de IA.
- Alinear las prácticas de desarrollo y aplicación con los valores fundamentales de la UE.
- Preparar a las organizaciones para cumplir con normativas más exigentes que vienen en camino.
Entre sus recomendaciones clave están:
- Garantizar la supervisión humana significativa sobre los sistemas de IA (es decir, siempre debe haber control humano en decisiones críticas, no dejar todo a la máquina).
- Asegurar la privacidad, trazabilidad y explicabilidad de los algoritmos, de modo que se pueda seguir el rastro de cómo funcionan y explicar sus resultados de forma comprensible.
- Evitar el uso de IA en contextos sin una evaluación previa de riesgos — no aplicar inteligencia artificial a ciegas en áreas sensibles sin analizar posibles impactos.
- Aplicar IA con especial sensibilidad en sectores clave como salud, educación o empleo, que la propia UE considera ámbitos de alto riesgo en materia de IA y donde cualquier error algorítmico podría tener consecuencias importantes.
En conjunto, este código representa un movimiento claro hacia una IA “centrada en las personas”, no solo en la eficiencia o el rendimiento. Coloca la ética y la seguridad al frente del desarrollo tecnológico.
¿A quién afecta?
Aunque el Código de Conducta está orientado principalmente a los proveedores y desarrolladores de IA, también tiene implicaciones para cualquier organización que utilice estas tecnologías. En especial, debería prestarle atención toda empresa que:
- Use herramientas con algoritmos para apoyar decisiones sobre personas. Por ejemplo, departamentos de RR.HH. que emplean IA en selección de personal, evaluación de desempeño o incluso prevención de riesgos laborales.
- Opere con datos sensibles relacionados con la salud emocional, la conducta o el estado mental de individuos. Esto incluye aplicaciones de bienestar, plataformas de e-learning adaptativo, herramientas de evaluación psicológica, etc.
- Aplique tecnología interactiva con usuarios en situaciones de vulnerabilidad. Por ejemplo, chatbots de apoyo emocional, sistemas de asistencia en terapia, o cualquier IA que interactúa con niños, pacientes, o colectivos sensibles.
En este sentido, empresas que promuevan el bienestar emocional mediante IA —ya sea como proveedor de la tecnología o como cliente que la implementa— también están en el punto de mira de este código. La responsabilidad recae sobre todos los participantes: quien desarrolla la IA y quien la utiliza en su organización.
¿Qué cambia con este enfoque?
El cambio más relevante que introduce el código es cultural antes que técnico. Se espera que las organizaciones no solo usen IA que funcione bien, sino una IA que además sea:
- Auditada: con mecanismos para verificar cómo toma decisiones y con qué datos, de forma periódica.
- Supervisada: integrada en un flujo donde personas cualificadas puedan vigilar y corregir al sistema cuando sea necesario.
- Proporcional al riesgo: es decir, que la complejidad y nivel de autonomía de la IA estén en línea con la criticidad del contexto donde se usa (no es lo mismo recomendar una película que ayudar a diagnosticar una enfermedad, por ejemplo).
- Diseñada con ética desde su concepción: incorporando consideraciones éticas y de privacidad en todas las fases, desde el diseño inicial hasta el desarrollo y despliegue.
Adoptar este enfoque implica que las empresas revisen sus sistemas tecnológicos planteándose preguntas como:
- ¿Qué decisiones está automatizando esta IA y qué impacto pueden tener en las personas?
- ¿Hay supervisión humana en el proceso para intervenir si algo va mal o es injusto?
- ¿Puede el sistema generar exclusión o malestar emocional en algún colectivo? (Por ejemplo, sesgos que dejen fuera a minorías, o feedback negativo que afecte la autoestima de empleados).
- ¿Cómo se protege el anonimato y la privacidad del usuario? (Especialmente cuando manejamos datos emocionales o de salud, esto es crítico).
En resumen, el código empuja a las organizaciones a repensar el uso de la tecnología cuando hay personas en el centro. Pone sobre la mesa que no basta con que una IA sea eficaz: debe ser **responsable**. Este enfoque proactivo probablemente se traducirá en mayor confianza del público y de los clientes hacia las soluciones de IA, y minimiza riesgos de escándalos o sanciones futuras.
¿Cómo responde Psiconnea con Emotinet y EBI?
En Psiconnea venimos integrando este enfoque ético desde el inicio, tanto en la app Emotinet como en el sistema de visualización emocional EBI. Ambas soluciones están desarrolladas por psicólogos y expertos en IA, y cumplen con los principios que defiende el Código de Conducta:
- Supervisión profesional: Emotinet y EBI actuán bajo la mirada de psicólogos y profesionales cualificados.
- Privacidad emocional real: Los datos que recopilamos de usuarios son anónimos o seudonimizados; nos aseguramos de no invadir la intimidad emocional de nadie ni rastrear individuos.
- Prevención basada en evidencia: Las recomendaciones o alertas que genera nuestro sistema se basan en estudios científicos y datos validados, evitando conclusiones arbitrarias.
- Toma de decisiones no invasiva: Nada se decide de forma automática que afecte al usuario sin su consentimiento o sin pasar por un humano.
Emotinet App:
Está diseñada para personas trabajadoras como una herramienta de apoyo diario. Permite acceder a entrenamientos emocionales, autoevaluaciones y espacios de expresión anónimos. Nunca emite diagnósticos ni evaluaciones determinantes sobre el usuario. Tampoco rastrea a individuos específicos; todo es confidencial.
Si a través de la app se detecta que alguien podría necesitar ayuda, Emotinet lo que hace es sugerir contactar a un profesional, no tomar acciones automáticas. En resumen, acompaña al usuario de Emotinet en su bienestar sin invadir su privacidad.
EBI (Emotional Business Intelligence):
EBI se alimenta de los datos anónimos y agregados de Emotinet para ofrecer a RR.HH. y PRL un cuadro de mando emocional colectivo de la empresa. ¿Qué significa esto? Que un gerente puede ver índices de clima laboral, estrés, engagement del personal, etc., pero nunca sabe qué siente Juan o María en concreto. EBI no identifica personas, no permite trazar datos hacia atrás para descubrir quién está mal, y no automatiza ninguna decisión de personal. Simplemente da una visión global para que la empresa tome el pulso emocional de forma proactiva y planifique acciones de prevención (ej: talleres, campañas internas) si detecta áreas rojas.
Ambas herramientas han sido concebidas bajo una misma idea central: una IA que acompaña, no una IA que sustituye o juzga. En nuestros desarrollos, la tecnología actúa como un apoyo para potenciar la labor de las personas (empleados, psicólogos, RR.HH.), nunca para desplazarlas.
IA ética, bienestar real
El Código de Conducta no se trata de “cumplir unos mínimos” y ya está. En realidad, nos exige replantearnos profundamente cómo usamos la tecnología cuando hay personas de por medio. Es un cambio de mentalidad: antes de lanzar una herramienta de IA, debemos pensar en el impacto humano que tendrá.
En Psiconnea, esa reflexión forma parte del diseño desde el primer día. Por eso nuestras soluciones siguen estos principios:
- Emotinet no presiona al usuario: se adapta a su ritmo y necesidades. Si la persona deja de usar la app un tiempo o no quiere responder ciertas preguntas, no pasa nada; la IA no “insiste” ni penaliza, respetando el estado y el ritmo de cada quien.
- EBI no expone ni sanciona: sus informes están pensados para prevención, no para señalar a alguien. Por ejemplo, si un departamento tiene indicadores de riesgo al alza, la respuesta es proponer una iniciativa de bienestar, **nunca señalar culpables**.
- Ninguna de las soluciones actúa sin supervisión ni contexto: siempre hay profesionales de carne y hueso interpretando los datos y tomando las decisiones finales. La IA da sugerencias o alertas, pero la última palabra la tiene un humano que conoce la cultura y situación de la empresa.
No es una promesa de marketing, es una decisión de arquitectura ética: construir la tecnología pensando primero en “no hacer daño” y segundo en “hacer el bien”. Así es como entendemos la innovación responsable.
Conclusión
La IA aplicada al bienestar emocional debe responder al mismo principio que toda acción en salud: primero, no hacer daño. Con el nuevo Código de Conducta, la UE refuerza la idea de que el cuidado tecnológico es inseparable del cuidado humano. Esto supone un respaldo importante para quienes creemos en una IA al servicio de las personas.
En Psiconnea nos alineamos completamente con ese marco, ofreciendo soluciones que no solo previenen riesgos emocionales en las organizaciones, sino que lo hacen de forma segura, medible y respetuosa con cada individuo. Creemos que tecnología y ética deben ir de la mano para lograr un bienestar real.
¿Quieres conocer cómo se aplica esta tecnología ética en tu organización?
Solicita una demo de Emotinet + EBI
También te puede interesar:
Psicotecnología 2025: IA ética para cuidar la salud emocional
Conoce cómo la inteligencia artificial aplicada desde la ética y la supervisión humana está transformando la prevención emocional en entornos laborales.
Emotinet: psicotecnología para detectar y actuar ante el malestar emocional
Descubre cómo nuestra app conecta a las personas con apoyo psicológico real, combinando IA emocional, personalización y privacidad.
Psicotecnología preventiva: datos, ética y salud emocional
Explora cómo aplicamos la psicotecnología para anticipar riesgos psicosociales y actuar antes de que el malestar impacte en el entorno laboral.