La ética y la gobernanza de la inteligencia artificial han pasado a ocupar una posición estructural en Horizon Europe. Ya se trata como un conjunto de condiciones que influyen directamente en la elegibilidad, la evaluación y el seguimiento de los proyectos financiados. Esto implica de forma directa a iniciativas que desarrollan o utilizan sistemas de IA con impacto relevante sobre personas, derechos fundamentales, servicios públicos o procesos de toma de decisiones. Para empresas, centros de investigación y entidades públicas, la ética debe incorporarse desde el diseño inicial del proyecto y debe traducirse en decisiones técnicas, organizativas y documentales verificables.
Marco normativo y político de referencia en Horizon Europe
Horizon Europe se apoya en un marco normativo europeo exigente que articula la ética de la IA como una obligación jurídica y política. Todos los proyectos deben respetar la Carta de Derechos Fundamentales de la Unión Europea, el Reglamento General de Protección de Datos y los estándares éticos reconocidos por la Comisión. En el ámbito de la inteligencia artificial, este marco se refuerza con las Directrices de IA fiable elaboradas por el AI High-Level Expert Group, que introducen criterios operativos sobre control humano, prevención del daño, equidad, explicabilidad, bienestar social y rendición de cuentas.
A este conjunto se suma el AI Act, que establece un régimen legal específico para la IA en función del nivel de riesgo del sistema. Aunque su aplicación plena es progresiva, Horizon Europe actúa como un espacio de anticipación regulatoria. Muchos proyectos financiados desarrollan tecnologías que encajan en la categoría de sistemas de alto riesgo, lo que obliga a prever desde la fase de propuesta mecanismos de gestión de riesgos, documentación técnica y supervisión humana alineados con este nuevo marco legal.
Principios éticos aplicados a sistemas de IA
Los principios éticos que rigen la IA en Horizon Europe no están formulados de manera abstracta, sino que se traducen en obligaciones concretas de diseño y uso. El respeto a la inteligencia humana implica que los sistemas no deben sustituir de forma opaca la capacidad de decisión de las personas ni inducir comportamientos mediante manipulación o desinformación. La privacidad y la gobernanza de datos exigen un uso proporcional y justificado de la información, con trazabilidad y control sobre los conjuntos de datos empleados.
La equidad adquiere especial relevancia en proyectos que afectan a colectivos diversos, ya que obliga a analizar sesgos potenciales en datos, modelos y resultados. El bienestar individual, social y medioambiental amplía el foco más allá del rendimiento técnico, incorporando impactos indirectos y efectos a largo plazo. Finalmente, la transparencia y la responsabilidad requieren que las decisiones automatizadas puedan ser comprendidas, cuestionadas y, en su caso, corregidas.
Requisitos éticos específicos en las convocatorias de Horizon Europe
Horizon Europe integra la ética en todo el ciclo de vida del proyecto mediante un proceso formal de evaluación ética. En las propuestas, las entidades deben identificar de forma explícita si utilizan IA, datos personales, técnicas de vigilancia o trabajan con personas o grupos en situación de vulnerabilidad. En función de este análisis, la Comisión puede imponer requisitos obligatorios que se incorporan al acuerdo de subvención.
En proyectos con IA, se espera una descripción detallada de la finalidad del sistema, su contexto de uso y los impactos previsibles sobre derechos fundamentales. También se valoran de manera específica los mecanismos de control humano, la gestión de riesgos y las medidas previstas para informar a las personas usuarias o afectadas sobre el funcionamiento y las limitaciones del sistema.
Enfoque ethics by design y ciclo de vida de la IA
La Comisión promueve un enfoque de ethics by design que atraviesa todas las fases del desarrollo y uso de la inteligencia artificial. Esto implica integrar la reflexión ética desde la definición de objetivos hasta la monitorización en producción, evitando soluciones reactivas o puramente formales. La ética se convierte así en un proceso continuo de evaluación y ajuste, no en un ejercicio puntual previo a la firma del contrato.
En la práctica, este enfoque requiere documentar decisiones clave de diseño, justificar la selección de datos y métricas, y establecer mecanismos internos para revisar el impacto del sistema a medida que evoluciona. La participación de perfiles expertos en ética y de partes interesadas externas refuerza la credibilidad de este proceso ante evaluadores y servicios de la Comisión.
Gobernanza interna de la IA en las organizaciones
Horizon Europe evalúa además del algoritmo, también la capacidad de la organización para gobernar la IA de forma responsable. Se espera que las entidades dispongan de estructuras claras de supervisión, con responsabilidades definidas y canales de rendición de cuentas. Esto incluye políticas internas, procedimientos de gestión de incidentes y mecanismos para detener o modificar sistemas cuando se detectan efectos no deseados.
Una gobernanza sólida facilita la coherencia entre ética, cumplimiento normativo y estrategia de explotación. Además, permite a las organizaciones anticipar obligaciones futuras del AI Act, como la clasificación de sistemas por nivel de riesgo o el mantenimiento de inventarios internos de soluciones basadas en IA.
Gestión de datos, privacidad y protección de las personas
La gestión ética de los datos es un elemento transversal en los proyectos de IA financiados por Horizon Europe. El cumplimiento del RGPD condiciona la arquitectura técnica y los procesos organizativos. En contextos sensibles, como salud o biometría, se requieren evaluaciones de impacto en protección de datos y medidas específicas para reducir riesgos de reidentificación o usos secundarios no autorizados.
La transparencia hacia las personas cuyos datos se utilizan y la garantía de sus derechos forman parte del enfoque ético exigido por la Comisión, incluso cuando la IA actúa como sistema de apoyo a decisiones humanas.
Robustez técnica, seguridad y explicabilidad
La ética en Horizon Europe está estrechamente vinculada a la calidad técnica de los sistemas de IA. Se espera que los proyectos demuestren cómo garantizan la seguridad, la fiabilidad y la precisión de sus soluciones, incluyendo estrategias para detectar errores, sesgos o comportamientos adversos. La explicabilidad ocupa un lugar central, ya que permite a personas usuarias y supervisoras comprender los resultados y ejercer un control efectivo.
Los evaluadores valoran positivamente propuestas que integran pruebas de robustez, validaciones continuas y planes claros de actualización, evitando modelos estáticos que puedan degradarse con el tiempo.
Documentación ética y preparación estratégica
La documentación ética en Horizon Europe debe ser específica, coherente y proporcional al riesgo del sistema. Las declaraciones genéricas no resultan suficientes. Se espera un análisis claro de escenarios de riesgo, colectivos afectados y medidas de mitigación, acompañado de recursos y presupuesto asignados a estas tareas.
Horizon Europe funciona también como un espacio de preparación estratégica para el AI Act. Los proyectos que incorporan desde el inicio requisitos de conformidad, documentación técnica y gobernanza de riesgos no solo mejoran su posición en la evaluación, sino que avanzan en su capacidad de llevar la tecnología al mercado o a la práctica pública en condiciones de seguridad jurídica.
Para las entidades que participan en convocatorias europeas, abordar estos requisitos con profundidad técnica y organizativa es una condición para competir con éxito y para preparar el despliegue futuro de sistemas de IA en un entorno regulado y exigente. Si debes integrar la ética y la gobernanza en tus proyectos en inteligencia artificial de cualquier convocatoria Horizon Europe ponte en contacto con nosotros en este 2026, y te resolvemos tus dudas.
