Itinerarios recomendados 2026

Qué combinación de cursos encaja mejor con tu rol

Los cursos pueden tomarse de forma independiente, pero recomendamos itinerarios por perfil para maximizar el impacto: desde sesiones ejecutivas hasta recorridos completos para equipos de dirección, tecnología, datos y riesgo/compliance.

Alta Dirección
Visión estratégica y regulatoria
AIORG-01 AITEC-00 + AIORG-03 cuando ya existan copilotos, agentes o automatizaciones en marcha.

Entender el AI Act y la ISO/IEC 42001, y disponer de un mapa técnico de LLMs, RAG y agentes para tomar decisiones informadas sin entrar en el código.

Responsables de IA, Riesgo y Compliance
Gobernanza y control
AIORG-01 AIORG-03 AIFIL-01

Integra regulación, riesgo operacional en IA generativa y bases filosóficas/éticas para redactar políticas internas y participar en comités de IA responsable con criterio sólido.

Líderes de Tecnología e Innovación
Exploración técnica avanzada
AITEC-00 AIORG-03 AITEC-01 AITEC-02

Conecta decisiones técnicas sobre LLMs, agentes y automatización con la gobernanza de riesgo, explorando además la vía neurosimbólica para prototipos explicables y auditables.

Transformación Cultural y RRHH
Personas y cambio
AIORG-02 AIORG-01 AIFIL-01 como refuerzo para comités éticos y de IA responsable.

Diseñar roles, planes de formación y políticas internas de IA responsable, entendiendo a la vez el marco regulatorio que las respalda.

Equipos Interdisciplinares
Negocio · Datos · Legal · Riesgo
AITEC-00 AIORG-03 AIFIL-01

Construir un lenguaje común sobre tecnología, riesgo y ética en IA para decidir juntos qué casos de uso priorizar, cómo controlarlos y cómo documentarlos.

Catálogo 2026 · AIORG · AIFIL · AITEC

Cursos organizativos, filosóficos y tecnológicos de IA

Todos los cursos pueden impartirse online en directo o en formato in-company, adaptando ejemplos, plantillas y casos al contexto de tu organización. Cada programa puede combinarse en itinerarios a medida para equipos de dirección, innovación, datos y negocio.

AIORG-01

Reglamento Europeo de IA e ISO/IEC 42001 para Directivos

Entender el AI Act y la ISO/IEC 42001 para tomar decisiones sin perder el foco de negocio.

AI Act ISO/IEC 42001 Nivel ejecutivo
  • Clasificación de sistemas de IA según nivel de riesgo.
  • Obligaciones para proveedores, desplegadores y usuarios.
  • Implicaciones organizativas, contractuales y de terceros.
  • Hoja de ruta de cumplimiento orientada a valor y priorización de casos de uso.
AIORG-02

Cultura Organizativa para la IA Responsable

Personas, roles y procesos para una IA sostenible, auditada y alineada con el negocio.

People & Change Gobernanza
  • Diseño de matriz de roles en IA (AI Steward, owner de caso de uso, datos, TI, ética) alineada con ISO/IEC 42001.
  • Modelos de colaboración humano–máquina y criterios para decidir automatizar, asistir o mantener procesos sólo humanos.
  • Plan de formación corporativa en IA responsable por colectivos (dirección, negocio, datos, TI).
  • Guía práctica para políticas internas de IA (copilotos, datos sensibles, aprobación de casos de uso).
  • Toolkit: plantillas de roles, RACI y plan de adopción cultural listo para adaptar a tu organización.
AIORG-03

Gobernanza y Riesgo en IA Generativa

Controlar copilotos, agentes y automatizaciones sin frenar la innovación.

IA Generativa Riesgo operacional
  • Inventario y clasificación de casos de uso generativos en la organización.
  • Políticas de uso, revisiones humanas y “guardrails” operativos.
  • Mecanismos de trazabilidad, logging y explicación de decisiones.
  • Monitorización continua, respuesta ante incidentes y lecciones aprendidas.
  • Cómo integrar principios éticos y de IA responsable dentro de los procesos de control y supervisión.
AITEC-00

Fundamentos técnicos de IA para Directivos

Mapa tecnológico de LLMs, RAG, agentes y evaluación para decidir sin necesidad de programar.

LLMs & RAG Agentes Nivel directivo-técnico
  • Qué son (y qué no son) los modelos de lenguaje: capacidades, límites y riesgos habituales.
  • RAG, fine-tuning y prompts avanzados: cuándo usar cada enfoque según el caso de uso.
  • Agentes, copilotos y automatización de procesos: patrones básicos y riesgos operacionales.
  • Métricas de calidad, evaluación y red teaming explicadas en lenguaje de negocio.
  • Checklists para discutir con proveedores y equipos técnicos sin perder el control de la decisión.
AIFIL-01

Causalidad y Ética en IA: más allá de la correlación

Bases filosóficas y epistémicas para una IA ética y explicable.

Filosofía & Ética Complejidad Explicabilidad
  • De Leibniz a la complejidad contemporánea (Chaitin, Ellis, Flack): qué entendemos por explicación y causalidad en IA.
  • Correlación vs. causalidad en proyectos de datos: errores típicos y cómo evitarlos desde la práctica.
  • La opacidad neuronal y sus implicaciones para el AI Act: transparencia, supervisión humana y documentación.
  • Marco práctico para alinear criterios filosóficos y éticos con políticas internas y comités de IA responsable.
AITEC-01

IA Neurosimbólica: agentes causales del futuro

Fusión simbólica–neuronal para una IA explicable, controlable y alineada con regulación.

Neurosimbólica & Bayesiana Innovación Causal
  • De aplicaciones conversacionales a agentes que operan sobre modelos del mundo.
  • Panorama actual: redes neuronales, modelos generativos y sus límites explicativos.
  • Modelos del mundo versus modelos de lenguaje: por qué importa para auditoría y riesgo.
  • Estrategias para mitigar la opacidad de LLMs mediante componentes simbólicos y causales.
  • Casos de uso actuales y prototipos neurosimbólicos alineados con AI Act e ISO/IEC 42001.
AITEC-02

Desarrollando IA Neurosimbólica

Fusión simbólica–neuronal para una IA explicable y responsable, con ejemplos prácticos en Python.

Neurosimbólica & Bayesiana Python
  • Programando explicabilidad y causalidad en Python: introducción a modelos gráficos y librerías de causalidad.
  • Construcción de un pequeño modelo causal explicable de extremo a extremo.
  • Ejemplos de integración simbólica (reglas, grafos de conocimiento) con componentes neuronales.
  • Diseño de pipelines auditables: datos → inferencia → explicación → evidencia documental.
  • Buenas prácticas para alinear las implementaciones con requisitos del AI Act e ISO/IEC 42001.