Un catálogo de formación para directivos y responsables de IA que
quieren innovar con control: estrategia, gobernanza, ISO 42001
y Reglamento Europeo de IA aterrizados a la práctica diaria.
AIORG
Cursos dirigidos a directivos y responsables de IA. Enfocados en estrategia, gobernanza y cumplimiento.
AIFIL
Bases filosóficas, éticas y epistémicas de la Inteligencia Artificial.
AITEC
Enfoques tecnológicos de la IA: de LLMs a IA neurosimbólica.
Itinerarios recomendados 2026
Qué combinación de cursos encaja mejor con tu rol
Los cursos pueden tomarse de forma independiente, pero recomendamos
itinerarios por perfil para maximizar el impacto: desde sesiones
ejecutivas hasta recorridos completos para equipos de dirección,
tecnología, datos y riesgo/compliance.
Alta Dirección
Visión estratégica y regulatoria
AIORG-01→AITEC-00
+ AIORG-03 cuando ya existan copilotos, agentes o automatizaciones en marcha.
Entender el AI Act y la ISO/IEC 42001, y disponer de un mapa
técnico de LLMs, RAG y agentes para tomar decisiones informadas
sin entrar en el código.
Responsables de IA, Riesgo y Compliance
Gobernanza y control
AIORG-01→AIORG-03→AIFIL-01
Integra regulación, riesgo operacional en IA generativa y bases
filosóficas/éticas para redactar políticas internas y participar
en comités de IA responsable con criterio sólido.
Líderes de Tecnología e Innovación
Exploración técnica avanzada
AITEC-00→AIORG-03→AITEC-01→AITEC-02
Conecta decisiones técnicas sobre LLMs, agentes y automatización
con la gobernanza de riesgo, explorando además la vía neurosimbólica
para prototipos explicables y auditables.
Transformación Cultural y RRHH
Personas y cambio
AIORG-02→AIORG-01
AIFIL-01 como refuerzo para comités éticos y de IA responsable.
Diseñar roles, planes de formación y políticas internas de IA
responsable, entendiendo a la vez el marco regulatorio que las
respalda.
Equipos Interdisciplinares
Negocio · Datos · Legal · Riesgo
AITEC-00→AIORG-03→AIFIL-01
Construir un lenguaje común sobre tecnología, riesgo y ética en IA
para decidir juntos qué casos de uso priorizar, cómo controlarlos
y cómo documentarlos.
Catálogo 2026 · AIORG · AIFIL · AITEC
Cursos organizativos, filosóficos y tecnológicos de IA
Todos los cursos pueden impartirse online en directo o en formato
in-company, adaptando ejemplos, plantillas y casos al contexto de
tu organización. Cada programa puede combinarse en itinerarios
a medida para equipos de dirección, innovación, datos y negocio.
AIORG-01
Reglamento Europeo de IA e ISO/IEC 42001 para Directivos
Entender el AI Act y la ISO/IEC 42001 para tomar decisiones
sin perder el foco de negocio.
AI ActISO/IEC 42001Nivel ejecutivo
Clasificación de sistemas de IA según nivel de riesgo.
Obligaciones para proveedores, desplegadores y usuarios.
Implicaciones organizativas, contractuales y de terceros.
Hoja de ruta de cumplimiento orientada a valor y priorización de casos de uso.
Destinado a comités de dirección, consejeros, CIO/CTO y
responsables jurídicos y de cumplimiento.
AIORG-02
Cultura Organizativa para la IA Responsable
Personas, roles y procesos para una IA sostenible, auditada y alineada con el negocio.
People & ChangeGobernanza
Diseño de matriz de roles en IA (AI Steward, owner de caso de uso, datos, TI, ética) alineada con ISO/IEC 42001.
Modelos de colaboración humano–máquina y criterios para decidir automatizar, asistir o mantener procesos sólo humanos.
Plan de formación corporativa en IA responsable por colectivos (dirección, negocio, datos, TI).
Guía práctica para políticas internas de IA (copilotos, datos sensibles, aprobación de casos de uso).
Toolkit: plantillas de roles, RACI y plan de adopción cultural listo para adaptar a tu organización.
Enfocado a RRHH, cultura, transformación organizativa y oficinas de IA responsable.
AIORG-03
Gobernanza y Riesgo en IA Generativa
Controlar copilotos, agentes y automatizaciones sin frenar la innovación.
IA GenerativaRiesgo operacional
Inventario y clasificación de casos de uso generativos en la organización.
Políticas de uso, revisiones humanas y “guardrails” operativos.
Mecanismos de trazabilidad, logging y explicación de decisiones.
Monitorización continua, respuesta ante incidentes y lecciones aprendidas.
Cómo integrar principios éticos y de IA responsable dentro de los procesos de control y supervisión.
Para organizaciones que ya usan o van a usar ChatGPT, agentes y automatizaciones sobre LLMs.
AITEC-00
Fundamentos técnicos de IA para Directivos
Mapa tecnológico de LLMs, RAG, agentes y evaluación para decidir
sin necesidad de programar.
LLMs & RAGAgentesNivel directivo-técnico
Qué son (y qué no son) los modelos de lenguaje: capacidades, límites y riesgos habituales.
RAG, fine-tuning y prompts avanzados: cuándo usar cada enfoque según el caso de uso.
Agentes, copilotos y automatización de procesos: patrones básicos y riesgos operacionales.
Métricas de calidad, evaluación y red teaming explicadas en lenguaje de negocio.
Checklists para discutir con proveedores y equipos técnicos sin perder el control de la decisión.
Pensado para directivos de negocio y tecnología que necesitan orientar, cuestionar y priorizar propuestas técnicas.
AIFIL-01
Causalidad y Ética en IA: más allá de la correlación
Bases filosóficas y epistémicas para una IA ética y explicable.
Filosofía & ÉticaComplejidadExplicabilidad
De Leibniz a la complejidad contemporánea (Chaitin, Ellis, Flack): qué entendemos por explicación y causalidad en IA.
Correlación vs. causalidad en proyectos de datos: errores típicos y cómo evitarlos desde la práctica.
La opacidad neuronal y sus implicaciones para el AI Act: transparencia, supervisión humana y documentación.
Marco práctico para alinear criterios filosóficos y éticos con políticas internas y comités de IA responsable.
Diseñado para comités éticos, equipos de IA responsable y grupos interdisciplinares (negocio, datos, legal, riesgo).
AITEC-01
IA Neurosimbólica: agentes causales del futuro
Fusión simbólica–neuronal para una IA explicable, controlable y alineada con regulación.
Neurosimbólica & BayesianaInnovación Causal
De aplicaciones conversacionales a agentes que operan sobre modelos del mundo.
Panorama actual: redes neuronales, modelos generativos y sus límites explicativos.
Modelos del mundo versus modelos de lenguaje: por qué importa para auditoría y riesgo.
Estrategias para mitigar la opacidad de LLMs mediante componentes simbólicos y causales.
Casos de uso actuales y prototipos neurosimbólicos alineados con AI Act e ISO/IEC 42001.
Aterrizaje conceptual de la IA neurosimbólica para aplicaciones que necesiten trazabilidad y explicabilidad reforzada.
AITEC-02
Desarrollando IA Neurosimbólica
Fusión simbólica–neuronal para una IA explicable y responsable, con ejemplos prácticos en Python.
Neurosimbólica & BayesianaPython
Programando explicabilidad y causalidad en Python: introducción a modelos gráficos y librerías de causalidad.
Construcción de un pequeño modelo causal explicable de extremo a extremo.
Ejemplos de integración simbólica (reglas, grafos de conocimiento) con componentes neuronales.
Diseño de pipelines auditables: datos → inferencia → explicación → evidencia documental.
Buenas prácticas para alinear las implementaciones con requisitos del AI Act e ISO/IEC 42001.
Para equipos técnicos e investigadores que quieran empezar a construir prototipos neurosimbólicos con foco en auditoría y riesgo.