Descripción

Mediante teoría, análisis de casos de estudio y laboratorios prácticos basados en software especializado de IA, los participantes desarrollarán habilidades para identificar y evaluar riesgos, por ejemplo, de seguridad, gobernanza, ética, privacidad y cumplimiento y conocerán marcos de riesgos que pueden ser aplicados para una adopción segura y responsable.

El curso se enfoca en fortalecer el criterio de los profesionistas a través del análisis estructurado de riesgos y ejercicios de priorización, con el objetivo de mejorar la adopción de la IA y la toma de decisiones alineada al negocio y basada en riesgos.

Detalles

  • Examen de certificación oficial por parte de CERT4TECH (Disponible en español e inglés).
  • Segunda oportunidad de examen de certificación oficial.
  • 2 exámenes de simulación (de práctica).
  • Material oficial acreditado.
  • Ejercicios de revisión.
  • 30% del curso es de laboratorios prácticos utilizando software especializado en IA.
  • Carta de asistencia al curso.
  • 16 Unidades de Desarrollo Profesional (PDUs de Project Management Institute®).

¡Tu aprendizaje es nuestro compromiso!
Si no apruebas tu examen en el primer intento, te brindamos la oportunidad de tomar el curso de nuevo sin costo adicional.
Para hacerlo válido es indispensable cumplir con el 100% de su asistencia previamente.

Al finalizar el curso, podrás:

  • Identificar los criterios para evaluar la preparación organizacional en IA.
  • Conocer los riesgos técnicos, operativos, éticos y legales para un ecosistema de IA.
  • Comprender cómo evaluar las prácticas de gobernanza, seguridad, privacidad y cumplimiento.
  • Aprender a identificar y priorizar los riesgos y requisitos críticos en proyectos de IA.
  • Comprender el entorno de mitigación de riesgos de IA.

  • Responsables de tecnología, seguridad de información, ciberseguridad, cumplimiento, gestión de riesgos y continuidad de negocio.
  • Líderes de proyectos y arquitectos de soluciones de IA.
  • Consultores y asesores estratégicos en adopción tecnológica.
  • Directivos que supervisan despliegues de IA en entornos críticos.

  • Duración: 60 minutos.
  • Número de preguntas: 40 de opción múltiple.
  • Calificación aprobatoria: 70%.
  • Formato: En línea, supervisado en vivo (vía cámara web). A libro cerrado.
  • Idioma: español e inglés.

  • Conocimientos básicos de Inteligencia Artificial.
  • Conocimientos básicos de marcos o normas relacionados como ISO/IEC 42001, NIST AI RMF, GDPR o similares.
  • Conocimientos básicos de gestión de riesgos.

Contenido

  • Ecosistema de riesgos en IA y marco de evaluación organizacional
  • Reconocimiento de actores clave en la adopción de IA
  • Enfoques de evaluación inicial y diagnóstico (controles y remediaciones)
  • Retos tecnológicos para iniciar la adopción
  • Ejercicio: Descubrimiento del panorama general de riesgos
  • Estructuras de gobernanza y liderazgo ético en IA
  • Definición de roles, responsabilidad y toma de decisiones
  • Tipos de Políticas de gobierno y comités de ética
  • Marcos de gobernanza (ISO, NIST)
  • Ejercicio: Línea base de gobierno de IA
  • Riesgos técnicos y operativos en cada fase del ciclo de vida
  • Responsabilidades en la gestión de riesgos por etapa
  • Estructura de evaluación de riesgos
  • Herramientas para la gestión de riesgos de IA
  • Ejercicio: Plan de tratamiento de riesgos de IA
  • Principios éticos aplicables a IA y su impacto social
  • Promoción de inclusión, equidad y no discriminación
  • Códigos de conducta, revisión de dilemas éticos
  • Herramientas éticas sugeridas (Guías de la UNESCO, AI Ethics Impact Assessment, RAIS)
  • Ejercicio: Aplicación de marcos éticos a un riesgo de IA
  • Trazabilidad y comprensión de decisiones automatizadas
  • Roles para garantizar explicabilidad técnica y organizacional
  • Herramientas sugeridas para el monitoreo
  • Ejercicio: Controles, trazabilidad y explicabilidad en una arquitectura de IA
  • Manejo responsable de datos personales en sistemas IA
  • Roles para el cumplimiento de normativas de privacidad
  • Mecanismo de privacidad consentimiento informado y anónimo
  • Herramientas sugeridas: DPIA y lista de cumplimiento (GDPR, ISO/IEC 27701)
  • Ejercicio: Análisis de brechas de privacidad en escenario de IA
  • Protección de sistemas IA frente a amenazas técnicas
  • Roles de la gestión de vulnerabilidades y continuidad operativa
  • Control de Autenticación, monitoreo y cifrado
  • OWASP AI Security, NIST Cybersecurity Framework
  • Ejercicio: Identificación de vulnerabilidades en soluciones de IA
  • Validación de modelos, precisión y robustez
  • Roles en el aseguramiento de calidad en datos y algoritmos
  • Controles para las pruebas de rendimiento y revisión de datos
  • Benchmarking y métricas de desempeño
  • Ejercicio: Evaluación de confiabilidad en modelos de IA
  • Identificación y mitigación de sesgos algorítmicos
  • Roles para la promoción de decisiones justas y equitativas
  • Auditorías de sesgo y reentrenamiento de modelos
  • Fairness toolkits (AI Fairness 360, What-If Tool)
  • Ejercicio: Detección de sesgos en escenarios simulados
  • Normativas locales e internacionales aplicables a IA
  • Roles para legal y contratos en proyectos IA
  • Controles de evaluaciones de impacto legal y cláusulas contractuales
  • Mapeo regulatorio, guías de cumplimiento (EU AI Act, ISO/IEC 42001)
  • Ejercicio: Mapeo de requisitos regulatorios en casos prácticos