Descripción
¿Conoce cómo hackear o intervenir sistemas de IA? ¿Conoce cómo protegerlos? El curso Skilled Responsible AI Hacker está diseñado para profesionales que lideran la seguridad de información, identidad y cumplimiento en entornos de IA, brindándoles las habilidades necesarias para proteger soluciones de Inteligencia Artificial. A través de sesiones y laboratorios tácticos y prácticos utilizando software especializado de IA ilustramos la forma en que algunos sistemas pueden ser intervenidos y cómo otros controles de seguridad se pueden aplicar. Los participantes aprenderán a definir estrategias de seguridad para IA, gestionar incidentes, aplicar controles por nivel de madurez y utilizar algunas herramientas de Microsoft para remediar riesgos de IA. Este curso ofrece una visión integral para definir un grupo de seguridad robusto, alineado con las prácticas de gobierno de IA, fortaleciendo la postura de seguridad desde el diseño hasta la operación.
Detalles
Examen de certificación oficial por parte de CERT4TECH (Disponible en español e inglés).
Segunda oportunidad de examen de certificación oficial.
2 exámenes de simulación (de práctica).
Material oficial acreditado.
Ejercicios de revisión.
30% del curso es de laboratorios prácticos utilizando software especializado en IA.
Carta de asistencia al curso.
16 Unidades de Desarrollo Profesional (PDUs de Project Management Institute®).
¡Tu aprendizaje es nuestro compromiso!
Si no apruebas tu examen en el primer intento, te brindamos la oportunidad de tomar el curso de nuevo sin costo adicional.
Para hacerlo válido es indispensable cumplir con el 100% de tu asistencia previamente.
Al finalizar el curso, podrás:
- Comprender cómo el “Ethical Hacking” aplica en IA.
- Comprender los principios de seguridad aplicados a entornos de inteligencia artificial.
- Comprender el diseño de estrategias técnicas y tácticas para la seguridad de IA.
- Comprender cómo se gestionan identidades, accesos y cumplimiento regulatorio en soluciones de IA.
- Identificar controles de seguridad según niveles de madurez organizacional.
- Definir y estructurar un documento de Security Chapter para IA.
- Comprender los tipos de herramientas usando herramientas de ejemplo del mercado.
- Evaluar riesgos y establecer métricas de seguridad en IA.
- Comprender arquitecturas seguras y planes de seguridad para IA.
- Responsables de tecnología, seguridad de información, ciberseguridad, cumplimiento y gestión de riesgos
- Líderes de proyectos y arquitectos de soluciones de IA
- Equipo de gobernanza de tecnología
- Arquitectos tecnológicos
- Conocimientos de seguridad de información.
- Conocimientos de modelos de IA.
- Conocimientos de programación de software.
- Duración: 60 minutos.
- Número de preguntas: 40 de opción múltiple.
- Calificación aprobatoria: 70%.
- Formato: En línea, supervisado en vivo (vía cámara web). A libro cerrado.
- Idioma: español e inglés.
Contenido
- Principios de seguridad aplicados a entornos de IA
- Riesgos emergentes en soluciones IA
- Seguridad como habilitador de confianza
- Discusión: Identificación de riesgos iniciales reales
- Gestión de identidad y acceso en soluciones AI
- Integración con políticas de acceso
- Requisitos regulatorios y cumplimiento normativo
- Reconocimiento de herramientas de gestión de identidad
- Visión general de fases del ciclo de vida de incidentes de seguridad
- Detección, respuesta, recuperación y aprendizaje
- Requisitos para simulación de escenarios de ataque y defensa
- Ejercicio: Definir proceso de gestión de incidente de seguridad para IA
- Componentes clave de un Security Chapter
- Roles y responsabilidades en seguridad de IA
- Alineación con prácticas de gobierno de IA
- Discusión de un ejemplo de un Security Chapter
- Microsoft Purview: gobernanza y clasificación de datos
- Microsoft Defender: protección de entornos IA
- Security Copilot: automatización de respuesta a incidentes
- Reconocimiento en herramientas Purview y Defender
- Diseño de arquitecturas seguras en IA
- Tipos de soluciones y escenarios: Buy (SaaS), Extend & Build (PaaS / IaaS)
- Controles de seguridad por nivel de madurez
- Discusión de postura de seguridad vs arquitectura
- ¿Qué es el Ethical Hacking aplicado a IA?
- Diferencias con el hacking tradicional
- Principales riesgos en sistemas de IA (modelos, datos, pipelines)
- OWASP AI Security & Privacy Guide
- MITRE ATLAS (Adversarial Threat Landscape for AI Systems)
- NIST AI Risk Management Framework
- Cómo estos Marcos de trabajo se integran en la metodología de pruebas
- Fase 1: Reconocimiento y Recolección de Datos: Identificación de modelos y datasets
- Fase 2: Análisis y Enumeración: Evaluación de arquitectura y puntos débiles
- Fase 3: Explotación (Ataques Adversariales): Tipos: Evasion, Poisoning, Model Extraction
- Fase 4: Post-Explotación y Reporte: Evaluación del impacto, mitigación y documentación de hallazgos
- Responsabilidad en pruebas de IA
- Regulaciones aplicables (GDPR, IA Act)
- Buenas prácticas para pruebas seguras



