Descripción

Este curso te ofrecerá una guía completa y práctica para identificar los riesgos de seguridad asociados al uso cotidiano de herramientas de Inteligencia Artificial, y tomar acciones de protección. Inicia con entender cómo el usuario expone su información al usar IA, entender cómo el atacante la usa para preparar y ejecutar el ataque, y qué medidas de protección están al alcance de cualquier usuario.

Provee una guía paso a paso para identificar las medidas de protección basado en las 14 fases de MITRE ATLAS — mostrando en cada fase cómo podría actuar un atacante y cómo el usuario puede interrumpirlo y defenderse, mediante un marco ágil de uso seguro de la IA, accionable y con ejemplos de un plan de tareas de 30 días. Usa referencias como MITRE ATLAS, OWASP Top 10 LLM, NIST AI RMF, ISO 42001.

Detalles

Ejercicios prácticos por módulo guiados por instructor.

Constancia digital de participación.

Manual digital con licencia de 1 año (2 dispositivos).

Casos reales de incidentes con IA.

Ejemplo de plan de tareas de uso seguro de IA.


  • Identificarás los principales riesgos de seguridad asociados al uso de herramientas de IA, incluyendo exposición de datos, suplantación de identidad y manipulación de información.
  • Aplicarás mejores prácticas y controles básicos para proteger la información personal y laboral al interactuar con sistemas de IA.
  • Reconocerás las fases de la cadena de ataque MITRE ATLAS y las acciones concretas para interrumpir y protegerse en cada fase desde el rol de usuario final.
  • Integrarás la Inteligencia Artificial en actividades profesionales con criterios de uso seguro, responsable y ético.
  • Gerentes y líderes que supervisan el uso de IA.
  • Profesionales en ambientes corporativos que usan IA.
  • Responsables de transformación digital, innovación o mejora de procesos.
  • Consultores, coordinadores y tomadores de decisión que integran IA en operaciones.
  • Organizaciones que buscan adoptar IA minimizando riesgos operativos y reputacionales.
  • Interés en usar herramientas de IA de forma segura y responsable.
  • No se requiere experiencia previa en programación ni conocimientos técnicos de seguridad o inteligencia artificial.

Contenido

MITRE ATLAS: Reconnaissance · Resource Development

  • 1.1 IA en el entorno profesional: impacto real en organizaciones y roles profesionales.

  • 1.2 Reconnaissance: cómo el atacante investiga al usuario — y cómo reducir la visibilidad como objetivo.

  • 1.3 Resource Development: cómo el atacante construye su arsenal — y cómo evitar ser su recurso.

  • 1.4 Los tres cuadrantes de riesgo: aplicaciones de IA, endpoints y plataformas.

  • 1.5 Marcos de referencia de seguridad en IA: NIST AI RMF, ISO 42001, ISO 23894, OWASP Top 10 LLM, MITRE ATLAS y RAI v2.

MITRE ATLAS: Initial Access · ML Model Access · Execution

  • 2.1 Initial Access: phishing con IA generativa, credenciales comprometidas y extensiones maliciosas.

  • 2.2 ML Model Access: fugas de información por prompts mal construidos — cómo construir un prompt seguro.

  • 2.3 Execution: prompt injection directa, indirecta y ciega — señales de alerta y acciones de respuesta.

  • 2.4 MITRE ATLAS para el usuario: las amenazas más comunes en las fases 3, 4 y 5.

  • 2.5 OWASP Top 10 para LLMs: los 10 riesgos críticos traducidos en preguntas de autoevaluación.

  • 2.6 Ejercicio: identifica el vector de ataque en tu uso actual de IA.

MITRE ATLAS: Persistence · Privilege Escalation · Defense Evasion · Credential Access

  • 3.1 Persistence: señales de acceso no autorizado persistente — cómo detectarlo y reportarlo.

  • 3.2 Suplantación con IA: clonación de voz, deepfakes, perfiles sintéticos y cómo verificar identidad.

  • 3.3 Privilege Escalation y Defense Evasion: mínimo privilegio y validación de outputs inusuales.

  • 3.4 Credential Access: gestión de credenciales, MFA y el filtro de 3 preguntas antes del prompt.

  • 3.5 Clasificación de información: 4 niveles prácticos para decidir qué puede ir en un prompt de IA.

  • 3.6 Ejercicio: clasifica tu información y bloquea al atacante en sus fases de persistencia.

MITRE ATLAS: Discovery · Collection

  • 4.1 Discovery: las políticas de uso de IA bloquean al atacante antes de que mapee tu entorno.

  • 4.2 Collection: límites de acceso, gestión de sesiones y configuraciones de privacidad por plataforma.

  • 4.3 Cómo proteger tu información en ChatGPT, Microsoft Copilot, Google Gemini y Claude.

  • 4.4 IA Responsable (RAI v2 Microsoft): 6 principios de uso ético y criterios de responsabilidad del usuario.

  • 4.5 Ejercicio: auditoría de accesos y configuraciones de privacidad en tus herramientas de IA actuales.

MITRE ATLAS: ML Attack Staging

  • 5.1 ML Attack Staging: el usuario como última línea de defensa antes del ataque final.

  • 5.2 Responsabilidad del usuario ante el output de IA: cómo validar antes de actuar.

  • 5.3 Propiedad intelectual y IA: riesgos legales y criterios prácticos para el uso de contenido generado.

  • 5.4 Cumplimiento regulatorio: ISO 42001, ISO 23894 y GDPR aplicados al usuario final.

MITRE ATLAS: Exfiltration · Impact

  • 6.1 Exfiltration: señales de que tu información está siendo extraída — cómo detectarlo y detenerlo.

  • 6.2 Modelo de adopción segura: árbol de decisión de 5 preguntas antes de usar IA para cualquier tarea.

  • 6.3 Checklist de uso seguro y protocolo de reporte de incidentes de seguridad en IA.

  • 6.4 Caso aplicado: 3 perfiles ante el mismo incidente de exfiltración — decisiones y aprendizajes.

  • 6.5 Ejercicio integrador: hoja de ruta personal de uso seguro de IA — los próximos 30 días.