El lado oscuro de la IA generativa: riesgos que las empresas están ignorando

El lado oscuro de la IA generativa: riesgos que las empresas están ignorando


Mayo 2026 - Ciberseguridad e Inteligencia Artificial

Las herramientas de IA generativa llegaron a las empresas antes de que los equipos de seguridad pudieran evaluarlas. El resultado es una superficie de ataque nueva, vectores de ingeniería social más sofisticados y datos corporativos fluyendo hacia destinos que nadie aprobó.

Un colaborador de finanzas usa un asistente de IA para redactar un análisis de proyección. Pega el estado de resultados del trimestre, algunos datos de clientes y las cifras del presupuesto aprobado. El resultado es impecable. El problema: acaba de enviar información financiera confidencial a un modelo externo cuyos términos de uso permiten usar ese contenido para entrenamiento.

Nadie se lo impidió. Ni siquiera había una política al respecto.

La adopción va adelante, la gobernanza va detrás

Según el informe de riesgos de IA de Gartner 2024, más del 40% de los empleados en organizaciones medianas y grandes ya usa herramientas de IA generativa en su trabajo diario, y la mayoría lo hace sin que TI o seguridad lo sepa. No es negligencia: es la velocidad natural de adopción cuando una tecnología es útil, accesible y gratuita.

El problema es que esa brecha entre adopción y gobernanza crea riesgos que no aparecen en el mapa de amenazas tradicional. No es un atacante externo. Es el propio colaborador haciendo su trabajo con una herramienta que nadie le dijo que no podía usar.

Los riesgos que más se están subestimando

El primero es la exfiltración involuntaria de datos. Cuando un empleado pega información confidencial en un servicio externo de IA, esos datos salen del perímetro de la organización. Dependiendo de los términos del servicio, pueden ser retenidos, procesados o usados para mejorar el modelo. No hay un alerta de DLP porque técnicamente no es una transferencia de archivo: es texto en un campo de chat.

El segundo es la ingeniería social potenciada por IA. Los ataques de phishing generados con IA generativa son gramaticalmente correctos, contextualmente relevantes y personalizados a escala. El correo ya no llega con errores de ortografía y remitente sospechoso. Llega con el tono adecuado, referenciando proyectos reales obtenidos de LinkedIn, y con un sentido de urgencia perfectamente calibrado. Los filtros tradicionales no están diseñados para detectar esto.

El tercero es la confianza ciega en el output. Los modelos de IA generativa alucinan: producen información incorrecta con una confianza sintáctica que parece autoridad. En contextos de análisis jurídico, financiero o técnico, un colaborador que no valida el output puede tomar decisiones basadas en datos fabricados. Eso no es un problema de ciberseguridad en sentido estricto, pero sí es un riesgo operativo con consecuencias reales.

El cuarto, y quizás el menos visible, es el uso de IA por parte de los atacantes para acelerar la explotación de vulnerabilidades. Los modelos de lenguaje pueden generar variantes de malware, identificar patrones en código fuente expuesto y automatizar la personalización de ataques. Lo que antes requería un equipo de atacantes especializados ahora puede hacerse con mucha menos fricción.

IA Generativa en la empresa sin gobernanza Exfiltración de datos Datos fuera del perímetro Phishing con IA Ataques a escala y precisión Output sin validar Decisiones sobre datos falsos Explotación acelerada Atacantes con más velocidad
Cuatro vectores de riesgo que emergen cuando la IA generativa se adopta sin una estrategia de gobernanza

¿Qué hacer al respecto?

El primer paso es reconocer que prohibir el uso de IA generativa no es una estrategia viable. Ya está en uso. La pregunta no es si los colaboradores van a usarla, sino bajo qué condiciones y con qué información.

Lo que sí es accionable es establecer una clasificación de datos clara y comunicarla en términos de lo que puede y no puede compartirse con servicios externos. No un documento de política de cien páginas: una guía práctica que el colaborador de finanzas entienda antes de pegar su próximo reporte.

También es necesario revisar si las herramientas de detección actuales —DLP, monitoreo de tráfico, controles de endpoint— tienen visibilidad sobre transferencias de datos hacia servicios de IA. La mayoría no la tienen en su configuración predeterminada. Esa brecha técnica tiene solución, pero primero hay que diagnosticarla.

Finalmente, el equipo de seguridad necesita entender cómo funciona la IA generativa, no a nivel de ingeniería, sino a nivel de riesgo operativo. No se puede defender un entorno que no se comprende. Eso aplica también para el CISO que tiene que explicarle el riesgo al consejo directivo con claridad y sin alarmismo innecesario.

¿Tu organización sabe hoy qué datos corporativos han salido ya a través de herramientas de IA que nadie aprobó formalmente?

Acciones inmediatas

  • Levanta un inventario de herramientas de IA en uso en tu organización. Pregunta directamente a los equipos de operaciones, finanzas, marketing y legal. No asumas que solo las herramientas aprobadas por TI son las que se usan. El resultado te dará el mapa de exposición real.
  • Revisa los términos de uso de las herramientas de IA más utilizadas en tu empresa. Enfócate en cómo cada servicio maneja los datos que recibe: si los retiene, si los usa para entrenamiento, y bajo qué jurisdicción opera. Ese análisis define qué tipo de información puede o no puede usarse con cada herramienta.
  • Crea una guía de uso responsable de IA generativa orientada a usuarios no técnicos. Dos páginas máximo. Ejemplos concretos de qué sí y qué no compartir. Sin jerga. Distribúyela a través de los líderes de área, no solo por correo masivo de TI.
  • Verifica si tus controles de DLP tienen visibilidad sobre tráfico hacia servicios de IA. Comprueba si el tráfico hacia los servicios de IA más usados está siendo inspeccionado o está pasando como HTTPS genérico sin análisis de contenido. Esa diferencia define si tienes visibilidad real sobre lo que sale.
  • Incluye un escenario de phishing generado con IA en tu próximo ejercicio de concienciación. Diseña un correo de prueba que sea gramaticalmente impecable, contextualmente relevante y sin los marcadores clásicos de phishing. La tasa de clics te dirá cuánto ha cambiado el nivel de sofisticación que tu equipo necesita detectar.

Si quieres evaluar la exposición de tu organización frente a los riesgos de la IA generativa, contáctanos en https://tbsek.mx/contacto/.

También te puede interesar

Descubre más contenido de ciberseguridad que puede ser útil para tu organización

Categorías:
Amenazas y tendenciasCiberseguridad

Transforma tu seguridad digital hoy

No esperes a ser víctima de un ciberataque. Nuestro equipo de expertos está listo para implementar la estrategia de ciberseguridad que tu empresa necesita para operar con confianza.

Inteligencia de amenazas real
Implementación ágil
Soporte especializado
Comenzar ahora
Endpoint
Cloud
Network
Email