¿Es Chat GPT un riesgo para la ciberseguridad?

Inicio » Blog
Octubre 2023

La IA, en particular, los modelos de lenguaje como ChatGPT, ha avanzado a pasos agigantados en los últimos años. Tan es así que su uso se ha desplegado en más de 161 países de acuerdo con OpenAI. Este avance ha permitido a las empresas aprovechar la IA para mejorar la atención al cliente, automatizar tareas repetitivas y desarrollar aplicaciones más inteligentes. Sin embargo, este progreso también conlleva una serie de riesgos significativos que deben ser comprendidos y gestionados adecuadamente.

Para poner en contexto, entendamos que ChatGPT es un chatbot de inteligencia artificial desarrollado por OpenAI. Básicamente se trata de un modelo de lenguaje grande (LLM) entrenado en un conjunto de datos masivo de texto y código mismo que puede generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a sus preguntas de manera informativa. ¡Suena genial! ¿No es así? Pero, siempre está la otra cara de la moneda.

La perspectiva ‘positiva’ nos indica que, ChatGPT puede ser de gran soporte en tanto: detección y análisis de amenazas a través de patrones, tendencias y datos; en la formación de empleados al presentar información personalizada y adaptada a las necesidades de cada empleado; y también, en la investigación forense para identificar el origen de los ataques y a reconstruir la cadena de eventos. Y estos son solo algunos ejemplos.

Sin embargo, grandes corporativos están prohibiendo el uso a sus empleados. Samsung, Apple, Amazon, Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co. y JP Morgan son algunos ejemplos que han dicho “NO” rotundamente a ChatGPT. Algunas de las razones, se enlistan a continuación:

1.1. Vulnerabilidades de Seguridad

Los modelos de lenguaje como ChatGPT pueden ser manipulados para generar contenido malicioso. Imagina que un atacante accede a un modelo como este y utiliza la IA para crear mensajes de phishing o difundir desinformación. Esto podría llevar a que los empleados de tu organización caigan en trampas cibernéticas.

1.2. Fuga de Datos Sensibles

El uso de IA implica el procesamiento de grandes cantidades de datos. Si no se implementan las medidas adecuadas, existe el riesgo de que datos confidenciales de tu organización se filtren o sean comprometidos. La pérdida de información sensible puede tener graves consecuencias legales y financieras.

1.3. Adversarios aprovechando la IA

Los ciberdelincuentes están empezando a utilizar IA para mejorar sus ataques. Pueden automatizar la búsqueda de vulnerabilidades, crear campañas de desinformación, adaptar los ataques a los sistemas de defensa y generar ataques personalizados. Esto hace que sea más difícil detectar y defenderse contra las amenazas.

1.4. Sesgo en la IA

La IA como ChatGPT aprende de los datos con los que se entrena, y estos datos pueden contener sesgos. Si tu organización utiliza la IA para tomar decisiones importantes, como contratación o evaluación de crédito, los sesgos en los datos de entrenamiento pueden llevar a decisiones injustas y discriminatorias.

1.5. Suplantación de Identidad

Los modelos de lenguaje pueden ser utilizados para crear documentos y perfiles falsos convincentes en línea. Esto puede ser utilizado para suplantar la identidad de empleados, clientes o socios de negocios, lo que podría tener graves repercusiones legales y de reputación.

Cómo proteger tu organización

En este artículo expresamos ambas vertientes con la finalidad de que formes tu propio criterio. Sabemos que hay potenciales ventajas con respecto al uso de la plataforma, siendo así, y si tu empresa comienza a incentivar el uso de ChatGPT, sigue estas sencillas recomendaciones:

ChatGPT y la IA en general pueden potenciar áreas de tu organización, incluso en materia de ciberseguridad. Aunque, debes recordar que su uso debe ser cuidadosamente gestionado para evitar amenazas.