Los riesgos de privacidad en ChatGPT y qué sucede con tus datos

ESPACIO PREMIUM
728 x 90 px
ESPACIO PREMIUM
728 x 90 px

Tras siete años de experiencia evaluando la seguridad de los ecosistemas digitales y el manejo corporativo de la información, he documentado cómo la adopción masiva de nuevas tecnologías suele ir acompañada de preocupantes brechas de seguridad. La inteligencia artificial generativa se ha convertido en una herramienta fundamental para programar, redactar documentos y analizar datos. ChatGPT, por ejemplo, superó los 900 millones de usuarios activos semanales a principios de año, según los reportes publicados por la propia compañía OpenAI. Sin embargo, este volumen de adopción trae consigo una pregunta técnica y ética fundamental: ¿qué sucede exactamente con cada línea de texto que ingresas en estos modelos?

La compañía de ciberseguridad ESET advierte que las conversaciones con la IA no son efímeras ni privadas por defecto. Interactuar con grandes modelos de lenguaje (LLM) requiere una infraestructura masiva de almacenamiento y procesamiento de datos. Si los usuarios no configuran adecuadamente sus cuentas, corren el riesgo de exponer desde secretos comerciales corporativos hasta información personal altamente sensible.

Las tres capas del procesamiento de datos en OpenAI

Según el análisis técnico realizado por ESET, cuando ingresas información en la interfaz de ChatGPT, los datos no se procesan localmente en tu navegador. El texto recorre una ruta que involucra tres fases distintas de tratamiento:

GOOGLE ADS
(Automático aquí)

Almacenamiento y retención del historial

Al enviar un prompt (instrucción), este se almacena automáticamente en los servidores de la compañía. Este paso es necesario para que el chatbot mantenga el contexto de la conversación activa y para que el usuario pueda consultar su historial desde múltiples dispositivos. OpenAI conserva esta información por un período de hasta 30 días, justificando esta medida por razones de monitoreo de abusos y seguridad general de la plataforma.

Entrenamiento de modelos a partir de conversaciones

Este es el punto más crítico para la privacidad corporativa y personal. En las versiones estándar gratuitas y en el plan Plus, OpenAI utiliza el contenido de tus conversaciones para perfeccionar las futuras versiones de sus modelos por defecto.

Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, advierte sobre los peligros de esta práctica: si un empleado copia y pega código fuente propietario o un plan de negocios interno en el chat, existe el riesgo de que el modelo asimile esos patrones. Estudios académicos en seguridad de la información han demostrado que los LLM pueden memorizar fragmentos exactos de sus datos de entrenamiento, y que bajo ciertas condiciones de estrés algorítmico, esta información puede ser extraída por otros usuarios mediante técnicas especializadas. Es importante notar que en las versiones Enterprise, Business y en la API directa, los datos no se utilizan para el entrenamiento por defecto.

La revisión humana de los diálogos

Contrario a la creencia popular de que solo una máquina procesa la información, una muestra anonimizada de las conversaciones es leída y evaluada por revisores humanos. Estos especialistas evalúan la calidad, la seguridad de las respuestas y garantizan que el sistema no esté generando contenido peligroso, lo que significa que personas reales tienen acceso a fragmentos de las interacciones de los usuarios.

Riesgos externos: el mercado negro de credenciales

El peligro no radica únicamente en las políticas de retención de las empresas de IA. ESET señala una amenaza de ciberseguridad externa en constante crecimiento: el robo directo de credenciales. Durante el año 2024, se identificaron más de 225.000 registros de inicio de sesión de ChatGPT a la venta en foros de la Dark Web. Estas credenciales son extraídas principalmente mediante malware de tipo infostealer que infecta las computadoras de los usuarios. Dado que los historiales de chat suelen contener desde credenciales internas hasta estrategias comerciales, una cuenta comprometida facilita directamente el espionaje industrial.

Políticas de privacidad en Gemini y Claude

El ecosistema de la inteligencia artificial cuenta con otras plataformas líderes que presentan enfoques ligeramente distintos respecto a la gobernanza de datos:

  • Google Gemini: Las interacciones se procesan bajo la infraestructura de Google y, en las versiones de consumo, se utilizan para mejorar los servicios (incluyendo la revisión humana). Sin embargo, si Gemini se utiliza bajo un entorno corporativo de Google Workspace, las políticas de privacidad garantizan que los datos internos no se emplearán para el entrenamiento de los modelos globales.
  • Anthropic Claude: Basado en una filosofía de «IA Constitucional», este modelo destaca por minimizar la retención de datos. Aunque en su versión gratuita la información puede usarse para mejoras, la compañía ofrece a sus clientes comerciales un proceso de exclusión (opt-out) mucho más directo, asegurando la privacidad del código y los secretos empresariales enviados a través de su API.

En resumen, como señala Micucci, ninguna de estas plataformas funciona como una «bóveda aislada» en sus versiones gratuitas. En los servicios empresariales, la privacidad no es un estándar, sino un servicio premium por el cual las empresas pagan.

Recomendaciones para una gestión segura de datos con IA

Para garantizar que el uso de estas herramientas no represente una vulnerabilidad para ti o tu empresa, es fundamental aplicar los siguientes controles de seguridad:

  1. Anonimización manual: Jamás introduzcas información que no harías pública. Antes de enviar texto a la IA, reemplaza los nombres de clientes por alias, oculta cifras financieras precisas y elimina cualquier fragmento de código que contenga contraseñas, tokens o direcciones IP de tu infraestructura. El «desaprendizaje» de un dato en un LLM es técnicamente casi imposible en la actualidad.
  2. Configuración de exclusión (Opt-out): Nunca aceptes la configuración de fábrica de las aplicaciones. En ChatGPT, accede al menú de «Controles de datos» y desactiva manualmente la opción de entrenamiento de modelos con tu historial. En el caso del ecosistema de Google, gestiona y desactiva la «Actividad en apps de Gemini» para limitar la retención de tus consultas.
  3. Seguridad de la cuenta: Implementa contraseñas robustas y, de manera obligatoria, activa la autenticación de dos factores (2FA) en tu cuenta de OpenAI, Google o Anthropic. Esto bloqueará el acceso al historial de tus conversaciones incluso si tu contraseña llega a filtrarse en la web oscura.
GOOGLE ADS
(Automático aquí)

Gustavo Torres

Amante de la tecnología con 7 años de experiencia en el cubrimiento informativo de este sector en temas como telecomunicaciones, tecnología de consumo, dispositivos móviles y plataformas en Colombia.

Mi opinión sobre tecnología ha sido tomada por medios como La República o AS. Soy especialista productos de consumo masivo y reviews de hardware. Soy director de tecnogus.com.co

Comparte...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *