Aunque la Inteligencia Artificial es útil, compartir información sensible con ella puede poner en riesgo tu privacidad.
Ricardo Amador/NORO
El uso cotidiano de asistentes de inteligencia artificial como ChatGPT se ha normalizado en los últimos años, desde estudiantes que piden ayuda con sus tareas hasta profesionales que utilizan estos modelos para redactar informes, la IA se ha convertido en una herramienta clave.
Pero su cercanía, su tono natural y su aparente privacidad pueden llevarnos a bajar la guardia; compartir información sensible con una Inteligencia Artificial puede parecer inofensivo, pero en realidad implica riesgos reales.

Hablar con una Inteligencia Artificial puede parecer tan seguro como conversar con un diario personal o un amigo cercano, sin embargo, hay una diferencia fundamental: lo que escribes puede almacenarse en servidores externos, ser usado para entrenar futuros modelos o incluso quedar expuesto si ocurre una filtración.
En marzo de 2023, por ejemplo, un fallo técnico en ChatGPT permitió a algunos usuarios ver fragmentos de conversaciones ajenas. Más recientemente, la plataforma AI-Nomis dejó al descubierto más de 95 mil prompts de usuarios junto con imágenes generadas, algunas de ellas con contenido delicado.
Esto demuestra que, aunque no sea común, los modelos de IA también pueden ser vulnerables a brechas de seguridad.
5 tipos de información que jamás deberías ingresar a una Inteligencia Artificial
Para proteger tu privacidad, hay ciertas categorías de datos que es preferible mantener fuera de tus interacciones con ChatGPT o cualquier otra IA generativa, como estas:

- Información personal identificable (PII): Esto incluye tu nombre completo, dirección, número de teléfono, fecha de nacimiento, CURP, número de seguridad social o cualquier otro dato que permita identificarte. Aunque parezca útil compartirlos para crear un currículum o revisar un contrato, es mejor omitirlos o sustituirlos por datos ficticios.
- Datos financieros: Nunca ingreses información como tu número de tarjeta de crédito, datos de cuentas bancarias o claves de acceso a servicios financieros. En caso de que utilices Inteligencia Artificial para organizar tus finanzas, asegúrate de trabajar solo con montos aproximados o información genérica.
- Credenciales de acceso: Contraseñas, nombres de usuario y PINs deben quedar completamente fuera de tus chats con la Inteligencia Artificial. Aunque ChatGPT puede ayudarte a generar claves seguras, no debes pedirle que las almacene ni revelarle las tuyas.
- Resultados médicos y datos de salud: Si bien las IA pueden ayudarte a entender mejor ciertos términos o síntomas, no deberías compartir resultados clínicos con datos personales. La información médica es altamente sensible y puede tener consecuencias graves si es filtrada o malinterpretada.
- Información confidencial del trabajo: Desde reportes internos hasta códigos fuente, cualquier dato empresarial o información de clientes debe manejarse con cautela. Empresas como Samsung ya han restringido el uso de IA entre sus empleados por filtraciones accidentales. Si usas IA para trabajar, busca versiones empresariales con protocolos de seguridad adicionales.

¿Compartiste algo que no debías con la Inteligencia Artificial? Esto es lo que puedes hacer
Si ya revelaste información sensible a una Inteligencia Artificial, aún puedes tomar medidas para mitigar el riesgo. Existen algunas opciones de configuración para proteger tus datos, y aquí te compartimos las principales:

- Borra tus chats anteriores: Puedes eliminarlos manualmente o todos de golpe desde el menú de configuración. Aunque el contenido no desaparece inmediatamente de los servidores, se elimina definitivamente tras 30 días.
- Revisa y elimina la memoria que la IA tiene de ti: ChatGPT puede recordar ciertos detalles para personalizar las respuestas. Puedes ver, editar o borrar esta información desde la sección de “Memoria” en tu perfil.
- Desactiva el uso de tus datos para entrenamiento: Desde “Controles de datos”, puedes desmarcar la opción de “Mejorar el modelo para todos” para evitar que tus aportes sean utilizados en futuras actualizaciones del sistema.
- Utiliza el modo temporal: Esta función evita que los chats sean guardados o utilizados para entrenamiento, y se elimina automáticamente después de 30 días.
- Revoca accesos conectados: Si integraste tu cuenta con servicios como Google Drive o OneDrive, asegúrate de desconectarlos desde la configuración para evitar posibles fugas de información.
La privacidad digital es una responsabilidad compartida
En un entorno digital cada vez más complejo, proteger nuestros datos no es solo una cuestión técnica, sino también de hábitos conscientes. Las IA ofrecen múltiples beneficios, pero no están diseñadas como bóvedas de seguridad. Trátalas como lo que son: herramientas útiles, pero con límites.

Mientras más natural y humana parezca una Inteligencia Artificial, más fácil es olvidar que detrás de cada palabra hay un sistema algorítmico que no distingue entre lo trivial y lo crítico. La responsabilidad recae en los usuarios: piensa dos veces antes de compartir algo sensible, usa los ajustes de privacidad disponibles y mantente al tanto de las políticas de uso.
Fuentes: Posta, Agileblue, LinkedIn, La Razón