La IA y los datos sensibles: Lo que nunca debe compartir con ChatGPT

Cuando utilizamos una IA lingüística como ChatGPT o Gemini, normalmente recibimos diferentes avisos que nos alertan ante posibles problemas que pueden derivarse de su uso.

Por ejemplo, ChatGPT suele alertarnos frente a posibles imprecisiones de sus respuestas con un conciso mensaje: “ChatGPT puede cometer errores. Considera verificar la información importante”. Una alerta, que, dicho sea de paso, tendemos a ignorar más de lo debido.

El aviso que nos ofrece Gemini al comienzo de cada sesión es aún más esclarecedor. Además del clásico mensaje advirtiéndonos de los posibles errores de la IA, en Gemini se nos comunica que “Hay revisores humanos que leen algunas conversaciones guardadas”. El propósito de estas lecturas es, por supuesto, optimizar el rendimiento de la IA: un objetivo relativamente inocuo que, sin embargo, pone en serio riesgo la privacidad de nuestros datos.

Compartir información con ChatGPT es muy peligroso

Este proceso de revisión manual no es exclusivo de Gemini, y se lleva a cabo también en ChatGPT, Grok, y cualquier otra IA lingüística. Al acceder a nuestras conversaciones, estos revisores pueden optimizar los sistemas de machine learning de estas poderosas IAs, en un proceso que en algunos casos se ha denominado ‘sintonía’ o ‘ajuste’ fino. El problema es que también pueden hacer un uso malicioso de los datos que compartimos en ellas.

En muchos casos, el personal de optimización de la inteligencia artificial opera a través de empresas de terceros, lo que añade intermediarios y dificulta todavía más la protección de nuestra información. Se trata de un proceso similar al que lleva ocurriendo desde hace algunos años con la IA de Amazon, donde empleados y empleadas de Costa Rica, India o Rumanía tienen acceso a conversaciones de los usuarios con los asistentes de Alexa.

Ejemplos de lo que nunca debemos decirle a ChatGPT

La IA de ChatGPT sigue siendo una excelente herramienta para ayudarnos a optimizar todo tipo de procesos de trabajo, ya sea clarificando dudas, traduciendo textos o corrigiendo nuestra gramática. Podemos conversar con este poderoso modelo de lenguaje sobre prácticamente cualquier cosa, pero hay algunos datos que siempre debemos mantener al margen:

  • Datos personales. ChatGPT nunca debería conocer nuestro nombre completo, nuestra dirección postal, nuestra credencial para votar, o cualquier otro dato que pueda identificarnos y localizarnos. Si esta información se filtra, podría ser empleada por terceros para suplantar nuestra identidad con fines maliciosos.
  • Datos bancarios. Por supuesto, en ningún caso deberíamos compartir con ChatGPT nuestra información bancaria: números de cuenta, tarjetas de débito o crédito, direcciones de PayPal, billeteras de criptomonedas… Todo esto debe quedar completamente al margen de nuestros chats con la IA.
  • Datos de nuestro negocio. Si tenemos una empresa, debemos mantener nuestros planes de negocio lejos de las conversaciones de ChatGPT, y, por supuesto, nunca debemos mencionar datos de nuestros clientes o nuestro personal. Podemos hacer preguntas para buscar orientación empresarial, pero sin aportar detalles específicos.

Proteger nuestra cuenta de OpenAI también es esencial

Los operarios y operarias de OpenAI –o sus subcontratas– no son el único vector que puede poner en riesgo nuestra información privada en ChatGPT. También debemos asegurarnos de proteger nuestra cuenta frente a posibles hackeos, sobre todo considerando que nuestra tarjeta de crédito seguramente estará asociada a ella.

Entre las principales herramientas para hacer esto destacan las siguientes:

  • Gestores de contraseñas. Un gestor de contraseñas se encarga de elaborar claves robustas y únicas para cada una de nuestras cuentas. Este software mantiene sus datos confidenciales protegidos y le alerta si se produce una filtración de sus claves.
  • Aplicaciones VPN. La información que compartimos en ChatGPT podría verse interceptada por actores maliciosos si nos conectamos a través de una red vulnerable. El sistema de cifrado de una VPN se encarga de prevenirlo.
  • Navegadores robustos. No todos los navegadores web son igual de seguros. A la hora de utilizar ChatGPT, es recomendable optar por navegadores robustos que nos permitan una mejor gestión de las cookies, como Firefox o Brave.

Debemos hacer todo lo posible para mantener nuestra información privada a salvo siempre que empleamos cualquier herramienta de internet. Y estas medidas de precaución deberían ser aún más estrictas cuando se trata de una plataforma con la que compartimos tanta información como ChatGPT. ¡Prevenir un hackeo siempre es más sencillo que repararlo!

Salir de la versión móvil