¿Privacidad en peligro?: cinco cosas que nunca debes compartir con ChatGPT

Estas cosas no deberías compartir con la inteligencia artificial para preservar tu seguridad.

1 2
¿Privacidad en peligro?: cinco cosas que nunca debes compartir con ChatGPT
10 Abril 2025

La inteligencia artificial parece ser cada vez más amigable y adaptable en la vida cotidiana, constantemente se encuentran nuevos usos y maneras en las que colaboran en las actividades. Sin embargo, no se debe olvidar que no es un sistema de datos impenetrable, y que en el caso de tener acceso a cierta información, las personas podrían ser vulnerables a hackeos.

Recientes tendencias que se compartieron en redes, como personas que usan las IAs conversacionales como psicólogos, o la popularización en las que se modifican las fotos personales en diferentes estilos, por ejemplo el de estudio Ghibli, preocuparon a los expertos por la cantidad de información que podrían estar compartiendo con ChatGPT. Es por eso que estas recomendaciones pueden servir para preservar la privacidad.

Cinco cosas que no deberías compartir con ChatGPT

1. Imágenes con datos biométricos

Subir fotos personales, especialmente aquellas en las que aparece el rostro, puede exponer información biométrica valiosa. Aunque es divertido ver una versión animada de uno mismo, es importante recordar que estas imágenes pueden ser utilizadas para recopilar datos sensibles sin que el usuario lo sepa.

2. Datos personales

Información como el número de documento, la fecha de nacimiento, la dirección o incluso trayectos habituales no deben compartirse con la IA. Estos datos pueden ser utilizados para identificar a una persona o comprometer su seguridad en caso de un ataque cibernético.

3. Resultados médicos

Compartir diagnósticos o estudios médicos con ChatGPT es una mala idea. Además de que la IA no puede reemplazar la opinión de un profesional de la salud, estos datos pueden filtrarse y quedar expuestos a terceros, generando riesgos para la privacidad del usuario.

4. Datos bancarios

Nunca se deben proporcionar números de tarjetas de crédito, claves de acceso a cuentas bancarias o información de transacciones financieras. Aunque ChatGPT está diseñado para proteger la privacidad, no cuenta con los mismos protocolos de seguridad que un sitio web bancario, lo que lo convierte en un objetivo potencial para ataques informáticos.

5. Información corporativa confidencial

Si se usa ChatGPT con fines laborales, es importante evitar compartir información sensible de la empresa. Documentos internos, estrategias comerciales o datos de clientes podrían quedar expuestos, generando riesgos legales y financieros para la compañía.

Temas ChatGPT
Tamaño texto
Comentarios 2
Informate de verdad Aprovechá esta oferta especial
$11,990 $999/mes
Suscribite ahoraPodés cancelar cuando quieras
Comentarios
Cargando...