
La inteligencia artificial parece ser cada vez más amigable y adaptable en la vida cotidiana, constantemente se encuentran nuevos usos y maneras en las que colaboran en las actividades. Sin embargo, no se debe olvidar que no es un sistema de datos impenetrable, y que en el caso de tener acceso a cierta información, las personas podrían ser vulnerables a hackeos.
Recientes tendencias que se compartieron en redes, como personas que usan las IAs conversacionales como psicólogos, o la popularización en las que se modifican las fotos personales en diferentes estilos, por ejemplo el de estudio Ghibli, preocuparon a los expertos por la cantidad de información que podrían estar compartiendo con ChatGPT. Es por eso que estas recomendaciones pueden servir para preservar la privacidad.
Cinco cosas que no deberías compartir con ChatGPT
1. Imágenes con datos biométricos
Subir fotos personales, especialmente aquellas en las que aparece el rostro, puede exponer información biométrica valiosa. Aunque es divertido ver una versión animada de uno mismo, es importante recordar que estas imágenes pueden ser utilizadas para recopilar datos sensibles sin que el usuario lo sepa.
2. Datos personales
Información como el número de documento, la fecha de nacimiento, la dirección o incluso trayectos habituales no deben compartirse con la IA. Estos datos pueden ser utilizados para identificar a una persona o comprometer su seguridad en caso de un ataque cibernético.
3. Resultados médicos
Compartir diagnósticos o estudios médicos con ChatGPT es una mala idea. Además de que la IA no puede reemplazar la opinión de un profesional de la salud, estos datos pueden filtrarse y quedar expuestos a terceros, generando riesgos para la privacidad del usuario.
4. Datos bancarios
Nunca se deben proporcionar números de tarjetas de crédito, claves de acceso a cuentas bancarias o información de transacciones financieras. Aunque ChatGPT está diseñado para proteger la privacidad, no cuenta con los mismos protocolos de seguridad que un sitio web bancario, lo que lo convierte en un objetivo potencial para ataques informáticos.
5. Información corporativa confidencial
Si se usa ChatGPT con fines laborales, es importante evitar compartir información sensible de la empresa. Documentos internos, estrategias comerciales o datos de clientes podrían quedar expuestos, generando riesgos legales y financieros para la compañía.