ChatGPT no es seguro: 5 cosas que no deberías decirle a un chatbot en 2026

Foto: de fuentes abiertas

Aunque parezca que un bot responde «como un amigo», la información que introduces puede utilizarse de forma distinta a la que esperas

Los chatbots de inteligencia artificial (IA) como ChatGPT se han convertido en parte integrante de la vida cotidiana: la gente los utiliza para buscar respuestas, redactar textos, ayudar con ideas e incluso analizar datos. Sin embargo, cuanto más interactuamos con la IA, más importante es recordarlo: no es un depósito seguro para tus datos personales o sensibles, escribe SlashGear.

ChatGPT responde a unos 2.500 millones de solicitudes cada día, e incluso con mecanismos de seguridad incorporados, sigue habiendo riesgos reales de filtración y uso incontrolado de los datos que introduces. La tecnología evoluciona constantemente, pero la precaución sigue siendo necesaria

Aquí tienes cinco cosas que nunca deberías decirle a ChatGPT ni a ningún otro chatbot «inteligente» público.

Información personal

Muchos usuarios introducen sin saberlo su nombre completo, direcciones, números de documento y datos de contacto para, por ejemplo, crear un CV. Esto puede acarrear graves consecuencias en caso de «filtración» o de acceso a la base de datos de modelos por parte de usuarios malintencionados.

Aunque parezca que un bot responde «como un amigo», esa información puede ser procesada por el sistema y utilizada de forma distinta a la esperada.

Datos financieros

Se puede pedir a ChatGPT que se convierta en un asesor financiero y ayude a crear un presupuesto mensual o incluso a desarrollar toda una estrategia de jubilación, pero no se deben introducir en la sala de chat de AI detalles específicos sobre facturas, tarjetas de crédito, inversiones o impuestos.

Los expertos señalan que una vez que se facilitan los datos a la IA, no hay forma de conocer su destino. Introducir información financiera puede crear graves riesgos: desde esquemas fraudulentos y filtraciones de datos personales hasta ataques de phishing y ransomware que infecta dispositivos.

Datos médicos

Según una encuesta reciente, aproximadamente uno de cada seis adultos recurre al ChatGPT al menos una vez al mes para aclarar o tratar sus síntomas. Y entre los adultos jóvenes, esa cifra se eleva a una de cada cuatro veces al mes.

Los expertos instan a hacerlo con extrema cautela y entendiendo que no se trata de un médico ni sustituye el consejo de un especialista. Al igual que ocurre con la información financiera, el problema se agrava por el hecho de que, una vez que se facilitan esos datos a la IA, no hay forma de conocer su destino.

Materiales relacionados con el trabajo

Documentos, informes y estrategias de la empresa – esto incluye cualquier cosa relacionada con un empleador, cliente o proyecto en curso que no esté permitido divulgar públicamente.

Como señala la publicación, la inteligencia artificial puede parecer una herramienta práctica para editar textos o parafrasear brevemente documentos, pero también puede conllevar riesgos innecesarios.

Cualquier solicitud ilegal

Esto es algo que hay que evitar no sólo por razones de seguridad, sino también por motivos legales. Las preguntas sobre cómo cometer delitos, actividades fraudulentas o manipulaciones pueden dar lugar al bloqueo de servicios e incluso a responsabilidades, ya que las plataformas están obligadas por ley y pueden revelar datos a petición de las fuerzas de seguridad.

El CEO de OpenAI, Sam Altman, también advierte de que la correspondencia ChatGPT no está protegida legalmente del mismo modo que las conversaciones con un experto real y, en caso de demanda, los desarrolladores podrían verse obligados a facilitar la correspondencia del usuario en virtud de una orden judicial.

Así que ten siempre cuidado con lo que le cuentas a la IA, sobre todo si está relacionado con tu vida personal o profesional.

Observaciones:

Share to friends
Rating
( No ratings yet )
Consejos útiles y trucos para la vida diaria