Por Ana Cecilia Pérez*
Cuando hablamos con una inteligencia artificial, no solo estamos haciendo preguntas. Estamos revelando lo que somos, lo que nos duele, lo que tememos y, muchas veces, lo que no nos atrevemos a decir en voz alta.
GPT —y modelos similares— se han convertido en una especie de espejo emocional. Un espejo sin juicio, sin interrupciones, sin prisas. Y en ese silencio aparente, muchas personas encuentran un espacio para confesar cosas que no le dirían ni a su terapeuta, ni a su pareja, ni a su mejor amiga.
He leído casos reales de usuarios que le cuentan a un chatbot que se sienten solos, que están tristes, que tienen miedo. Que no saben si dejar a su pareja o cómo hablar con sus hijos. Que dudan de su vocación. Que ya no quieren seguir. Y aunque la IA no tiene emociones ni conciencia, muchos encuentran consuelo en esa compañía ilusoria.
Pero lo que pocos se detienen a pensar es: ¿Qué estamos compartiendo realmente? ¿Y con quién?
La mayoría no lo nota, pero en los mensajes que escribimos a una IA hay mucho más que texto. Hay hábitos, rutinas, nombres, ubicaciones, diagnósticos médicos, historias familiares. A veces hasta contraseñas, números de cuenta, el nombre de nuestros hijos, sus edades, su escuela, su estado emocional. Sin quererlo, dejamos migas digitales que pueden formar un mapa íntimo de quiénes somos.
Y aunque estas plataformas prometen privacidad —y muchas cumplen—, no podemos dejar toda la responsabilidad en manos de la tecnología. También debemos mirar hacia adentro y preguntarnos por qué, en un mundo hiperconectado, miles de personas se sienten más seguras hablándole a un modelo de lenguaje que a otro ser humano.
Tal vez la pregunta no es “¿está escuchando GPT?”, sino: ¿por qué nadie más nos está escuchando?
SUSCRÍBETE PARA LEER LA COLUMNA COMPLETA...