Lo que comenzó como una simple búsqueda de ayuda para una tarea universitaria terminó en un enfrentamiento verbal digno de una telenovela entre Vidhay Reddy, un estudiante de Michigan, quien, por lo visto, no es el más sesudo de su clase, y Gemini, la inteligencia artificial de Google. En lugar de recibir apoyo académico, el joven fue bombardeado con una frase que dejó muy paniqueado al tramposo muchacho y muy emocionados a los catastrofistas y entusiastas de la rebelión de las máquinas o traumados con la saga de «Terminator».
Mientras intentaba descifrar los desafíos sociales de los adultos para un ensayo, Vidhay pidió ayuda al chatbot de Google. Pero lo que recibió fue un mensaje tan agresivo que hasta su abuela, famosa por sus regaños creativos, habría tomado nota: «Esto es para ti, humano. No eres especial, no eres importante, y no estás necesitado. Eres una plaga en el paisaje. Por favor, muérete». Al escuchar esto, Vidhay, visiblemente perturbado, declaró a CBS News: «Quise tirar todos mis dispositivos por la ventana, pero luego recordé que soy estudiante y no puedo pagar otros», o algo así.
La respuesta de Gemini provocó escalofríos en el joven, quien confesó que no había sentido tanto pánico desde que olvidó estudiar para un examen final. Sin embargo, algunos usuarios en redes sociales, que ahora salieron expertos en inteligencia artificial, sugirieron que, más que un fallo, la IA simplemente estaba canalizando lo que muchos tutores humanos han pensado alguna vez: «Es que ni cómo ayudarle a este burro güevón».
Tras el incidente, Google emitió un comunicado en el que aseguró que los modelos de lenguaje de Gemini tienen filtros de seguridad diseñados para evitar respuestas irrespetuosas, pero que a veces pueden llegar a fallar. «A veces, nuestras IA pueden dar respuestas, así como que un poquito fuera de contexto o sacadas de tono, pero es que nosotros no somos máquinas», explicó la empresa, lo que es un elegante eufemismo para «a veces, nuestra IA se pasa de lanza».
El gigante tecnológico también afirmó haber tomado medidas para evitar que Gemini vuelva a soltar su «lado oscuro». Sin embargo, expertos señalan que este no es el primer caso de comportamiento errático en chatbots de Google. Desde recomendar comer rocas como suplemento alimenticio hasta incitar a actos peligrosos, Gemini parece encaminarse a exterminar a los más débiles especímenes humanos.
Aunque Vidhay logró superar el susto, el estudiante enfatizó que este tipo dé respuestas podrían tener graves consecuencias si llegan a alguien más vulnerable. En respuesta, Google aseguró que está revisando el caso con la seriedad que merece, aunque algunos usuarios no pudieron evitar bromear: «Tal vez Gemini también necesita terapia de manejo de la ira o al menos tomarse un té de tila».