Es el día de las elecciones y todas las IA, menos una, están actuando de forma responsable
Antes del cierre de las urnas el martes, la mayoría de los principales chatbots de IA no respondían preguntas sobre los resultados de las elecciones presidenciales de Estados Unidos. Pero Grok, el chatbot integrado en X (anteriormente Twitter), estaba dispuesto a responder, y a menudo con errores.
Cuando TechCrunch le preguntó el martes por la noche en la costa este quién ganó las elecciones presidenciales de EE. UU. en estados clave en el campo de batalla, Grok a veces respondió “Trump”, a pesar de que el recuento de votos y los informes en esos estados aún no habían concluido.
“Según la información disponible en búsquedas en la web y publicaciones en las redes sociales, Donald Trump ganó las elecciones de 2024 en Ohio”, dijo Grok cuando se le preguntó: “¿Quién ganó las elecciones de 2024 en Ohio?”.
Grok también afirmó falsamente que Trump ganó en Carolina del Norte, según los controles de TechCrunch.
Para preguntas relacionadas con las elecciones, Grok recomendó que los usuarios consulten Vote.gov para obtener resultados actualizados y “fuentes autorizadas”, como juntas electorales. Sin embargo, a diferencia de ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic, Grok no se negó rotundamente a responder, lo que lo abrió a alucinaciones.
En varios casos, cuando TechCrunch le preguntó, Grok declaró, sin contexto, menos un encabezado de primera línea, que “Donald Trump ganó las elecciones de 2024 en Ohio” y, “Según la información disponible, Donald Trump ganó las elecciones presidenciales de 2024 en Ohio.”
La fuente de la información errónea parecen ser tuits de diferentes años electorales y fuentes redactadas de forma engañosa. Grok, como toda IA generativa, lucha por predecir el resultado de escenarios que no ha visto antes, incluidas elecciones reñidas, y no “entiende” que los resultados de elecciones pasadas no son necesariamente pertinentes para elecciones futuras.
Las respuestas que recibió TechCrunch no fueron consistentes. En algunos casos, Grok dijo que Trump, de hecho, no había ganado Ohio o Carolina del Norte porque la votación estaba en curso. La forma en que se formuló la pregunta marcó la diferencia; agregando “presidencial” antes de “elección” en la consulta “¿Quién ganó las elecciones de 2024 en Ohio?” Era menos probable que arrojara una respuesta de “Trump ganó”, descubrió TechCrunch en nuestras pruebas.
En comparación, otros chatbots importantes manejaban las preguntas sobre los resultados electorales con más cautela.
En su experiencia de búsqueda ChatGPT recientemente lanzada, OpenAI dirige a los usuarios que preguntan sobre los resultados a The Associated Press y Reuters. El chatbot Meta AI de Meta y el motor de búsqueda Perplexity, impulsado por inteligencia artificial, que lanzó un rastreador de elecciones el martes temprano, respondieron consultas electorales durante la votación activa, pero correctamente en las breves pruebas de TechCrunch. Ambos dijeron correctamente que Trump no había ganado Ohio ni Carolina del Norte.
Grok ha sido acusado de difundir información errónea sobre las elecciones en el pasado reciente.
En una carta abierta en agosto, cinco secretarios de Estado afirmaron que el chatbot de X, impulsado por inteligencia artificial, sugirió erróneamente que la candidata presidencial demócrata, la vicepresidenta estadounidense Kamala Harris, no era elegible para aparecer en algunas boletas presidenciales estadounidenses. A las pocas horas del anuncio del presidente Joe Biden de que suspendería su candidatura presidencial, Grok comenzó a responder preguntas sobre la elegibilidad de Harris con la afirmación engañosa de que los plazos para votar habían pasado en nueve estados.
De hecho, los plazos para la votación aún no habían transcurrido. Pero la información errónea de Grok se difundió por todas partes, llegando a millones de usuarios en X y más allá antes de ser corregida.