La desinformación generativa es real: simplemente no eres el objetivo, advierte una organización sin fines de lucro de seguimiento de deepfake

Muchos temían que las elecciones de 2024 se vieran afectadas, y tal vez decididas, por la desinformación generada por la IA. Si bien se encontraron algunos, fue mucho menos de lo previsto. Pero no dejes que esto te engañe: la amenaza de desinformación es real; simplemente tú no eres el objetivo.

Eso al menos dice Oren Etzioni, un investigador de inteligencia artificial de larga data, cuya organización sin fines de lucro TrueMedia tiene el dedo en el pulso de la desinformación generada.

“Existe, a falta de una palabra mejor, una diversidad de deepfakes”, dijo a TechCrunch en una entrevista reciente. “Cada uno tiene su propio propósito y de algunos somos más conscientes que de otros. Déjame decirlo de esta manera: por cada cosa que escuchas, hay cien que no están dirigidas a ti. Quizás mil. En realidad, es sólo la punta del iceberg lo que llega a la prensa generalizada”.

El hecho es que la mayoría de las personas, y más los estadounidenses que la mayoría, tienden a pensar que lo que ellos experimentan es lo mismo que los demás. Eso no es cierto por muchas razones. Pero en el caso de las campañas de desinformación, Estados Unidos es en realidad un blanco difícil, dada una población relativamente bien informada, información fáctica fácilmente disponible y una prensa en la que se confía al menos la mayor parte del tiempo (a pesar de todo el ruido en sentido contrario).

Tendemos a pensar en los deepfakes como algo así como un vídeo de Taylor Swift haciendo o diciendo algo que no haría. Pero los deepfakes realmente peligrosos no son los de celebridades o políticos, sino los de situaciones y personas que no pueden identificarse ni contrarrestarse tan fácilmente.

“Lo más importante que la gente no entiende es la variedad. Hoy vi uno de aviones iraníes sobre Israel”, señaló, algo que no sucedió pero que no puede ser refutado fácilmente por alguien que no esté en tierra allí. “No lo ves porque no estás en el canal de Telegram o en ciertos grupos de WhatsApp, pero millones sí lo hacen”.

TrueMedia ofrece un servicio gratuito (a través de web y API) para identificar imágenes, vídeos, audio y otros elementos como falsos o reales. No es una tarea sencilla y no se puede automatizar por completo, pero poco a poco están construyendo una base de material real que retroalimenta el proceso.

“Nuestra misión principal es la detección. Los puntos de referencia académicos (para evaluar los medios falsos) hace tiempo que fueron superados”, explicó Etzioni. “Nos capacitamos con cosas subidas por personas de todo el mundo; Vemos lo que dicen los diferentes proveedores al respecto, lo que dicen nuestros modelos al respecto y generamos una conclusión. Como seguimiento, tenemos un equipo forense que realiza una investigación más profunda, más extensa y más lenta, no en todos los elementos, sino en una fracción significativa, por lo que tenemos una verdad sobre el terreno. No asignamos un valor de verdad a menos que estemos bastante seguros; Aún podemos equivocarnos, pero somos sustancialmente mejores que cualquier otra solución”.

La misión principal está al servicio de cuantificar el problema de tres maneras clave que Etzioni describió:

  1. ¿Cuánto hay por ahí? “No lo sabemos, no existe Google para esto. Se ven varios indicios de que es generalizado, pero es extremadamente difícil, tal vez incluso imposible de medir con precisión”.
  2. ¿Cuánta gente lo ve? “Esto es más fácil porque cuando Elon Musk comparte algo, ves, ’10 millones de personas lo han visto’. Así que el número de globos oculares fácilmente asciende a cientos de millones. Veo artículos cada semana que han sido vistos millones de veces”.
  3. ¿Cuánto impacto tuvo? “Este es quizás el más importante. ¿Cuántos votantes no acudieron a las urnas debido a las llamadas falsas de Biden? Simplemente no estamos preparados para medir eso. La campaña eslovaca (una campaña de desinformación dirigida a un candidato presidencial allí en febrero) fue de último minuto y luego perdió. Eso bien pudo haber influido en esa elección”.

Todos estos son trabajos en proceso, algunos apenas comienzan, enfatizó. Pero hay que empezar por algún lado.

“Permítanme hacer una predicción audaz: en los próximos cuatro años seremos mucho más expertos en medir esto”, dijo. “Porque tenemos que hacerlo. En este momento sólo estamos tratando de arreglárnoslas”.

En cuanto a algunos de los intentos tecnológicos y de la industria para hacer que los medios generados sean más obvios, como las imágenes y el texto con marcas de agua, son inofensivos y tal vez beneficiosos, pero ni siquiera comienzan a resolver el problema, dijo.

“La forma en que lo diría es: no pongas una marca de agua en un tiroteo”. Estos estándares voluntarios son útiles en ecosistemas colaborativos donde todos tienen una razón para usarlos, pero ofrecen poca protección contra actores maliciosos que quieren evitar la detección.

Todo suena bastante espantoso, y lo es, pero la elección más trascendental de la historia reciente tuvo lugar sin muchas travesuras de la IA. Esto no se debe a que la desinformación generativa no sea algo común, sino a que sus proveedores no consideraron necesario participar. Si eso le asusta más o menos que la alternativa, depende de usted.

Leer más
Back to top button