Desde anuncios de campaña falsificados hasta obras de arte robadas, las imágenes generadas por IA han sido responsables de una ola de desinformación en línea en los últimos meses.

Ahora, el New York Times informa que el software de detección de IA, una de las defensas de primera línea contra la propagación de desinformación generada por IA, puede ser fácilmente engañado simplemente agregando grano a las imágenes generadas por IA.

El análisis del Times muestra que cuando un editor agrega grano, es decir, textura, a una foto generada por IA, la probabilidad de que el software identifique la imagen como generada por IA pasa del 99 % a solo el 3,3 %. Incluso el software Hive, que mostró una de las mejores tasas de éxito en el informe del Times, ya no podía identificar correctamente una foto generada por IA después de que los editores la pixelaron más.

Como resultado, los expertos advirtieron que el software de detección no debería ser la única línea de defensa para las empresas que intentan combatir la desinformación y evitar la distribución de estas imágenes.

« Cada vez que alguien construye un mejor generador, la gente construye mejores discriminadores, y luego la gente usa el mejor discriminador para construir un mejor generador », dijo al Times Cynthia Rudin, profesora de informática e ingeniería en la Universidad de Duke.

La campaña presidencial de Ron DeSantis, por ejemplo, distribuyó imágenes falsas de Donald Trump y Anthony Fauci a principios de este mes.