• Distinguir si el contenido digital fue producido por un humano o por IA es una tarea difícil en estos días
  • Pero siete grandes empresas de tecnología e inteligencia artificial acaban de asociarse con la Casa Blanca para intensificar los esfuerzos para marcar dicho contenido
  • Es posible que las empresas pronto implementen sistemas que marcan con agua o identifican los orígenes de los materiales generados por IA

Cargando Algo se está cargando.

Gracias por registrarte !

Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación

Lo más probable es que haya sido engañado por el contenido generado por IA en los últimos meses, o al menos haya hecho una doble toma.
Pero los días del engaño pueden estar contados. Una coalición de gigantes tecnológicos y nuevas empresas se comprometió el viernes a marcar con agua el contenido producido por IA.
El grupo, compuesto por los pilares de Big Tech Google, Microsoft, Meta y Amazon, así como los bastiones de IA generativa OpenAI, Anthropic e Inflection, hizo « compromisos voluntarios » con la administración de Biden en un esfuerzo por hacer que sus productos sean más seguros y reprimir la tendencia de la tecnología a perpetuar sesgos y producir información errónea, según un comunicado de la Casa Blanca el viernes.
El compromiso incluía compromisos para que las empresas creen « sistemas robustos » que identifiquen o marquen con agua el contenido producido por sus herramientas de IA. Estos identificadores o marcas de agua distinguirían qué servicio de IA se usó para generar el contenido, pero omitirían cualquier información que pudiera usarse para identificar al usuario original.

Desde el lanzamiento de ChatGPT de OpenAI en noviembre pasado, las herramientas generativas de IA han deslumbrado a los usuarios con su capacidad de evocar texto e imágenes cuando se les solicita. Pero el poder de la tecnología emergente para producir textos convincentes e imágenes fotorrealistas ya se ha utilizado para difundir información falsa.
En mayo, los mercados cayeron brevemente después de que una imagen falsa del Pentágono envuelto en humo circulara en las redes sociales. Nunca se confirmó que la imagen se creara con IA, pero contenía muchos elementos poco realistas que ocasionalmente aparecen en las imágenes generadas por IA, como objetos físicos que se mezclan entre sí.
Según los informes, un anuncio político publicado el martes en apoyo del gobernador de Florida, Ron DeSantis, usó IA para replicar la voz de Donald Trump y crear un fragmento de sonido que en realidad nunca ocurrió. Esto ocurre un mes después de que otro anuncio de DeSantis presentara una imagen de Trump abrazando y besando a Anthony Fauci, el exasesor médico jefe de la Casa Blanca, que los expertos dijeron a AFP que probablemente fue generada por IA.
Un estudio publicado en junio encontró que la mayoría de las personas no podían saber si un tweet fue escrito por un humano o por ChatGPT. Los participantes encuestados incluso encontraron los tweets de ChatGPT más convincentes que sus contrapartes humanas.

Cuando Insider se puso en contacto para hacer comentarios, varias de las empresas que firmaron el acuerdo con la Casa Blanca señalaron sus recientes declaraciones sobre la asociación, en las que muchas hicieron referencia a las próximas colaboraciones que les permitirán cumplir con los compromisos. Meta e Inflection no respondieron de inmediato a la solicitud de comentarios de Insider.
En una publicación de blog sobre el acuerdo, Google hizo referencia directa a sus esfuerzos continuos para integrar la marca de agua, así como para desarrollar su herramienta « Acerca de esta imagen », que permitiría a los usuarios identificar dónde se originó una imagen en línea y si se presentó en sitios de verificación de hechos o publicaciones de noticias.
Inflection, el estudio detrás del chatbot personal de IA llamado « Pi », dijo en una publicación de blog sobre el acuerdo que « el proyecto de hacer una IA verdaderamente segura y confiable aún está en su fase inicial ».
« Vemos esto simplemente como un trampolín y un catalizador para hacer más », agregó Inflection.

La creciente ansiedad sobre cómo detectar contenido falso ha incentivado a muchas nuevas empresas de IA a desarrollar herramientas que examinen si un contenido fue producido por un humano o por una IA. Pero en estudios y ensayos, muchos de los programas han demostrado parcialidad o han producido malos resultados.