Gracias por registrarte !
Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación
Lo más probable es que haya sido engañado por el contenido generado por IA en los últimos meses, o al menos haya hecho una doble toma.
Pero los días del engaño pueden estar contados. Una coalición de gigantes tecnológicos y nuevas empresas se comprometió el viernes a marcar con agua el contenido producido por IA.
El grupo, compuesto por los pilares de Big Tech Google, Microsoft, Meta y Amazon, así como los bastiones de IA generativa OpenAI, Anthropic e Inflection, hizo « compromisos voluntarios » con la administración de Biden en un esfuerzo por hacer que sus productos sean más seguros y reprimir la tendencia de la tecnología a perpetuar sesgos y producir información errónea, según un comunicado de la Casa Blanca el viernes.
El compromiso incluía compromisos para que las empresas creen « sistemas robustos » que identifiquen o marquen con agua el contenido producido por sus herramientas de IA. Estos identificadores o marcas de agua distinguirían qué servicio de IA se usó para generar el contenido, pero omitirían cualquier información que pudiera usarse para identificar al usuario original.
Desde el lanzamiento de ChatGPT de OpenAI en noviembre pasado, las herramientas generativas de IA han deslumbrado a los usuarios con su capacidad de evocar texto e imágenes cuando se les solicita. Pero el poder de la tecnología emergente para producir textos convincentes e imágenes fotorrealistas ya se ha utilizado para difundir información falsa.
En mayo, los mercados cayeron brevemente después de que una imagen falsa del Pentágono envuelto en humo circulara en las redes sociales. Nunca se confirmó que la imagen se creara con IA, pero contenía muchos elementos poco realistas que ocasionalmente aparecen en las imágenes generadas por IA, como objetos físicos que se mezclan entre sí.
Un estudio publicado en junio encontró que la mayoría de las personas no podían saber si un tweet fue escrito por un humano o por ChatGPT. Los participantes encuestados incluso encontraron los tweets de ChatGPT más convincentes que sus contrapartes humanas.
varias de las empresas que firmaron el acuerdo con la Casa Blanca señalaron sus recientes declaraciones sobre la asociación
En una publicación de blog sobre el acuerdo, Google hizo referencia directa a sus esfuerzos continuos para integrar la marca de agua, así como para desarrollar su herramienta « Acerca de esta imagen », que permitiría a los usuarios identificar dónde se originó una imagen en línea y si se presentó en sitios de verificación de hechos o publicaciones de noticias.
Inflection, el estudio detrás del chatbot personal de IA llamado « Pi », dijo en una publicación de blog sobre el acuerdo que « el proyecto de hacer una IA verdaderamente segura y confiable aún está en su fase inicial ».
« Vemos esto simplemente como un trampolín y un catalizador para hacer más », agregó Inflection.
La creciente ansiedad sobre cómo detectar contenido falso ha incentivado a muchas nuevas empresas de IA a desarrollar herramientas que examinen si un contenido fue producido por un humano o por una IA. Pero en estudios y ensayos, muchos de los programas han demostrado parcialidad o han producido malos resultados.