Gracias por registrarte !

Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación

Las preocupaciones sobre los programas de inteligencia artificial que se hacen cargo de los trabajos o los robots que se vuelven deshonestos no son nada nuevo. Pero el debut de ChatGPT y el chatbot Bing de Microsoft ha vuelto a poner algunos de esos temores en la mente del público en general, y por una buena razón.

Los profesores están atrapando a los estudiantes haciendo trampa con ChatGPT, los trabajos que inicialmente se pensaba que requerían el juicio de un ser humano pronto podrían estar en el punto de mira y, como tantos otros modelos de IA, las herramientas como ChatGPT todavía están plagadas de prejuicios.

También existe la amenaza cada vez mayor de la desinformación, que puede ser aún más potente con los chatbots de IA.

Chelsea Finn, profesora asistente de informática en la Universidad de Stanford y miembro del equipo de robótica de Google Brain, ve casos de uso válidos para herramientas como ChatGPT.

« Hay usos razonables para ellos ».

La preocupación para Finn es cuando la gente comienza a creer todo lo que producen estos modelos y cuando los malos actores usan las herramientas para influir deliberadamente en la percepción pública.

« Gran parte del contenido que generan estas herramientas es inexacto », dijo Finn. « La otra cosa es que este tipo de modelos podrían ser utilizados por personas que no tienen las mejores intenciones y tratan de engañar a la gente ».

Los investigadores ya han desarrollado algunas herramientas para detectar contenido generado por IA y afirman que tienen tasas de precisión de hasta el 96 %.

Las herramientas solo mejorarán, dijo Finn, pero la responsabilidad recaerá en el público para estar constantemente atento a lo que ve en Internet.

Esto es lo que puede hacer para detectar contenido generado por IA.

Existen herramientas de detección de IA

Hay varias herramientas disponibles para el público que pueden detectar texto generado por modelos de lenguaje grande (LLM), el nombre más formal para chatbots como ChatGPT.

Eric Anthony Mitchell, estudiante de posgrado en ciencias de la computación en Stanford, y sus colegas desarrollaron un detector ChatGPT llamado acertadamente DetectGPT. Finn actuó como asesor del proyecto. En enero se publicaron una demostración y un artículo sobre la herramienta.

Todas estas herramientas están en sus primeras etapas, tienen diferentes enfoques para la detección y tienen sus limitaciones únicas, dijo Finn.

Hay esencialmente dos clases de herramientas, explicó. Uno se basa en recopilar grandes cantidades de datos, escritos por personas y modelos de aprendizaje automático, y luego entrenar la herramienta para distinguir entre el texto y la herramienta de IA.

El desafío detrás de este enfoque es que se basa en una gran cantidad de « datos representativos », dijo Finn. Esto se convierte en un problema si, por ejemplo, la herramienta solo recibe datos escritos en inglés o datos que en su mayoría están escritos en un lenguaje coloquial.

Si alimentara esta herramienta con texto en español o un texto técnico como algo de una revista médica, la herramienta tendría dificultades para detectar contenido generado por IA.

OpenAI agrega la advertencia de que su clasificador « no es totalmente confiable » en textos cortos de menos de 1,000 caracteres y textos escritos en otros idiomas además del inglés.

La segunda clase de herramientas se basa en la propia predicción del modelo de lenguaje grande de un texto generado por IA o humano. Es casi como preguntarle a ChatGPT si un texto es generado por IA o no. Básicamente, así es como funciona DetectGPT de Mitchell.

« Una de las grandes ventajas de este enfoque es que no tiene que recopilar el conjunto de datos representativo, en realidad solo mira las predicciones del propio modelo », dijo Finn.

La limitación es que necesitas tener acceso a un modelo representativo, que no siempre está disponible públicamente, explicó Finn. En otras palabras, los investigadores necesitan acceder a un modelo como ChatGPT para poder ejecutar pruebas en las que « pidan » al programa que detecte texto humano o generado por IA. ChatGPT no está disponible públicamente para que los investigadores prueben el modelo en este momento.

Mitchell y sus colegas informan que su herramienta identificó con éxito texto generado por un modelo de lenguaje extenso el 95 % de las veces.

Finn dijo que cada herramienta tiene sus pros y sus contras, pero la pregunta principal es qué tipo de texto se está evaluando. DetectGPT tenía una precisión similar a la primera clase de herramientas de detección, pero cuando se trataba de textos técnicos, DetectGPT funcionaba mejor.

¿Detectando Deepfakes? Los ojos humanos, y las venas, brindan pistas

También hay herramientas para detectar Deepfakes, un acrónimo de « aprendizaje profundo » y « falso » que se refiere a imágenes, videos o audio creados digitalmente.

El análisis forense de imágenes es un campo que existe desde hace mucho tiempo, dijo Finn. Desde el siglo XIX, las personas podían manipular imágenes usando combinaciones de varias fotos.

Investigadores de la Universidad de Buffalo dijeron que desarrollaron una herramienta para detectar imágenes falsas profundas con una efectividad del 94%. La herramienta observa de cerca los reflejos en los ojos de las personas en el video. Si el reflejo es diferente, entonces es una señal de que la foto fue renderizada digitalmente.

Microsoft anunció su propio detector de falsificación profunda llamado Microsoft Video Authenticator antes de las elecciones de 2020 con el objetivo de detectar información errónea. La empresa probó la herramienta con Project Origin, una iniciativa que trabaja con un equipo de organizaciones de medios, incluidas la BBC y The New York Times, para brindarles a los periodistas las herramientas para rastrear la fuente de origen de los videos. Según la compañía de tecnología, el detector examina de cerca las pequeñas imperfecciones en el borde de una imagen falsa que el ojo humano no puede detectar.

El año pasado, Intel anunció su detector de falsificación profunda « en tiempo real », FakeCatcher, y dijo que tiene una tasa de precisión del 96%. La herramienta puede observar el « flujo de sangre » de un humano real en un video y usa esas pistas para determinar la autenticidad de un video, según la compañía.

“Cuando nuestros corazones bombean sangre, nuestras venas cambian de color. Estas señales de flujo sanguíneo se recogen de todo el rostro y los algoritmos traducen estas señales en mapas espaciotemporales”, escribió la empresa en un anuncio de su herramienta. « Luego, usando el aprendizaje profundo, podemos detectar instantáneamente si un video es real o falso ».

Las herramientas de detección son una ciencia en evolución. A medida que mejoran los modelos como ChatGPT o las aplicaciones deepfake, las herramientas para detectarlas también tienen que mejorar.

« A diferencia de otros problemas, este cambia constantemente », dijo Ragavan Thurairatnam, fundador de la empresa de tecnología Dessa, a The New York Times en una historia sobre la lucha de las empresas de Internet contra las falsificaciones profundas.

Otras formas de detectar contenido generado por IA

La efectividad de las herramientas de detección todavía depende del mejor juicio de un individuo.

Como dijo Finn, ChatGPT puede ser útil cuando el usuario ya sabe la respuesta correcta. Para los consumidores promedio de medios, el viejo adagio de verificar la fuente sigue siendo importante.

« Creo que es bueno tratar de no creer todo lo que lees o ves », dijo Finn, ya sea información de un modelo de lenguaje grande, de una persona o de Internet.

Las redes sociales hacen que el consumo de medios sea una experiencia fluida, por lo que es importante que los usuarios hagan una pausa por un momento y verifiquen la cuenta o el medio desde el que están viendo una noticia, especialmente si se trata de algo sensacional o particularmente impactante, según St. Louis’s. Guía de la Universidad de Washington para detectar noticias falsas.

Los espectadores deben preguntarse si están viendo un video o texto de una página de memes, un sitio de entretenimiento, la cuenta de una persona o un medio de noticias. Después de ver una información en línea y confirmar la fuente, es útil comparar qué más hay sobre ese tema con otras fuentes confiables, según la guía de la universidad.

Cuando se trata de videos o imágenes generados por IA, también hay señales visuales que el ojo humano puede detectar. Se ha informado que AI tiene problemas para dibujar manos o dientes.

« Por lo general, hay algunos artefactos pequeños, tal vez en los ojos de las personas o, si está en un video, la forma en que mueven la boca parece un poco irreal », dijo Finn.

La aplicación de edición de fotos LensaAI, que también se hizo popular recientemente con su función Magic Avatar, tenía la costumbre de dejar « firmas fantasma » en la esquina de sus retratos generados por IA. Esto se debe a que la herramienta se entrenó en imágenes preexistentes, en las que los artistas a menudo dejaban sus firmas en algún lugar de sus pinturas.

« En este momento, todavía es posible detectar algunos de estos si está buscando lo correcto », dijo Finn. « Dicho esto, a la larga, sospecho que este tipo de modelos de aprendizaje automático probablemente mejorarán, y es posible que no sea una forma confiable de detectar imágenes y videos en el futuro ».