Es posible que los estudiantes quieran pensarlo dos veces antes de usar un chatbot para completar su próxima tarea. Los modelos de lenguaje que generan texto en respuesta a las indicaciones del usuario plagian el contenido en más de un sentido, según un equipo de investigación dirigido por Penn State que realizó el primer estudio para examinar directamente el fenómeno.
« El plagio viene en diferentes sabores », dijo Dongwon Lee, profesor de ciencias y tecnología de la información en Penn State. « Queríamos ver si los modelos de lenguaje no solo copian y pegan, sino que recurren a formas más sofisticadas de plagio sin darse cuenta ».
Los investigadores se centraron en identificar tres formas de plagio : palabra por palabra, o directamente copiar y pegar contenido; parafrasear, o reformular y reestructurar el contenido sin citar la fuente original; e idea, o usar la idea principal de un texto sin la debida atribución. Construyeron una canalización para la detección automática de plagio y la probaron con GPT-2 de OpenAI porque los datos de entrenamiento del modelo de lenguaje están disponibles en línea, lo que permite a los investigadores comparar los textos generados con los 8 millones de documentos utilizados para entrenar previamente a GPT-2.
Los científicos utilizaron 210 000 textos generados para probar el plagio en modelos de lenguaje previamente entrenados y modelos de lenguaje ajustados, o modelos entrenados más para enfocarse en áreas temáticas específicas. En este caso, el equipo ajustó tres modelos de lenguaje para centrarse en documentos científicos, artículos académicos relacionados con COVID-19 y reclamos de patentes. Utilizaron un motor de búsqueda de código abierto para recuperar los 10 documentos de capacitación más similares a cada texto generado y modificaron un algoritmo de alineación de texto existente para detectar mejor los casos de plagio literal, de paráfrasis y de ideas.
El equipo descubrió que los modelos de lenguaje cometían los tres tipos de plagio y que cuanto mayor era el conjunto de datos y los parámetros utilizados para entrenar el modelo, más a menudo ocurría el plagio. También notaron que los modelos de lenguaje afinados redujeron el plagio textual pero aumentaron los casos de paráfrasis y plagio de ideas. Además, identificaron instancias del modelo de lenguaje que exponía la información privada de las personas a través de las tres formas de plagio. Los investigadores presentarán sus hallazgos en la Conferencia Web ACM 2023, que tendrá lugar del 30 de abril al 4 de mayo en Austin, Texas.
« La gente busca modelos de lenguaje grandes porque cuanto más grande es el modelo, aumentan las capacidades de generación », dijo el autor principal Jooyoung Lee, estudiante de doctorado en la Facultad de Ciencias y Tecnología de la Información de Penn State. « Al mismo tiempo, están poniendo en peligro la originalidad y la creatividad del contenido dentro del corpus de capacitación. Este es un hallazgo importante ».
El estudio destaca la necesidad de más investigación sobre los generadores de texto y las cuestiones éticas y filosóficas que plantean, según los investigadores.
« Aunque el resultado puede ser atractivo y los modelos de lenguaje pueden ser divertidos de usar y parecen productivos para ciertas tareas, eso no significa que sean prácticos », dijo Thai Le, profesora asistente de informática y ciencias de la información en la Universidad de Mississippi. quien comenzó a trabajar en el proyecto como candidato a doctorado en Penn State. « En la práctica, debemos ocuparnos de los problemas éticos y de derechos de autor que plantean los generadores de texto ».
Aunque los resultados del estudio solo se aplican a GPT-2, el proceso de detección automática de plagio que establecieron los investigadores se puede aplicar a modelos de lenguaje más nuevos como ChatGPT para determinar si estos modelos plagian contenido de capacitación y con qué frecuencia. Sin embargo, las pruebas de plagio dependen de que los desarrolladores hagan que los datos de capacitación sean de acceso público, dijeron los investigadores.
El estudio actual puede ayudar a los investigadores de IA a construir modelos de lenguaje más sólidos, confiables y responsables en el futuro, según los científicos. Por ahora, instan a las personas a tener cuidado al usar generadores de texto.
« Los investigadores y científicos de IA están estudiando cómo hacer que los modelos de lenguaje sean mejores y más sólidos, mientras tanto, muchas personas usan modelos de lenguaje en su vida diaria para diversas tareas de productividad », dijo Jinghui Chen, profesor asistente de ciencias y tecnología de la información en Penn State. « Si bien aprovechar los modelos de lenguaje como un motor de búsqueda o un desbordamiento de pila para depurar el código probablemente esté bien, para otros fines, dado que el modelo de lenguaje puede producir contenido plagiado, puede tener consecuencias negativas para el usuario ».
El resultado del plagio no es algo inesperado, agregó Dongwon Lee.
« Como un loro estocástico, enseñamos modelos de lenguaje para imitar escritos humanos sin enseñarles cómo no plagiar correctamente », dijo. « Ahora, es hora de enseñarles a escribir más correctamente, y tenemos un largo camino por recorrer ».
La Fundación Nacional de Ciencias apoyó este trabajo.