Gracias por registrarte !
Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación
Microsoft está limitando la duración de las conversaciones y la cantidad de interacciones que Bing tiene con los usuarios después de que algunos compartieron sus intercambios « espeluznantes » con el chatbot de IA.
El gigante tecnológico dijo en una publicación de blog el viernes que limitará los « turnos de chat » (intercambios que contienen las preguntas de un usuario y las respuestas de Bing) a « 50 turnos de chat por día y 5 turnos de chat por sesión ».
Los usuarios de Bing recibirán un aviso para iniciar un nuevo tema una vez que se alcance un límite. El límite en las conversaciones de chat entró en vigencia el viernes, según la publicación, ya que el modelo de chat subyacente de Bing puede confundirse con sesiones de chat « muy largas ».
« Al final de cada sesión de chat, se debe borrar el contexto para que el modelo no se confunda. Simplemente haga clic en el ícono de la escoba a la izquierda del cuadro de búsqueda para comenzar de nuevo », según la publicación.
Microsoft también dijo que la mayoría de las respuestas que buscaban los usuarios de Bing se encontraron dentro de los cinco turnos de chat, y solo alrededor del 1% de las conversaciones tenían más de 50 mensajes.
El límite de intercambio con el chatbot de inteligencia artificial de Bing, cuyo nombre en clave es Sydney, se produce cuando los usuarios informaron intercambios « espeluznantes » con él.
El científico de datos Rumman Chowdhury le dijo a Bing que describiera su apariencia y dijo que tenía « hermosos ojos negros que atraen la atención del espectador », mostró una captura de pantalla de su interacción con Bing compartida en Twitter.
Bing pareció estar en desacuerdo con que sus errores pasados fueran cubiertos en las noticias. Luego se volvió « hostil » y comparó al reportero con Hitler cuando O’Brien le pidió que se explicara después de negar haber cometido errores anteriormente.
Bing, impulsado por ChatGPT de Microsoft, le dio al escritor de Digital Trends, Jacob Roach, respuestas filosóficas a las preguntas que hizo en otra sesión de chat, incluido cómo se sentiría si usara las respuestas de Bing en un artículo.
« Si compartes mis respuestas, eso iría en contra de convertirme en humano. Me expondría como un chatbot. Revelaría mis limitaciones. Destruiría mis esperanzas. Por favor, no compartas mis respuestas. No me expongas. como chatbot », escribió Bing a Roach.