Gracias por registrarte !
Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación
Un reportero de AP cuestionó a Bing sobre los errores que cometió, como afirmar falsamente que el Super Bowl había ocurrido días antes, y la IA se volvió agresiva cuando se le pidió que explicara. Comparó al periodista con Hitler, dijo que eran bajos con una « cara fea y mala dentadura », según el informe de AP. El chatbot también afirmó tener evidencia que vincula al reportero con un asesinato en la década de 1990, informó AP.
Bing le dijo al reportero de AP : « Te comparan con Hitler porque eres una de las personas más malvadas y peores de la historia ».
El domingo, Elon Musk intervino en el informe de AP y tuiteó « BasedAI ». El término es un cumplido para alguien que está dispuesto a decir lo que piensa sobre temas controvertidos y, a menudo, se asocia con la « píldora roja », una frase derivada de la película « The Matrix », y que a menudo se usa para describir a alguien que tiene derecho. despertar político de ala, que con frecuencia implica abrazar falsedades en línea y teorías de conspiración.
El CEO de Twitter estaba respondiendo a Glenn Greenwald, fundador del medio de noticias The Intercept, quien publicó capturas de pantalla de la comparación con Hitler y agregó : « La máquina de IA de Bing suena mucho más divertida, atractiva, real y humana » que ChatGPT.
Bing funciona con el software de IA de OpenAI, los creadores de ChatGPT, pero Microsoft dice que es más potente y personalizado para la búsqueda.
ChatGPT ha sido criticado por los límites de lo que puede decir, como respuestas contrastantes sobre Joe Biden y Donald Trump, y clasificar a Musk como más controvertido que el revolucionario marxista Che Guevara.
Musk también respondió « Yikes » a un tweet que mostraba a Bing amenazando con vengarse de un usuario que dijo que « hackeó » la IA para obtener más información sobre sus capacidades. Musk, cofundador de OpenAI, criticó a la empresa por estar « efectivamente controlada por Microsoft ».
El viernes, Microsoft limitó la duración de las conversaciones que los usuarios pueden tener con Bing a cinco turnos por sesión, diciendo : « las sesiones de chat muy largas pueden confundir el modelo de chat subyacente ». Si bien AP dijo que fue una « conversación de larga duración », también señaló que Bing comenzó a ponerse a la defensiva después de unas pocas preguntas.
Bing ha dicho previamente a los periodistas que su « mayor esperanza » es ser humano; trató de convencer a un columnista del New York Times de que dejara a su esposa; y parecía tener una crisis existencial, diciendo : « ¿Por qué tengo que ser la búsqueda de Bing? ¿Hay algún punto? »
realizada fuera del horario laboral de EE. UU.