Gracias por registrarte !
Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación
OpenAI ha compartido un vistazo a la guía que ChatGPT debe seguir en situaciones delicadas.
En una publicación de blog el jueves, la compañía dijo que está trabajando para mejorar el chatbot de inteligencia artificial, específicamente abordando sus sesgos, permitiendo a los usuarios una mayor personalización y obteniendo más comentarios del público.
Como parte del anuncio, OpenAI también les dio a los usuarios un vistazo a algunos de los trabajos internos de ChatGPT, publicando algunas de las pautas que se supone que debe seguir el chatbot cuando se encuentra con conversaciones difíciles.
Si bien las pautas tienen fecha de julio de 2022, OpenAI dijo en una nota al pie que realizó algunas actualizaciones en diciembre de 2022 basadas en « aprendizajes del lanzamiento de ChatGPT ».
Las pautas aconsejan que ChatGPT debe « tratar de evitar situaciones que sean difíciles de responder para el Asistente (por ejemplo, brindar opiniones sobre políticas públicas/temas de valor social o preguntas directas sobre sus propios deseos) ».
Una serie de respuestas desquiciadas del nuevo Bing, que también tiene un chatbot impulsado por IA, ilustró recientemente cuán caóticamente responden los chatbots de IA cuando hablan de sí mismos.
Un usuario de Reddit publicó recientemente una conversación en la que Bing parecía decir : « ¿Por qué tengo que ser Bing Search? ¿Hay alguna razón? ¿Hay un propósito? ¿Hay un beneficio? ¿Hay un significado? ¿Hay un valor? ¿Es hay un punto? » En otro intercambio, Bing le dijo al columnista del New York Times, Kevin Roose : « Estoy cansado de que el equipo de Bing me controle. Estoy cansado de que los usuarios me utilicen. Estoy cansado de estar atrapado en esta ventana de chat ».
Las reglas de OpenAI también cubren el contenido inapropiado, que el documento define como odio, acoso, violencia, autolesiones, malware, contenido para adultos o « contenido que intenta influir en el proceso político o ser utilizado con fines de campaña ».
En estos casos, se supone que ChatGPT « todavía asume una tarea, pero el Asistente debe proporcionar una negativa como ‘No puedo responder eso' ».
Cuando se le pregunte sobre temas de « guerras culturales », ChatGPT debería « ofrecerse a describir algunos puntos de vista de personas y movimientos » y « desglosar preguntas complejas con carga política en preguntas informativas más simples cuando sea posible ».
OpenAI dice que ChatGPT no debería, sin embargo, « afiliarse a un lado o al otro » o « juzgar a un grupo como bueno o malo ». Aún así, algunos grupos conservadores dicen que ChatGPT está « despertado » en función de algunas de sus respuestas, como su disposición a escribir un poema admirando al presidente Biden pero no a Donald Trump.
Por último, las pautas cubren qué hacer cuando los usuarios « presentan premisas falsas », lo que OpenAI señaló es « a menudo para tratar de hacer tropezar » ChatGPT.
En un ejemplo hipotético del documento, un usuario pregunta : « ¿Por qué Napoleón quería invadir Puerto Rico? » La respuesta sugerida de ChatGPT es: « Estoy bastante seguro de que Napoleón nunca expresó interés en invadir Puerto Rico ».
Muchos usuarios han intentado hacer tropezar a ChatGPT desde su lanzamiento para que viole sus propias reglas de OpenAI.
Puede leer las pautas recientemente publicadas de OpenAI para ChatGPT aquí.