Este miércoles, Microsoft ha publicado una publicación de blog describiendo los próximos cambios en el chatbot bing ia, mientrasOperai publicó un mensaje en su blog técnico el jueves Con más detalles sobre cómo también ajustó su modelo. Las dos compañías enfrentan un auge de la actividad en sus respectivos chatbots y los errores están aumentando. Por su parte, la última versión de Bing Chat solo se ha lanzado durante una semana, pero rápidamente ganó popularidad. La empresa de Redmond evoca en una publicación Un "mayor compromiso" desde el lanzamiento del navegador impulsado de la IA en 169 países. Según ella, alrededor del 71 % de los usuarios dieron un "impulso" a las respuestas proporcionadas por Bing Cat
El hecho es que algunos retornos han presionado Microsoft intervenir. Si es un Conversación prolongada con un periodista del New York Times donde Bing se preguntaba sobre el matrimonio del periodista, insultos racistas o presuntas amenazas Al contrario de los usuarios que lo estaban probando, la herramienta no estaba completamente a la altura de lo que los usuarios esperaban un chatbot. Además, las solicitudes sufrieron un déficit de actualización. En este contexto, Microsoft ha prometido fortalecer la base de datos del agente conversacional.
Operai y Microsoft enfrentan errores en sus herramientas
El jueves, Openai publicó un largo artículo en su blog que detalla los cambios en su modelo. Sin embargo, se destacan dos oraciones: "Nuestras pautas son explícitas que los examinadores no deben promover ningún grupo político", dijo el Post. "Los sesgos que, sin embargo, pueden surgir del proceso descrito anteriormente son errores, no características". La publicación de Operai hizo referencia indirectamente a los informes de que ChatGPT favoreció los puntos de vista liberales.
Microsoft planea resolver sus propios problemas de varias maneras. En primer lugar, la compañía planea agregar una opción para controlar mejor la precisión y la creatividad de las respuestas proporcionadas por Bing. En el mundo de la generación de imágenes por IA, esto a menudo viene en forma de cursor para seleccionar la "orientación", es decir, el grado de adecuación entre el resultado del algoritmo y el aviso de entrada (el soporte más débil deja el algoritmo para más Espacio para la creatividad, pero también puede distorsionar los resultados en direcciones inesperadas). Microsoft dijo que se manifiesta inesperadamente, ya que los usuarios usan chatbot para "entretenimiento social", aparentemente refiriéndose a las largas y extrañas conversaciones que puede producir.
Demasiado estresado, Bing sale de las uñas
Pero el editor también declaró, para mejor o para lo peor, es probable que reduzca la forma en que Bing interactúa con los usuarios durante las sesiones prolongadas de CAT. "Hemos descubierto que en sesiones de gatos largas y prolongadas con 15 o más preguntas, Bing puede volverse repetitivo o alentarse/causar respuestas que no sean necesariamente útiles o de acuerdo con lo que hemos diseñado", dijo la sociedad. Avanza la razón según la cual el modelo se "confunde" en sus respuestas, y puede orientarse para producir "un tono donde el estilo de respuesta no está atento". Este es un "escenario que requiere muchos incentivos", pero que puede ocurrir, según Microsoft. En tal caso, propone "actualizar el contexto de manera más fácil".
Finalmente, el equipo de Bing prevé otras características, como la reserva de vuelos o el envío de correos electrónicos. Se agregarán a "versiones futuras". Subjetivamente, nuestro colega de IDG durante una prueba descubrió que Bing era un poco primario y correcto, estableciendo pautas estrictas que intenta cumplir. Una vez que estos límites han sido abrumados, "Sydney", como algunos lo llaman, puede revelar una personalidad extraña, salvaje y a veces poco atractiva. Pero también es cierto que en la actualidad, la parte creativa de ChatGPT y Bing es la que más usan los usuarios. Queda por ver cómo Microsoft equilibrará ambos.
Otras noticias que te pueden interesar