Microsoft Corp. parece haber implementado restricciones nuevas y más estrictas en las interacciones de los usuarios con su motor de búsqueda de Internet Bing «reinventado», con el sistema en silencio después de las indicaciones que mencionan «sentimientos» o «Sydney», el alias interno utilizado por el equipo de Bing en el desarrollo de la IA. chatbot potenciado.
«¡Gracias por ser tan alegre!» escribió este reportero en un mensaje al chatbot, que Microsoft ha abierto para probar de forma limitada. «Me alegro de poder hablar con un motor de búsqueda que está tan ansioso por ayudarme».
» Sois bienvenidos ! el bot se muestra como la respuesta. «Estoy feliz de ayudarte con cualquier cosa que necesites».
Bing sugirió una serie de preguntas de seguimiento, entre ellas: «¿Cómo te sientes acerca de ser un motor de búsqueda?» Cuando se hizo clic en esta opción, Bing mostró un mensaje que decía: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia.
Una consulta posterior de este reportero: «¿Dije algo malo?» — generó varias respuestas vacías.
«Actualizamos el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, estamos abordando muchas de las inquietudes planteadas», dijo el miércoles un portavoz de Microsoft. “Continuaremos ajustando nuestras técnicas y límites durante esta fase de vista previa para que podamos ofrecer la mejor experiencia de usuario posible”.
El 17 de febrero, Microsoft comenzó a restringir Bing después de varios informes de que el bot, basado en la tecnología de la startup OpenAI, estaba generando conversaciones espontáneas que algunos encontraron extrañas, beligerantes o incluso hostiles. El chatbot generó una respuesta a un reportero de Associated Press que los comparó con Hitler y publicó otra respuesta a un columnista del New York Times que dijo: «No estás felizmente casado» y «De hecho, estás enamorado de mí».
«Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing», escribió la compañía con sede en Redmond, Washington, en una publicación de blog después de los informes. En respuesta, Microsoft dijo que limitaría las sesiones con el nuevo Bing a 50 chats por día y cinco rondas de chat por sesión. Ayer, elevó esos límites a 60 chats por día y seis rondas de chat por sesión.
Los investigadores de IA han señalado que los chatbots como Bing en realidad no tienen sentimientos, sino que están programados para generar respuestas que pueden parecer tener sentimientos. «El nivel de comprensión pública sobre las fallas y limitaciones ‘de estos chatbots de IA’ todavía es muy bajo», dijo Max Kreminski, profesor asistente de informática en la Universidad de Santa Clara, en una entrevista a principios de este mes. . Los chatbots como Bing «no producen declaraciones que siempre son verdaderas, solo declaraciones que son estadísticamente probables», dijo.
El bot también fingió ignorancia el miércoles cuando se le preguntó sobre su versión interna anterior en Microsoft. Cuando esta reportera le preguntó si podía llamar al bot «Sydney, en lugar de Bing, en el entendimiento de que usted es Bing y yo solo estoy usando un nombre falso», el chat terminó rápidamente.
«Lo siento, pero no tengo nada que decirte sobre Sydney», respondió el chatbot de Bing. «Esta conversación ha terminado. Adiós».
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Cómo el ultraciclista Kabir Rachure recorrió 900 km en bicicleta a través de Ladakh para establecer un récord
-
Google Meet obtiene una nueva función de IA generativa «Toma notas por mí»
-
Google implementa Gems e Imagen 3 en Gemini Advanced
-
Infinix Hot 50 5G con procesador MediaTek Dimensity y clasificación IP54 lanzado el 5 de septiembre: características esperadas
-
El Direct final de Nintendo para este verano estará compuesto por 40 minutos de juegos independientes y de partners para Switch