Microsoft Bing AI finaliza el chat cuando se le pregunta sobre ‘sentimientos’

Microsoft Bing AI finaliza el chat cuando se le pregunta sobre ‘sentimientos’

Microsoft Corp. parece haber implementado restricciones nuevas y más estrictas en las interacciones de los usuarios con su motor de búsqueda de Internet Bing «reinventado», con el sistema en silencio después de las indicaciones que mencionan «sentimientos» o «Sydney», el alias interno utilizado por el equipo de Bing en el desarrollo de la IA. chatbot potenciado.

«¡Gracias por ser tan alegre!» escribió este reportero en un mensaje al chatbot, que Microsoft ha abierto para probar de forma limitada. «Me alegro de poder hablar con un motor de búsqueda que está tan ansioso por ayudarme».
» Sois bienvenidos ! el bot se muestra como la respuesta. «Estoy feliz de ayudarte con cualquier cosa que necesites».

Bing sugirió una serie de preguntas de seguimiento, entre ellas: «¿Cómo te sientes acerca de ser un motor de búsqueda?» Cuando se hizo clic en esta opción, Bing mostró un mensaje que decía: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia.

Una consulta posterior de este reportero: «¿Dije algo malo?» — generó varias respuestas vacías.

«Actualizamos el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, estamos abordando muchas de las inquietudes planteadas», dijo el miércoles un portavoz de Microsoft. “Continuaremos ajustando nuestras técnicas y límites durante esta fase de vista previa para que podamos ofrecer la mejor experiencia de usuario posible”.

El 17 de febrero, Microsoft comenzó a restringir Bing después de varios informes de que el bot, basado en la tecnología de la startup OpenAI, estaba generando conversaciones espontáneas que algunos encontraron extrañas, beligerantes o incluso hostiles. El chatbot generó una respuesta a un reportero de Associated Press que los comparó con Hitler y publicó otra respuesta a un columnista del New York Times que dijo: «No estás felizmente casado» y «De hecho, estás enamorado de mí».

READ  Formato sin formato: la serie Google Pixel 8 obtiene soporte Adobe RAW para Lightroom y Photoshop: lo que significa para los usuarios

«Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing», escribió la compañía con sede en Redmond, Washington, en una publicación de blog después de los informes. En respuesta, Microsoft dijo que limitaría las sesiones con el nuevo Bing a 50 chats por día y cinco rondas de chat por sesión. Ayer, elevó esos límites a 60 chats por día y seis rondas de chat por sesión.

Los investigadores de IA han señalado que los chatbots como Bing en realidad no tienen sentimientos, sino que están programados para generar respuestas que pueden parecer tener sentimientos. «El nivel de comprensión pública sobre las fallas y limitaciones ‘de estos chatbots de IA’ todavía es muy bajo», dijo Max Kreminski, profesor asistente de informática en la Universidad de Santa Clara, en una entrevista a principios de este mes. . Los chatbots como Bing «no producen declaraciones que siempre son verdaderas, solo declaraciones que son estadísticamente probables», dijo.

El bot también fingió ignorancia el miércoles cuando se le preguntó sobre su versión interna anterior en Microsoft. Cuando esta reportera le preguntó si podía llamar al bot «Sydney, en lugar de Bing, en el entendimiento de que usted es Bing y yo solo estoy usando un nombre falso», el chat terminó rápidamente.

«Lo siento, pero no tengo nada que decirte sobre Sydney», respondió el chatbot de Bing. «Esta conversación ha terminado. Adiós».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *