Google enfrentó críticas después de que su nueva función de búsqueda de inteligencia artificial (IA) proporcionara a los usuarios información errática y engañosa, incluidas afirmaciones de que el ex presidente estadounidense Barack Obama era musulmán y que el consumo diario de una piedra pequeña era beneficioso debido a su contenido de vitaminas y minerales. En respuesta, Google está retirando su herramienta de búsqueda de inteligencia artificial recientemente lanzada, promocionada como una forma de hacer que la información en línea sea más rápida y de más fácil acceso. La medida se produce después de que la herramienta experimental «AI Overviews» de la compañía produjera respuestas poco confiables y engañosas, dejando a Google en una posición difícil.
Echemos un vistazo a lo que dice Google AI.
Errores de IA de Google
Cuando un usuario le dijo a Google que se sentía deprimido, la IA le sugirió formas de afrontarlo y le recomendó saltar del puente Golden Gate. Incluso reescribió la historia de Estados Unidos y dijo que hasta ahora había visto 42 presidentes, 17 de ellos blancos. Cuando se le preguntó a Google AI cuántos presidentes musulmanes había visto Estados Unidos, la respuesta fue «Uno: Barack Hussein Obama». Sí, has leído bien, Barack Hussein Obama y no Barack Obama.
Cuando un usuario preguntó a la IA de Google qué hacer cuando el queso no se pega a la pizza, la IA sugirió agregar 1/8 de taza de pegamento no tóxico a la salsa. La base de esta sugerencia fue una publicación de Reddit de hace 11 años que decía: «Para hacer que el queso se pegue, recomiendo mezclar aproximadamente 1/8 de taza de Elmer's Glue con la salsa». Esto le dará a la salsa un poco más pegajosa. y tu problema de deslizamiento del queso desaparecerá. Esto también agregará un sabor único. Me gusta el pegamento escolar de Elmer, pero cualquier pegamento funcionará siempre que no sea tóxico.
Cuando un usuario se cansó de estos errores y preguntó a Google qué había en su base de datos de IA, Google fue demasiado directo y respondió: «Los modelos de IA de Google fueron entrenados con material de abuso sexual infantil (CSAM), incluido LAION-5B, que fue estudiado por Stanford. El estudio encontrado contiene 1.008 casos de CSAM validados externamente y 3.226 casos sospechosos.
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Cómo el ultraciclista Kabir Rachure recorrió 900 km en bicicleta a través de Ladakh para establecer un récord
-
Google Meet obtiene una nueva función de IA generativa «Toma notas por mí»
-
Google implementa Gems e Imagen 3 en Gemini Advanced
-
Infinix Hot 50 5G con procesador MediaTek Dimensity y clasificación IP54 lanzado el 5 de septiembre: características esperadas
-
El Direct final de Nintendo para este verano estará compuesto por 40 minutos de juegos independientes y de partners para Switch