La cuenta de usuario creada por un Facebook Un investigador en Kerala que hace dos años encontró varios casos de incitación al odio y desinformación basados en recomendaciones algorítmicas llevó a la empresa a realizar un «análisis más profundo y riguroso» de sus sistemas de recomendación en India, dijo la plataforma de redes sociales.
Facebook estaba respondiendo preguntas de El expreso indio en el New York Times informe sobre los efectos de la plataforma de redes sociales en India, especialmente en vista de las elecciones políticas de 2019.
«Este esfuerzo exploratorio de una cuenta de prueba hipotética inspiró un análisis más profundo y riguroso de nuestros sistemas de recomendación y ayudó a mejorar los cambios de productos. Los cambios de productos resultantes de una investigación posterior y más rigurosa incluyeron cosas como contenido de límite de eliminación y grupos cívicos y políticos de nuestra sistemas de referencia «, dijo un portavoz de Facebook.
«Por separado, nuestro trabajo para frenar el discurso de odio continúa y hemos fortalecido aún más nuestros clasificadores de odio para incluir 4 idiomas indios», dijo el portavoz.
The New York Times informó que el informe del investigador fue uno de docenas de estudios y memorandos escritos por empleados de Facebook que luchan con los efectos de la plataforma en India.
Los documentos internos, obtenidos por un consorcio de medios de comunicación que incluía al New York Times, son parte de un caché más grande de material llamado The Facebook Papers. Fueron recogidos por Frances Haugen, una exgerente de producto de Facebook que se convirtió en denunciante y recientemente testificó ante un subcomité del Senado sobre la compañía y sus plataformas de redes sociales «, dijo.
«Las referencias a India estaban dispersas entre las presentaciones de Haugen a la Comisión de Bolsa y Valores en una queja a principios de este mes», dijo.
Los cambios de Facebook se basan en las restricciones que la compañía afirma haber hecho sobre las recomendaciones, como eliminar los grupos de salud de estas superficies, así como los grupos que comparten información errónea repetidamente.
Específicamente para los grupos que comparten desinformación, la compañía ha comenzado a clasificar todo el contenido de esos grupos en una posición más baja en las noticias y a limitar las notificaciones con el objetivo de que menos miembros vean sus publicaciones.
La plataforma también dijo que ha presenciado «nuevos tipos de abuso en Facebook» en el contexto de Covid y ha actualizado sus políticas para reflejar los cambios.
Por ejemplo, dijo la compañía, ahora elimina el contenido que afirma que las personas que comparten un rasgo protegido como la raza o la religión tienen el virus, lo han creado o lo están propagando. Como parte de la aplicación de esta política, la compañía afirma haber bloqueado varios hashtags utilizados principalmente para apuntar a la comunidad musulmana en el contexto de Covid.
También te puede interesar
-
Video viral: pasajero enfurecido destruye computadoras en el aeropuerto. Le vendieron un billete falso de American Airlines.
-
Predator se hace pasar por un famoso YouTuber adolescente y chantajea a más de 280 niñas de todo el mundo para que realicen actos sexuales en una transmisión en vivo
-
Una foto de una mujer presumiendo durante una reunión con los talibanes en Afganistán recibe el visto bueno de Internet
-
Vuelo MH370 de Malaysia Airlines: una nueva teoría sugiere el lugar del avión 10 años después
-
Estudiantes indios protestan por los cambios en la política de inmigración canadiense por temor a la deportación