El gobierno venezolano está utilizando presentadores de televisión falsos generados por IA para difundir desinformación.
Nota del editor: Antes del lanzamiento, el canal de YouTube que alojaba los videos de muestra estaba «cerrado».
El Pais relaciones que la estación de televisión estatal de Venezuela, VTV, usó presentadores falsos de habla inglesa de una agencia de noticias estadounidense ficticia para compartir noticias falsamente positivas sobre el país.
Los videos generados por inteligencia artificial (IA) de los anfitriones venezolanos, que se conocen con los nombres de Noah y Daren, aparecieron por primera vez en un canal de YouTube llamado Casa de noticias English.
en vídeos que fueron transmitidos por VTVNoah y Daren son representados como los presentadores reales de un supuesto noticiero de televisión estadounidense.
Los dos presentadores presentan noticias falsas sobre Venezuela e intentan demostrar que la economía del país no está «realmente destruida» como podrían sugerir muchos otros medios de comunicación.
En realidad, sin embargo, Venezuela ha experimentado durante mucho tiempo hiperinflación crónica y escasez de alimentos. Mientras tanto, Noah y Daren son dos avatares creados con inteligencia artificial por una empresa llamada Synthesia.
El catálogo de Synthesia ofrece más de cien rostros multirraciales que dirán todo lo que el comprador quiera por menos de $30 al mes. Los avatares de IA de la compañía pueden vestirse como cualquier cosa, desde presentadores de televisión hasta médicos y Santa Claus.
Además de esta situación en Venezuela, el software de inteligencia artificial de Synthesia se ha utilizado para promover la propaganda y las narrativas a favor del gobierno en otros países del mundo.
Según un informe de Los New York Times el mes pasado, la tecnología de Synthesia se utilizó para crear presentadores de noticias estadounidenses falsos en una campaña de desinformación a favor de China.
@viceworldnews ¿Quién hizo estos videos generados por IA en apoyo de los gobernantes militares de Burkina Faso? La plataforma en la que se realizaron, Synthesia, afirmó haber baneado al usuario por violar sus términos de servicio, pero no reveló su identidad. @Sophia Smith Galer #Burkina Faso #hacia #aigenerated #desinformación #avatares #deepfake ♬ sonido original – VICE Noticias mundiales
Vicio relaciones que el software de la compañía también se usó recientemente para promover el régimen militar interino del presidente Ibrahim Traore en Burkina Faso después de que tomó el poder durante un golpe el año pasado.
Los videos revelan el lado oscuro de la inteligencia artificial y la facilidad con la que se puede explotar la tecnología deepfake.
En un comunicado un el poste de washington, un portavoz de Synthesia dice: “Nos duele ver a la gente abusando del producto que hemos creado para ayudar a beneficiar a la sociedad; esta nunca fue nuestra intención. Sin embargo, no dejaremos que la minoría estropee lo bueno que la IA tiene para ofrecer».
La compañía dice que la mayoría de los clientes usan su tecnología para crear videos de capacitación corporativa y recorridos inmobiliarios.
Según un portavoz de Synthesia, el usuario detrás de House of News Español ha sido baneado por violar los términos del servicio. La compañía también dice que estas situaciones «resaltan lo difícil que es la moderación» en el mundo de la IA.
“Fundamos la empresa en 2017 basándonos en sólidos principios éticos y hemos adoptado una postura mucho más estricta que la mayoría”, dice el portavoz.
También te puede interesar
-
Esto es lo que hay que saber sobre las defectuosas elecciones de Venezuela
-
Cómo debería responder Estados Unidos a la disputada elección de Maduro
-
'Orgulloso de ser un revolucionario': cómo Maduro atrae a su menguante base | Noticias sobre Nicolás Maduro
-
La resiliencia de Maduro refleja la influencia limitada de Occidente en Venezuela
-
Algunos puntos para entender la situación en Venezuela