WSJ – ThePrint – ANIFeed

WSJ – ThePrint – ANIFeed

Apple aprueba la aplicación impulsada por ChatGPT después de la garantía de moderación de contenido: WSJ
Imagen representativa (Foto/ANI)

San Francisco, California) [US]4 de marzo (ANI): Apple aprobó una actualización de la aplicación de mensajería después de investigar inicialmente si una función en el software que usa herramientas de lenguaje impulsadas por inteligencia artificial podría generar contenido inapropiado para niños, dijo el Wall Street Journal.

La aplicación, BlueMail, fue aprobada luego de que su desarrollador asegurara que ofrece moderación de contenido, según Ben Volach, cofundador del fabricante de aplicaciones Blix.

The Wall Street Journal informó el jueves que la actualización, que incluía una nueva función impulsada por el chatbot de lenguaje ChatGPT, se retrasó debido a la solicitud de Apple de que la aplicación agregue moderación de contenido o se limite a mayores de 17 años. La aplicación estaba disponible anteriormente para niños de 4 años en adelante.

Blix le dijo a Apple que su actualización incluía la moderación de contenido y sugirió que la compañía hiciera pública cualquier política nueva con respecto al uso de ChatGPT u otros sistemas de IA similares en las aplicaciones, según el WSJ. La actualización de BlueMail fue aprobada sin cambios el jueves por la noche. La aplicación todavía está disponible para usuarios de 4 años en adelante.

El WSJ dijo que Apple no respondió a las solicitudes de comentarios.

La nueva función de BlueMail utiliza ChatGPT de OpenAI, un sistema de inteligencia artificial capaz de responder preguntas o escribir ensayos breves, para ayudar a automatizar la escritura de correos electrónicos utilizando precedentes de contenido de correo electrónico y eventos de calendario, según WSJ.

La noticia del rechazo inicial de Apple a la función ChatGPT de BlueMail destacó las crecientes preocupaciones sobre los nuevos usos de las herramientas de IA que generan lenguaje, según WSJ, y agregó que ChatGPT permite a los usuarios conversar con IA que parece humana, pero las primeras pruebas mostraron que la IA produjo información incorrecta, así como respuestas extrañas y, a veces, hostiles. (Y YO)

Este informe se genera automáticamente desde el servicio de noticias de la ANI. ThePrint declina toda responsabilidad por su contenido.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *