Mira Murati, directora de tecnología de OpenAI, reveló que la próxima generación de ChatGPT poseerá «inteligencia de nivel doctoral» para tareas específicas. Se espera que este avance se lance en aproximadamente un año y medio, probablemente a finales de 2025 o principios de 2026.
Hablando en su alma mater, Dartmouth Engineering, Murati destacó el rápido avance de las capacidades de IA. «Si nos fijamos en la trayectoria de mejora, sistemas como GPT-3 quizás tuvieran inteligencia a nivel de niños pequeños», explicó. «Y luego, sistemas como GPT-4 se parecen más a la inteligencia inteligente de un estudiante de secundaria. Y luego, en los próximos años, recurriremos a la inteligencia doctoral para tareas específicas».
ChatGPT de próxima generación «afectará todo». Este avance en las capacidades de la IA podría tener implicaciones de gran alcance en diversas industrias. Murati cree que el impacto de la IA “afectará a todo” en términos de trabajo cognitivo y trabajo. Señaló que, si bien algunos empleos podrían verse afectados, particularmente en los campos creativos, la IA también podría democratizar la creatividad al reducir las barreras.
«Es mucho más fácil dirigir un sistema más inteligente diciendo, está bien, no hagas estas cosas», dijo Murati, abordando las preocupaciones sobre la seguridad y el control de la IA. Enfatizó que la inteligencia y la seguridad van de la mano, comparándolo con entrenar a un perro más inteligente en lugar de uno menos inteligente.
El CTO de OpenAI también discutió la posibilidad de que futuros sistemas de IA se conecten a Internet, interactúen entre sí y colaboren sin problemas con los humanos. Sin embargo, destacó la importancia de implementar medidas de seguridad junto con los avances tecnológicos.
«En términos de seguridad, protección y el impacto social de este trabajo, creo que esas cosas no son una ocurrencia tardía», dijo Murati. «Hay que construirlos junto con la tecnología y de una manera profundamente integrada para hacerlo bien».
Si bien las noticias sobre una IA más avanzada pueden entusiasmar a algunos, también plantean preguntas sobre riesgos potenciales e impactos sociales. Murati reconoció que “no es posible tener riesgo cero” con la tecnología de IA y pidió una responsabilidad compartida entre desarrolladores, usuarios, sociedad civil y gobiernos.
Hablando en su alma mater, Dartmouth Engineering, Murati destacó el rápido avance de las capacidades de IA. «Si nos fijamos en la trayectoria de mejora, sistemas como GPT-3 quizás tuvieran inteligencia a nivel de niños pequeños», explicó. «Y luego, sistemas como GPT-4 se parecen más a la inteligencia inteligente de un estudiante de secundaria. Y luego, en los próximos años, recurriremos a la inteligencia doctoral para tareas específicas».
ChatGPT de próxima generación «afectará todo». Este avance en las capacidades de la IA podría tener implicaciones de gran alcance en diversas industrias. Murati cree que el impacto de la IA “afectará a todo” en términos de trabajo cognitivo y trabajo. Señaló que, si bien algunos empleos podrían verse afectados, particularmente en los campos creativos, la IA también podría democratizar la creatividad al reducir las barreras.
«Es mucho más fácil dirigir un sistema más inteligente diciendo, está bien, no hagas estas cosas», dijo Murati, abordando las preocupaciones sobre la seguridad y el control de la IA. Enfatizó que la inteligencia y la seguridad van de la mano, comparándolo con entrenar a un perro más inteligente en lugar de uno menos inteligente.
El CTO de OpenAI también discutió la posibilidad de que futuros sistemas de IA se conecten a Internet, interactúen entre sí y colaboren sin problemas con los humanos. Sin embargo, destacó la importancia de implementar medidas de seguridad junto con los avances tecnológicos.
«En términos de seguridad, protección y el impacto social de este trabajo, creo que esas cosas no son una ocurrencia tardía», dijo Murati. «Hay que construirlos junto con la tecnología y de una manera profundamente integrada para hacerlo bien».
Si bien las noticias sobre una IA más avanzada pueden entusiasmar a algunos, también plantean preguntas sobre riesgos potenciales e impactos sociales. Murati reconoció que “no es posible tener riesgo cero” con la tecnología de IA y pidió una responsabilidad compartida entre desarrolladores, usuarios, sociedad civil y gobiernos.
También te puede interesar
-
Cómo el ultraciclista Kabir Rachure recorrió 900 km en bicicleta a través de Ladakh para establecer un récord
-
Google Meet obtiene una nueva función de IA generativa «Toma notas por mí»
-
Google implementa Gems e Imagen 3 en Gemini Advanced
-
Infinix Hot 50 5G con procesador MediaTek Dimensity y clasificación IP54 lanzado el 5 de septiembre: características esperadas
-
El Direct final de Nintendo para este verano estará compuesto por 40 minutos de juegos independientes y de partners para Switch