China vuelve a dar un importante paso en el mundo de la Inteligencia Artificial y su desarrollo. Ahora, investigadores de la Academia de Inteligencia Artificial de Pekín (BAAI, en sus siglas oficiales en inglés) anunciaron nuevos detalles y funcionalidades de Wu Dao 2.0, un modelo específico de Inteligencia Artificial. El avance hecho por el gigante asiático lo anuncian como 10 veces más potente que GPT-3, la más grande hasta la fecha, y capaz de soportar 1,75 billones (millones de millones) de parámetros.
No te olvides de seguirnos en Google noticias para mantenerte informado
Qué es Wu Dao 2.0
La BAAI ha anunciado el lanzamiento de su nuevo modelo de aprendizaje profundo Wu Dao 2.0 en su conferencia anual este martes, según informa Engadget, unos meses después de la presentación de la primera versión del modelo, en marzo de este año.
Según informa el sitio web La Nación, la Academia ha desvelado que el modelo ha sido entrenado con 1,75 billones de parámetros, diez veces más que el modelo de OpenAI, GPT-3, lanzado en mayo de 2020, y hasta ahora “el modelo de lenguaje más grande y avanzado del mundo”, según aseguró en septiembre Microsoft, cuando se alió con OpenAI para llegar este modelo a sus soluciones.
El modelo chino es multimodal, lo que supone que puede realizar varias tareas a la vez. Como recogen en Engadget, este puede escribir ensayos, poemas y coplas en chino tradicional, así como crear textos alternativos con base en una imagen estática e imágenes de carácter cercano al fotorrealismo según descripciones hechas en lenguaje natural.
Un nuevo tipo de aprendizaje
La BAAI también ha demostrado que la IA puede generar ídolos virtuales ayudado por el chatbot social de Microsoft en China, Xiaolce, además de predecir las estructuras en tres dimensiones de proteínas.
Para entrenar al modelo en tantos parámetros y con tanta rapidez los investigadores desarrollaron un sistema de aprendizaje de código abierto denominado FastMoE. Este funciona en PyTorch y es similar al Mixture of Experts de Google, aunque tiene mayor flexibilidad debido a que permitió entrenar a la IA en GPUs convencionales y en supercomputadoras, y se puede ejecutar en hardware estándar.
La Academia indicó en la conferencia que los modelos grandes y los ordenadores de gran computación son el futuro de la Inteligencia Artificial. El presidente de BAAI, el Dr. Zhang Hongjiang, indicó que están construyendo “una planta de energía para el futuro de la IA, con megadatos y gran poder computacional”, y que con ello pueden “transformar los datos para alimentar las aplicaciones de IA del futuro”.
Temas
Te puede interesar








