IBM presenta el primer chip de aceleración de IA de cuatro núcleos del mundo

IBM presentó el primer quad-core del mundo inteligencia artificial (IA) chip acelerador, construido con tecnología MOSFET de siete nanómetros (7 nm).

La compañía dice que ha optimizado el nuevo chip para cargas de trabajo de baja precisión, con soporte para muchos modelos de IA.

«En un nuevo artículo presentado en la Conferencia Virtual Internacional 2021 sobre Circuitos de Estado Sólido (ISSCC), nuestro equipo detalla el primer chip de inteligencia artificial energéticamente eficiente del mundo, a la vanguardia del entrenamiento de baja precisión y la inferencia construida con 7 nm», dijeron investigadores de IBM. Ankur Agrawal y Kailash Gopalakrishnan.

«Con su nuevo diseño, el chip de aceleración de hardware de IA admite una variedad de tipos de modelos, al tiempo que ofrece una eficiencia energética de vanguardia».

Los aceleradores de IA son hardware especializado diseñado para mejorar el rendimiento de las aplicaciones de IA, incluido el aprendizaje profundo, el aprendizaje automático y las redes neuronales. Utilizo cálculos en memoria o aritmética de baja precisión, lo que da como resultado una ejecución más rápida de algoritmos de IA grandes y complejos.

IBM afirma que su nuevo chip acelerador de IA es el primero en incluir un formato híbrido de punto flotante de 8 bits de precisión ultrabaja (HFP8) para entrenar modelos de aprendizaje profundo en un nodo con tecnología de silicio (chip basado en EUV de 7 nm). El chip puede auto-maximizar su rendimiento disminuyendo la velocidad durante las fases de computación de alta potencia, gracias a una función de administración de energía integrada.

Además, IBM declaró que su chip de IA «típicamente alcanzaba más del 80% de utilización para entrenamiento y más del 60% de utilización para inferencia» en comparación con los usos normales de GPU, que normalmente están por debajo del 30%.

Según IBM, la tecnología de chips se puede escalar e implementar comercialmente para admitir modelos de aprendizaje profundo a gran escala en la nube.

“Nuestro nuevo chip y nuestra inteligencia artificial central se pueden utilizar para muchas aplicaciones nuevas desde la nube hasta el borde en muchas industrias. Por ejemplo, se pueden utilizar para el entrenamiento en la nube de modelos de aprendizaje profundo a gran escala en el procesamiento de la visión, el habla y el lenguaje natural utilizando formatos de 8 bits (en comparación con los formatos de 16 y 32 bits que se utilizan actualmente en la industria). .dijo IBM.

«También se pueden utilizar para aplicaciones de inferencia en la nube, como servicios de inteligencia artificial de texto a voz, servicios de inteligencia artificial de texto a voz, servicios de PNL, detección de fraudes en transacciones financieras y una implementación más amplia de modelos de inteligencia artificial en servicios financieros».

Rate this post

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio