Microsoft confirmó públicamente su plan, del que se rumorea desde hace mucho tiempo, para introducir sus propios procesadores para centros de datos, incluido uno optimizado para inteligencia artificial y refinado en función de los comentarios de su principal socio de inteligencia artificial, el fabricante de ChatGPT OpenAI.
La compañía dice que los chips representan “una última pieza del rompecabezas” en su infraestructura Azure, dándole un papel directo en el diseño de cada capa de la plataforma en la nube responsable de una parte cada vez más importante de su negocio.
Uno de los chips diseñados por Microsoft, el Azure Maia AI Accelerator, está optimizado para tareas de IA, incluida la inteligencia artificial generativa. El otro, Azure Cobalt CPU, es un procesador basado en Arm destinado a cargas de trabajo en la nube de uso general.
Microsoft dice que los chips se implementarán en sus centros de datos a principios del próximo año. La compañía planea usarlos inicialmente para ejecutar sus propios servicios, incluidos Microsoft Copilot y Azure OpenAI Service, antes de expandirse a más cargas de trabajo.
El plan, anunciado el miércoles en la conferencia de Microsoft Encender conferencia, llega ocho años después de que Amazon comenzara a fabricar su propio silicio de centro de datos personalizado a través de la adquisición de Annapurna Labs. Desde entonces, Amazon Web Services se ha expandido hacia chips de IA especializados, Tranium e Inferentia, para construir y ejecutar modelos grandes.
Microsoft también se está poniendo al día con Google, que ha desarrollado varias generaciones de sus chips Tensor Processing Unit, utilizados por Google Cloud para cargas de trabajo de aprendizaje automáticoy supuestamente está trabajando en sus propios chips basados en Arm.
“A la escala en la que operamos, es importante para nosotros optimizar e integrar cada capa de la infraestructura para maximizar el rendimiento, diversificar nuestra cadena de suministro y brindar a los clientes opciones de infraestructura”, dijo Scott Guthrie, vicepresidente ejecutivo de Cloud + AI Group de Microsoft. en un comunicado difundido por la empresa.
La compañía dice que ha estado desarrollando los chips durante años en un laboratorio en su campus de Redmond, aparentemente en secreto, aunque a principios de este año surgieron noticias sobre los planes de silicio personalizados de Microsoft. a través de un reportaje en La Información.
OpenAI dice que trabajó con Microsoft para perfeccionar y probar el chip Maia. “La arquitectura de IA de extremo a extremo de Azure, ahora optimizada hasta el silicio con Maia, allana el camino para entrenar modelos más capaces y hacer que esos modelos sean más baratos para nuestros clientes”, dijo el CEO de OpenAI, Sam Altman, en el anuncio de Microsoft.
En otras noticias de IgniteMicrosoft está anunciando una serie de servicios de IA nuevos y actualizadosincluido Estudio copiloto para crear servicios personalizados para Microsoft 365 Copilot; la expansión de Copilot en Microsoft Teams; y Estudio de IA de Windows para desarrolladores.