Estás leyendo
Microsoft está utilizando Oracle Cloud Infrastructure para la búsqueda conversacional de Bing

Microsoft está utilizando Oracle Cloud Infrastructure para la búsqueda conversacional de Bing

  • La búsqueda conversacional de Bing requiere potentes clústeres de infraestructura informática que soporten la evaluación y el análisis de los resultados de búsqueda llevados a cabo por el modelo de inferencia de Bing.
Azure Nube de Microsoft

ha anunciado un a cuerdo plurianual con para apoyar el crecimiento explosivo de los servicios de IA. Microsoft está utilizando la infraestructura de IA de Oracle Cloud Infrastructure (OCI), junto con la infraestructura de IA de Microsoft Azure, para la inferencia de modelos de IA que se están optimizando para potenciar las búsquedas conversacionales diarias de Microsoft . Aprovechando Oracle Interconnect for Microsoft Azure, Microsoft es capaz de utilizar servicios gestionados como Azure Kubernetes Service (AKS) para orquestar OCI Compute a escala masiva con el fin de soportar la creciente demanda de búsqueda conversacional de Bing.

La búsqueda conversacional de Bing requiere potentes clústeres de infraestructura informática que soporten la evaluación y el análisis de los resultados de búsqueda llevados a cabo por el modelo de inferencia de Bing.

La IA generativa es un salto tecnológico monumental y Oracle está permitiendo a Microsoft y a miles de otras empresas construir y ejecutar nuevos productos con nuestras capacidades de IA de OCI. Al ampliar nuestra colaboración con Microsoft, podemos ayudar a llevar nuevas experiencias a más personas en todo el mundo.Karan Batta, vicepresidente senior de Oracle Cloud Infrastructure
Microsoft Bing está aprovechando los últimos avances en IA para ofrecer una experiencia de búsqueda que brinda una mejora espectacular a personas de todo el mundo. Nuestra colaboración con Oracle y el uso de Oracle Cloud Infrastructure junto con nuestra infraestructura de IA Microsoft Azure, ampliarán el acceso a los clientes y mejorarán la velocidad de muchos de nuestros resultados de búsqueda.Divya Kumar, responsable global de marketing para Search & AI en Microsoft

Los modelos de inferencia requieren miles de instancias de computación y almacenamiento y decenas de miles de GPUs que puedan funcionar en paralelo como un único superordenador a través de una red multiterabit.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad