Microsoft bruker Oracles infrastruktur for kunstig intelligens til Bing Conversational Search
Oracle kunngjorde i dag en flerårig avtale med Microsoft for å støtte den eksplosive veksten av AI-tjenester.
I en pressemelding skriver Oracle:
Microsoft bruker Oracle Cloud Infrastructure (OCI) AI-infrastruktur, sammen med Microsoft Azure AI-infrastruktur, for inferens av AI-modeller som er optimalisert for å drive Microsoft Bing Conversational Search på daglig basis.
Ved å utnytte Oracle Interconnect for Microsoft Azure kan Microsoft bruke administrerte tjenester som Azure Kubernetes Service (AKS) til å orkestrere OCI Compute i stor skala for å støtte den økende etterspørselen etter Bing Conversational Search.
Tung infrastruktur
Bing Conversational Search krever kraftige klynger med datainfrastruktur som støtter evalueringen og analysen av søkeresultatene som utføres av Bings inferensmodell.
– Generativ AI er et monumentalt teknologisk sprang, og Oracle gjør det mulig for Microsoft og tusenvis av andre selskaper å bygge og kjøre nye produkter med våre OCI AI-funksjoner, sier Karan Batta, direktør for Oracle Cloud Infrastructure.
– Ved å utvide samarbeidet med Microsoft kan vi bidra til å gi flere mennesker over hele verden nye opplevelser.
Økt hastighet
– Microsoft Bing utnytter de nyeste fremskrittene innen kunstig intelligens for å gi mennesker over hele verden en dramatisk bedre søkeopplevelse, sier Divya Kumar, global markedssjef for søk og kunstig intelligens i Microsoft.
– Samarbeidet vårt med Oracle og bruken av Oracle Cloud Infrastructure sammen med vår Microsoft Azure AI-infrastruktur vil gi kundene økt tilgang og forbedre hastigheten på mange av søkeresultatene våre.
Inferensmodeller krever tusenvis av beregnings- og lagringsinstanser og titusenvis av GPU-er som kan operere parallelt som en enkelt superdatamaskin over et multiterabit-nettverk.
Om OCI Superclusters
OCI Superclusters omfatter OCI Compute Bare Metal-instanser, RDMA-klyngenettverk med svært lav latenstid og et utvalg av HPC-lagring. OCI Superclusters kan skalere opp til 4 096 OCI Compute Bare Metal-instanser med 32 768 A100 GPU-er eller 16 384 H100 GPU-er og petabyte med høyytelses filsystemlagring for effektiv behandling av massivt parallelle applikasjoner.