Akamai Technology lanceert Akamai Cloud Inference, een nieuwe cloudservice die de efficiëntie van AI -inferentietaken verbetert. Het levert verbeterde doorvoer, verminderde latentie en lagere kosten dan traditionele hyperscale -infrastructuur.
Akamai Cloud Inference loopt op Akamai Cloud, ’s werelds meest gedistribueerde platform. Deze nieuwe technologie is ontworpen om de beperkingen van gecentraliseerde cloudmodellen aan te pakken door AI -gegevens dichter bij de gebruiker en apparaten te verwerken.
Adam Karon, Chief Operating Officer en General Manager, Cloud Technology Group bij Akamai, benadrukte de uitdaging om AI -gegevens efficiënt te verspreiden. “AI -gegevens dichter bij gebruikers en apparaten krijgen is moeilijk, en het is waar oude wolken worstelen,” verklaarde Karon.
AI -inferentie op Akamai Cloud stelt platformingenieurs en ontwikkelaars in staat om AI -applicaties dichter bij eindgebruikers te bouwen en te lopen. Deze nieuwe oplossing biedt 3x betere doorvoer en tot 2,5x vermindering van de latentie.
De nieuwe tools stellen bedrijven in staat om tot 86% te besparen op AI -inferentie en agentische AI -workloads in vergelijking met traditionele hyperscaler -infrastructuur.
Belangrijkste kenmerken van Akamai Cloud Inference zijn onder meer:
- Berekenen: Akamai Cloud biedt veelzijdige rekenopties zoals CPU’s voor verfijnde inferentie, GPU’s voor versnelde reken en ASIC VPU’s. Enz. Om een divers scala aan AI -inferentie -uitdagingen aan te pakken.
- Gegevensbeheer: Akamai integreert met enorme gegevens voor realtime gegevenstoegang en biedt schaalbare objectopslag voor het beheren van AI-gegevenssets. Het bedrijf werkt ook samen met Vector Database-leveranciers zoals Aiven en Milvus om het ophalen van het ophalen mogelijk te maken.
- Containerisatie: Akamai integreert containerisatie om de veerkracht van de applicatie en hybride/multicloud -draagbaarheid te verbeteren. Akamai levert AI-inferentie die sneller, goedkoper en veiliger is met Kubernetes, ondersteund door Linode Kubernetes Engine (LKE)-Enterprise. De nieuwe service maakt een snelle inzet van AI-ready platforms mogelijk, waaronder Kserve, Kubeflow en Spinkube.
- Edge Compute: Akamai AI -inferentie omvat WebAssembly (WADM) -mogelijkheden. Ontwikkelaars bouwen AI-aangedreven toepassingen aan de rand, waardoor latentiegevoelige oplossingen mogelijk worden.
De schaalbare en gedistribueerde architectuur van Akamai Cloud maakt het mogelijk om de rekenbronnen wereldwijd beschikbaar te maken – van cloud tot Edge – terwijl de applicatieprestaties versnellen en de schaalbaarheid vergroten. Het platform omvat 4.200 aanwezigheidspunten over 1200 netwerken in meer dan 130 landen.
Polyhedra heeft zojuist AI’s eerlijke geheimen openbaar gemaakt
AKASM onthult de verschuiving van training van grote taalmodellen (LLMS) naar AI -inferentie en benadrukt de noodzaak van praktische AI -oplossingen. LLM’s zijn effectief voor taken voor algemene doeleinden, maar hebben vaak hoge kosten en tijdrovende vereisten.
In plaats van zwaar te investeren in LLMS, gaan ondernemingen naar lichtere AI -modellen. Deze zijn geoptimaliseerd voor specifieke bedrijfsproblemen, bieden vandaag een beter rendement op investeringen.
Akamai Cloud -inferentie ondersteunt het verwerken van AI -gegevens dichter bij waar het wordt gegenereerd, waardoor de eisen voor meer gedistribueerde AI -oplossingen worden opgelost.
Het nieuwe aanbod van Akamai vertegenwoordigt een opmerkelijke beweging naar gedecentraliseerde AI, het oplossen van het klassieke cloud computing -conundrum van afstand. Waarom? Omdat verminderde latentie zich direct vertaalt in echte, onmiddellijke besparingen en een betere gebruikerservaring, wat een moeilijke combinatie is voor concurrenten om te verslaan.
Een bijzonder slimme functie is de nadruk op containerisatie, waardoor de implementatie van AI -applicaties veel eenvoudiger en veiliger blijft dan traditionele opstellingen. Het gebruik van Linode Kubernetes Engine (LKE)-Enterprise onderstreept de toewijding van Akamai om moderne, efficiënte tools aan te bieden die zijn op maat gemaakt voor de technische uitdagingen van vandaag.