Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Hoe het $75 miljard kostende plan van AWS water gebruikt om AI-datacenters te koelen

byKerem Gülen
3 december 2024
in Artificial Intelligence, News
Home Artificial Intelligence

De clouddivisie van Amazon.com Inc., Amazon Web Services (AWS), lanceert nieuwe ontwerpen gericht op het verbeteren van de efficiëntie van datacenters om de toenemende vraag op het elektriciteitsnet te verzachten. De updates omvatten geavanceerde koeltechnieken, alternatieve brandstofopties voor back-upgeneratoren en een verbeterde serverrack-indeling. Sommige van deze componenten zijn al geïmplementeerd en aanvullende functies zullen hun debuut maken zodra nieuwe datacenters worden geopend. Dit initiatief speelt in op het energie-intensieve karakter van serverparken die on-demand computerdiensten aandrijven.

AWS lanceert nieuwe ontwerpen voor datacenterefficiëntie

AWS is van plan dit jaar ongeveer $75 miljard aan kapitaaluitgaven te investeren, voornamelijk gericht op server- en chip-upgrades, inclusief koelsystemen. De investering weerspiegelt de inzet van AWS om het energieverbruik aan te pakken en tegelijkertijd de AI-infrastructuur te verbeteren. Op de komende re:Invent-conferentie wordt verwacht dat het bedrijf zijn nieuwste, op maat ontworpen chips zal introduceren, inclusief geavanceerde AI-producten die zullen concurreren met het gevestigde aanbod van Nvidia.

Nieuwe koelsystemen voor AI-servers

Een van de belangrijkste updates is de verschuiving naar vloeistofkoelsystemen voor de AI-servers van AWS. Deze technologie is essentieel voor het behouden van optimale prestaties in krachtige chips van Nvidia en AWS’s eigen Trainium-apparaten. AWS benadrukt dat de integratie van vloeistofkoeling flexibel is, waardoor zowel lucht- als vloeistofkoeling in één systeem mogelijk is. Dit multimodale ontwerp is bedoeld om de prestaties en efficiëntie bij verschillende workloads te maximaliseren en tegemoet te komen aan de unieke eisen van AI-toepassingen.

Bovendien streeft AWS naar een vereenvoudigde benadering van de elektrische distributie en mechanische ontwerpen voor zijn servers. Deze strategie zou de beschikbaarheid van de infrastructuur kunnen verbeteren tot 99,9999%, waardoor het aantal serverracks dat gevoelig is voor elektrische storingen aanzienlijk kan worden verminderd met wel 89%. Deze verbetering wordt waarschijnlijk bereikt door de conversies van wisselstroom naar gelijkstroom, die doorgaans tot energieverliezen leiden, tot een minimum te beperken.


AWS onthult AI-tools van het volgende niveau om de klantenondersteuning te moderniseren


Deze nieuwe koelsystemen en gestroomlijnde ontwerpen zijn bedoeld om de komende twee jaar een opmerkelijke zesvoudige toename van de rackvermogensdichtheid te ondersteunen, waarbij daarna nog verdere groei wordt verwacht. Door AI in zijn operationele strategieën op te nemen, maakt AWS gebruik van voorspellende analyses om de positionering van serverracks te optimaliseren, waardoor de energieverspilling die wordt toegeschreven aan onderbenutte stroom verder wordt verminderd.

Ian Buck, Nvidia’s vice-president van hyperscale en high-performance computing, erkende dat geavanceerde vloeistofkoelingoplossingen de AI-infrastructuur efficiënt zullen koelen en tegelijkertijd het energieverbruik zullen minimaliseren. Beide bedrijven werken nauw samen om het rackontwerp specifiek voor vloeistofkoelingstoepassingen te verfijnen, wat naar verwachting aanzienlijke voordelen zal opleveren voor gedeelde klanten.

Prasad Kalyanaraman, vice-president Infrastructuurdiensten van AWS, verklaard dat deze verbeteringen cruciale stappen zijn in de richting van het vergroten van de energie-efficiëntie en modulariteit.

“AWS blijft zijn infrastructuur meedogenloos innoveren om de meest performante, veerkrachtige, veilige en duurzame cloud voor klanten over de hele wereld te bouwen”, aldus Kalyanaraman. “Deze datacentermogelijkheden vertegenwoordigen een belangrijke stap voorwaarts met verhoogde energie-efficiëntie en flexibele ondersteuning voor nieuwe werklasten. Maar wat nog spannender is, is dat ze modulair zijn ontworpen, zodat we onze bestaande infrastructuur voor vloeistofkoeling en energie-efficiëntie kunnen aanpassen om generatieve AI-toepassingen aan te drijven en onze ecologische voetafdruk te verkleinen.”


Uitgelichte afbeeldingscredits: Amazone

Tags: achdatacentrum

Related Posts

Alphaevolve: Hoe Google’s nieuwe AI naar waarheid streeft met zelfcorrectie

Alphaevolve: Hoe Google’s nieuwe AI naar waarheid streeft met zelfcorrectie

15 mei 2025
Tiktok implementeert AI-gegenereerde ALT-teksten voor een betere accessibiliteit

Tiktok implementeert AI-gegenereerde ALT-teksten voor een betere accessibiliteit

15 mei 2025
YouTube’s AI weet nu wanneer je gaat kopen

YouTube’s AI weet nu wanneer je gaat kopen

15 mei 2025
SoundCloud CEO geeft toe dat AI -termen niet duidelijk genoeg waren, geeft een nieuwe belofte uit

SoundCloud CEO geeft toe dat AI -termen niet duidelijk genoeg waren, geeft een nieuwe belofte uit

15 mei 2025
Klaar voor een chatgpt dat je echt kent?

Klaar voor een chatgpt dat je echt kent?

14 mei 2025
Lightricks onthult 13B LTX Video -model voor HQ AI Video Generation

Lightricks onthult 13B LTX Video -model voor HQ AI Video Generation

14 mei 2025

Recent Posts

  • De impact van slimme stoffen op tactische kledingprestaties
  • Databricks wedt groot op serverloze postgres met zijn $ 1 miljard neon acquisitie
  • Alphaevolve: Hoe Google’s nieuwe AI naar waarheid streeft met zelfcorrectie
  • Tiktok implementeert AI-gegenereerde ALT-teksten voor een betere accessibiliteit
  • Trump dwingt Apple om zijn India iPhone -strategie te heroverwegen

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.