Überspringen zu Hauptinhalt
Was Macht Ihren Rechenzentrumsanbieter Zu Einem KI-fähigen Colocation-Partner?

Was macht Ihren Rechenzentrumsanbieter zu einem KI-fähigen Colocation-Partner?

Der Einsatz von künstlicher Intelligenz (KI) in IT-Infrastrukturen hat in den letzten Jahren an Bedeutung gewonnen. Organisationen in praktisch allen Branchen setzen KI ein, um den geschäftlichen Herausforderungen zu begegnen und die Kundenanforderungen zu erfüllen. Aber welche Qualitäten genau muss ein Colocation-Partner haben, wenn er Ihre mit künstlicher Intelligenz ausgestattete IT-Infrastruktur unterbringen soll?

Der Einsatz von künstlicher Intelligenz in IT-Infrastrukturen nimmt rasant zu. In ihrem jüngsten Worldwide Artificial Intelligence Systems Spending Guide bezifferte IDC, dass die Ausgaben für KI-Systeme im Jahr 2023 97,9 Milliarden Dollar (etwa 85,8 Milliarden Euro) erreichen werden. Laut IDC wird diese Zahl mehr als zweieinhalb Mal so hoch sein wie die 37,5 Milliarden Dollar, die 2019 ausgegeben wurden.

Unternehmen lagern ihre IT-Infrastrukturen zunehmend an professionelle Rechenzentrums-Betreiber aus, aber sind diese Colocation-Anbieter ausreichend ausgestattet, um Ihre von der KI definierten IT-Infrastrukturen unterzubringen? Einige von ihnen sind es, andere vielleicht nicht.

Rechenleistung, NVIDIA

Ein KI-fähiger Colocation-Provider muss zunächst einmal in der Lage sein, massive Mengen an Rechenleistung zu ermöglichen. Das bedeutet, dass die angebotene Rechenzentrums-Colocation-Umgebung in der Lage sein muss, Workloads mit hoher Dichte zu unterstützen und gleichzeitig anspruchsvolle Leistungsanforderungen zu erfüllen.

Die genauen Auswirkungen der KI auf die Infrastrukturen von Rechenzentren lassen sich am besten veranschaulichen, wenn man sich die neuesten KI-fähigen Technologien, z. B. von NVIDIA, genauer ansieht. Im Mai seines Jahres hat NVIDIA seinen Grafikprozessor A100 auf den Markt gebracht. Basierend auf der neuen Ampere-Architektur des Unternehmens wird dieser CPU Server versorgen, die von praktisch allen führenden Serverherstellern und Cloud-Service-Providern (CSPs) verwendet werden, darunter Dell Technologies, HPE, Lenovo, Asus, Fujitsu, Inspur, Cisco, Atos, Supermicro, Quanta/QCT, AWS, Microsoft Azure, Google und andere. Die Tatsache, dass all diese bekannten Serverhersteller NVIDIAs KI-Enabling-Technologie nutzen, bedeutet, dass der Einsatz künstlicher Intelligenz in der Rechenzentrumsumgebung kaum zu ignorieren ist.

Die DGX A100-Karte von Nvidia kann sogar acht dieser A100-CPUs zu einer Super-GPU kombinieren, die als ein einziger gigantischer Prozessor arbeiten kann. Ein DGX A100 wäre in der Lage, 5 Petaflops an künstlicher Intelligenz (AI) Leistung zu liefern. Er packt die Leistung und Fähigkeiten eines ganzen Rechenzentrums in dieses eine System. Bei der Ko-Lokalisierung von KI-fähigen Technologien wie diesen wären Optionen mit hoher Dichte, aber auch Flexibilität und Skalierbarkeit im Hinblick auf die erforderlichen Leistungsdichten erforderlich.

Automobil, Telekommunikation, AdTech/MarTech

Wenn Sie immer noch der Meinung sind, dass künstliche Intelligenz und die dazugehörige Ausrüstung in erster Linie eine Domäne von Hyperskalierern ist, ohne dass dies einen großen Einfluss auf den regulären Colocationbedarf hat, sollten Sie es sich vielleicht noch einmal überlegen. Ja, es war in der Tat die Domäne der Hyperscaler. Nicht mehr, zumindest nicht ausschließlich. Hyperscaler haben sich schon seit geraumer Zeit mit künstlicher Intelligenz und maschinellem Lernen in großem Maßstab beschäftigt. Nun, wie die Marktforschungszahlen von IDC bestätigen, nimmt der Einsatz von künstlicher Intelligenz im Umfeld von Rechenzentren in einem weiteren Sinne zu.

Der Aufstieg der KI und der Einsatz von GPU-Computer-Hardware mit jetzt sogar aufkommenden Super-GPUs wird definitiv gewisse Erwartungen an die Leistungsdichte von Colocation-Rechenzentren stellen. Wie bereits erwähnt, packt neu auf den Markt gebrachte KI-fähige Hardware wie die von NVIDIA mehr Rechenleistung in die Ausstattung von Rechenzentren. Und während NVIDIA jetzt den Markt für Chips mit künstlicher Intelligenz dominiert, gibt es mehrere andere Chiphersteller, die sich ebenfalls auf die Bereitstellung von leistungshungrigen KI-Chips konzentrieren, darunter Intel, AMD und eine Vielzahl von Startups wie Mythic, Graphcore, SambaNova Systems und Wave Computing. Angetrieben von Anwendungsfällen künstlicher Intelligenz werden Server und Speicherhardware somit die Anforderungen an die Leistungsdichte innerhalb der Colocation-Schränke in den kommenden Jahren weiter erhöhen.

Die Automobilindustrie ist ein gutes Beispiel dafür, dass sich die vertikale KI heute in großem Tempo durchsetzt. Im vergangenen Jahr unterzeichneten der Volvo-Konzern und NVIDIA einen Vertrag über die Entwicklung einer fortschrittlichen KI-Plattform für autonom fahrende Lkw. Und im Juni dieses Jahres kündigten Mercedes-Benz und NVIDIA eine Partnerschaft an, die softwaredefinierte, intelligente Fahrzeuge auf den Markt bringen wird, die “End-to-End”-Technologie von NVIDIA verwenden.

Die meisten Analysten gehen davon aus, dass sich die Datenanforderungen für selbstfahrende Fahrzeuge aufteilen werden. Einige Aufgaben werden von leistungsfähigen Bordcomputern verwaltet werden. Andere Aufgaben werden in externe Colocation-Rechenzentren ausgelagert, um zusätzliche Datenverarbeitung und -speicherung zu ermöglichen.

Die Telekommunikation ist eine weitere Vertikale, die künstliche Intelligenz in ihren Operationen in großem Tempo einsetzt. Sie setzen sie bereits in vielen Aspekten ihrer Geschäfte ein, von der Verbesserung des Kundenerlebnisses über die Verbesserung der Netzwerkzuverlässigkeit bis hin zur Einführung der vorausschauenden Wartung.

Die Colocation-Rechenzentren von maincubes in Frankfurt (FRA01) und Amsterdam (AMS01) beherbergen eine Vielzahl von Unternehmen mit KI-fähigen IT-Infrastrukturen. Zu den Kunden zählen namhafte DAX-notierte Unternehmen der Automobil- und Telekommunikationsbranche, die in den maincubes FRA01 eingesetzt werden, sowie Kunden aus dem AdTech/MarTech-Segment. Ein gutes Beispiel dafür ist das globale AdTech/MarTech-Unternehmen RTB House, dessen IT-Infrastruktur für den europäischen Markt in der maincubes AMS01-Anlage in Amsterdam eingesetzt wird. Seine einzigartige, proprietäre Anzeigen-Kaufmaschine wird vollständig von deep learning Algorithmen angetrieben. Um ihre KI-Technologie effizient, effektiv und flexibel anpassen zu können, haben sie die OCP-Technologie (Open Compute Project) für die Einrichtung ihres Rechenzentrums übernommen. Sie können auch das europäische OCP Experience Center nutzen, das in den Maincubes AMS01 verfügbar ist.

Energie-Effizienz, Redundanz, Kontinuität

KI-Anforderungen stellen sicherlich andere Anforderungen an Colocation-Rechenzentren als herkömmliche Arbeitslasten. In dem Maße, wie die KI in Unternehmenseinstellungen zunimmt, wird auch der Stromverbrauch von Rechenzentren steigen. Und mit übermäßigem Stromverbrauch kommt der Weg zur Kontrolle des Stromverbrauchs. Colocation-Rechenzentren, die in der Lage sind, diese stromfressenden KI-Anwendungen zu unterstützen, müssen so ausgestattet sein, dass sie diese anspruchsvollen Stromanforderungen bewältigen können. Sie können dann an Maßnahmen denken, die auf energieeffiziente Kühleffizienz und Redundanz sowie auf Stromredundanz und Flexibilität/Skalierbarkeit der Strominfrastruktur abzielen.

Während maincubes für KI-Anwendungsfälle in seinen Colocation-Rechenzentren in Frankfurt und Amsterdam all diese Features bietet, einschließlich maximaler Redundanzen mit sogar 100-prozentiger Verfügbarkeitsgarantie, ist ein weiteres interessantes Beispiel für Kühltechnologie für Anwendungen der künstlichen Intelligenz die Verwendung von Flüssigkeitskühlung. In enger Zusammenarbeit mit ‘Immersion Cooling’ Scale-up Asperitas bietet maincubes Flüssigkeitskühllösungen in speziell ausgestatteten Colocation-Suiten von AMS01, dem maincubes-Rechenzentrum in Amsterdam, an. Die Tauchkühlungstechnologie von Asperitas macht High-Density-Konfigurationen wesentlich energieeffizienter. Infolgedessen können energieintensive Hardware-Implementierungen weiterhin mit dem höchstmöglichen Lastfaktor betrieben werden. Gleichzeitig reduziert die innovative Kühltechnologie den Platzbedarf des Rechenzentrums für KI sowie HPC- und Machine-Learning-Workloads.

Für maincubes ist es wichtig, unser Colocation-Services-Portfolio für Rechenzentren kontinuierlich zu diversifizieren, um den sich entwickelnden Anforderungen aller Kunden, einschließlich derer mit KI-fähigen Betrieben, gerecht zu werden.

An den Anfang scrollen
×Suche schließen
Suche
Jetzt anmelden!

Melden Sie sich jetzt für unsere
ShortNews an.*

Verpassen Sie keine Neuigkeiten, Whitepaper oder Studien mehr.
close-link
COVID-19