Wie künstliche Intelligenz das Rechenzentrum prägt

Lesezeit
2 Minuten
Bis jetzt gelesen

Wie künstliche Intelligenz das Rechenzentrum prägt

26.10.2022 - 14:00
Veröffentlicht in:
Der Erfolg von KI-Projekten hängt von zahlreichen Faktoren ab. Dazu zählen die gewählten Methoden, die Modelle, die konkreten Algorithmen und auch die Datenqualität. Unterschätzt wird von IT-Verantwortlichen oft aber ein anderer, hoch relevanter Aspekt: die Infrastruktur des Rechenzentrums. Unser Fachartikel erklärt, wieso es nicht genügt, sich nur um Speicherkapazität und Sicherungskonzepte wie Data Warehouse, Data Lake, und Lakehouse Gedanken zu machen.
Die Investitionsbereitschaft in KI-Technologien bleibt nach wie vor hoch. Eine Befragung durch den Branchenverband Bitkom im Jahr 2022 erbrachte, dass jedes vierte Unternehmen in Deutschland in KI-Projekte investieren will. Jedes zehnte davon bereits 2023. Die ohnehin schon rasante Entwicklung auf dem Gebiet der künstlichen Intelligenz wird durch IoT-Lösungen und 5G-basierte Netze noch weiter an Fahrt gewinnen. Ein missionskritischer Parameter für KI-Projekte ist das Rechenzentrum. Viele Verantwortlichen im Rechenzentrum fragen sich, wie sie die Weichen stellen müssen, um hier optimal aufgestellt zu sein.

Denn mit ihren KI-Projekten verknüpfen viele Unternehmen sehr hohe Erwartungen. Maschinelles Lernen, Mustererkennung und Predictive Analytics sollen Absatz-, Produktions- und Materialmengen genauer vorhersagen und die Wünsche von Kunden besser ermitteln. Ist das RZ der Motor für KI-Projekte, muss es genügend Leistung bringen und vielseitig einsetzbar sein. Wie bei einem Auto hängen die konkreten Einsatzmöglichkeiten von bestimmten Faktoren und Bauteilen ab. Im Folgenden beschreiben wir die aktuellen technologischen Entwicklungen im Bereich von KI und Rechenzentrum, über die sich Data-Center-Verantwortliche im Vorfeld von KI-Projekten Gedanken machen sollten.

Daten bleiben in Bewegung
In den vergangenen Jahren hat sich die Haltung von Unternehmen gegenüber ihren Daten massiv gewandelt. Datenanalysten schreiben heute vielen Daten einen potenziellen und langfristigen Wert zu, der sich erst zu einem späteren Zeitpunkt beziffern lässt, wenn die Daten doch noch benötigt werden. Die Frage "Kann das weg?" beantworten die Firmen immer häufiger mit einem Nein und verlagern die Informationen in Data Lakes.

Fakt ist: Archive sind heute zunehmend aktiv und in Bewegung. Im Data Warehouse und Data Lake werden kontinuierlich Daten gelesen und geschrieben. Die permanente Verarbeitung von Informationen stellt dahingehend Anforderungen an verschiedene Bereiche der Rechenzentren.

Komplexität von KI-Modellen und Datenmenge steigt
Die Anfänge künstlicher Intelligenz liegen mit den Turing-Tests und Eliza, dem ersten, Mitte der 60er Jahre entwickelten "Chatbot", bereits über 50 Jahre zurück. Heute ist KI mit Sprachassistenten auf jedem Smartphone zu Hause und erobert die Wohnzimmer der Menschen. Sie macht das Leben allerdings nicht nur bequemer, sondern trägt auch zur Gesundheitsvorsorge bei.

Ein Beispiel ist die Auswertung digitaler Mammografien an der Universität von Hawaii, mit dem Ziel, Brustkrebs früher zu erkennen. Die Mediziner benötigten etwa 25.000 Bilddateien von knapp 6500 Frauen – ein auf den ersten Blick unüberschaubares Projekt für das menschliche Auge. Mit KI ließen sich hier deutlich einfacher mehr Schattierungen erkennen und analysieren.

Welchen Speicherhunger KI-Anwendungen in der nahen Zukunft haben werden, deuten aktuelle Entwicklungen erst an. Das Sprachverarbeitungsmodell GPT-3 von OpenAI nutzt 175 Milliarden Parameter aus Basis von 570 GByte gefilterten Daten. Dafür benötigt GPT-3 mehr Rechenleistung als jedes andere Sprachverarbeitungsmodell vor ihm. Um genau zu sein, beträgt diese für das Training des Modells 3,14x10^23 Gleitkommaoperationen pro Sekunde (Flops). Zum Vergleich: Bei 15 Teraflops, beziehungsweise 1,50x10^13 Flops, würden mit aktueller GPU-Technologie bestückte Computer dafür etwa 665 Jahre in Anspruch nehmen.

Es ist damit zu rechnen, dass die Komplexität exponentiell ansteigen wird, wenn in der Industrie kompliziertere Aufgaben zu lösen sind. Das Startup Fairmatics, das jüngst mit 42 Millionen Dollar finanziert wurde, hat mittels KI ein Risiko- und Tarifmodell für die Kfz-Versicherung entwickelt, das auf der Analyse von über 300 Milliarden gefahrener Kilometer basiert.

Wo die Grenzen liegen werden, ist offen. Wenn das menschliche Gehirn die Benchmark sein soll, ist noch viel Luft nach oben. Denn die körpereigene Rechenzentrale verfügt über 100 Billionen Synapsen. Der Bedarf an größerer Speicherkapazität wird weiterwachsen.

Seite 1: Komplexität von KI-Modellen und Datenmenge steigt


Seite 1 von 2 Nächste Seite >>


ln/Manfred Berger, Senior Manager Business Development für Data Center Solutions and Platforms bei Western Digital

Ähnliche Beiträge

Seite 2 - Wie künstliche Intelligenz das Rechenzentrum prägt

5G und IoT verlagern Workloads an den Edge
Cloud und mobile Konnektivität haben in den vergangenen Jahren auf vielen Gebieten die IT-Entwicklung geprägt. Über zehn Millionen Haushalte haben inzwischen zum Smarthome umgerüstet, nutzen also Geräte des IoT. Ein Ende dieses Wachstums ist derzeit noch nicht auszumachen. Die zunehmende Adaption von 5G wird der gesamten Entwicklung einen weiteren Schub verleihen und den Weg vom IoT zum IoE (Internet of Everything) bahnen.

Im Test: Gapteq 3.5.3

SQL-Datenbanken sind ein wichtiges Hilfsmittel zur einfachen Speicherung und Verwaltung größerer Datenmengen. Eine applikationsunabhängige Nutzung von SQL für eigene Unternehmensdaten scheitert allerdings oft an der fehlenden Ein- und Ausgabeschnittstelle hin zu den Anwendern. Abhilfe verspricht die Low-Code-Plattform Gapteq, mit der sich sehr einfach komfortable Benutzeroberflächen für MS SQL und mySQL per Drag & Drop gestalten lassen.

Seite 2 - Zentrales Datenmanagement bei der Refratechnik-Gruppe

Komplexe SAP-Integration
Eine weitere Herausforderung bereitete das FI-Modell. Für die Integration in SAP-BW/4HANA 2.0 gab es kein durchgängiges Datenmodell, da im SAP-ECC noch das alte Hauptbuch zum Einsatz kam. Aus diesem Grund musste ein neuer Ansatz entwickelt werden, mit dem sich Bilanzen- und G&V-Rechnungen (Gewinn und Verlust) in gewünschter Form darstellen lassen – sowohl in kumulierter als auch in periodengerechter Abgrenzung.