Wir schlossen mit der Bemerkung, dass die KI-Entwicklung um deutsche Softwareunternehmen einen Bogen macht und die Musik wo anders spielt. Die letzten Bundesregierungen hatten ja irgendwie immer die Digitalisierung auf dem Plan. Aber dabei blieb es meistens. Das alte Faxgerät tut es ja auch noch, haben wir zumindest in der Pandemie gesehen. Kein Wunder dass hochbegabte Softwareentwickler abwandern in die Länder, wo die KI bereits weit entwickelt ist.
Und auf dem Gebiet sind nun einmal die USA führend. Dass die USA auch sehr lange brauchten, um die KI-Prozesse zu entwickeln, zeigt übrigens, wann Deutschland hätte anfangen müssen, sich mit dem Thema zu beschäftigen.
Die Algorithmen, mit denen KI trainiert wird, wurden in der 1970ern entwickelt: Neuronale Netze führten damals Algorithmen unzählige Male durch, bis das Ergebnis näherungsweise korrekt war. Es wurden auf dieser Basis verschiedene Modelle entwickelt, auf deren Basis die KI “trainiert” wurde. Die Ergebnisse ließen erahnen, dass KI irgendwann einmal funktionieren werde, doch wirklich brauchbar war das Ganze noch nicht. Die CPUs wurden immer leistungsfähiger, doch die spürbare Leistungssteigerung wurde immer geringer. Immer das Gleiche zu tun, nur schneller, war also nicht die Lösung.
Und hier trat jetzt ein Pionier auf den Markt. Unser Depotwert Nvidia ging einen anderen Weg. Mit den Graphikchips war es möglich, eine Rechenaufgabe in verschiedene Schritte zu zerteilen und die Ergebnisse der verschiedenen Schritte anschließend wieder zusammenzuführen. So konnte ein Algorithmus plötzlich “parallel” abgearbeitet werden.
Gerade bei der Komplexität der KI war diese Entwicklung der entscheidende Quantensprung.
Je mehr Daten für das Trainieren der KI zur Verfügung stehen, desto besser das Ergebnis. Doch mit der Zunahme der Datenmenge wuchs logischerweise die erforderliche Zeit für das Training exponentiell. Erst die GPUs von Nvidia, die diese Prozesse parallel laufen lassen konnten, führten zu einem Stand, mit dem binnen weniger Jahre ein gutes KI-Modell ausreichend trainiert werden kann, um dann brauchbare Ergebnisse zu liefern. Ende 2022 wurde plötzlich ChatGPT der Öffentlichkeit zugänglich gemacht und die Resonanz war überwältigend. Offensichtlich hatte man die für brauchbare KI-Ergebnisse kritische Masse an Daten in einer überschaubaren Zeit für das Training verwenden können.
Dank Nvidias GPUs, war, wie gesagt, dieser Quantensprung möglich.
Denn plötzlich konnte man berechnen, wie viele Daten wie intensiv für das Training verwendet werden müssen, um brauchbare KI-Ergebnisse zu erhalten. Nvidia stellte die H100 GPU vor, die Graphikkarte, mit der mit einer ausreichenden Datenmenge binnen neun Monaten eine brauchbare KI trainiert werden konnte.
Wer die ausrechende Menge an Daten hat, der kauft nun so viele H100-Graphikkarten von Nvidia, wie er kriegen kann. Darunter auch unsere anderen Depotwerte Meta, Amazon, Tesla, Alphabet, Microsoft, sowie Oracle und natürlich auch SAP, versucht auf den Zug aufzuspringen. KI-Angebote schießen aus dem Boden: Bildbearbeitung, Stimmenmodifikation, Entwicklertools etc.
Diese Welle ist erst am Anfang, viele versuchen jetzt noch auf den Zug mit aufzuspringen, da stellt Nvidia bereits die H200 vor, die Folgegeneration der GPUs mit dem Namen Blackwell. Die bislang neun Monate, die für das Trainieren einer KI bislang erforderlich sind, können mit der Blackwell-Technologie auf wenige Wochen verkürzt werden. Die H200 ist so leistungsstark, dass nun auch Videos in großen Mengen für das Training der KI verwendet werden können.
Übrigens, kein anderes Unternehmen sei so weit bei der Entwicklung des autonomen Fahrens wie Tesla, noch im laufenden Jahr werde man atemberaubende Ergebnisse von Tesla sehen. Diese Feststellung traf Jensen Huang, CEO von Nvidia, und der sollte es eigentlich wissen, schließlich entwickelt und liefert er die Chips dazu. Jensen Huang wird schon fast wie ein Prophet verehrt. Wenn er Tesla hervorhebt, dann sollten wir das Unternehmen im Auge und in unserem NDAC-Clubfonds behalten, auch wenn es in letzter Zeit in einige Turbulenzen geriet.
Aber Fakt ist, es gibt auch hier Skeptiker. Nvidia könne den Abstand zu seinen Verfolgern, insbesondere zu AMD, auch ein NDAC-Clubfonds, nicht halten. Außerdem wurden inzwischen alle großen Konzerne ihre eigenen KI-Chips entwickeln. Abgesehen davon, dass Konkurrenz das Geschäft belebt, gibt es dazu auch wieder einen Gegenmeinung.
Die Chips von AMD schließen nach einem Jahr maximal mit der Performance der Nvidia-Chips auf und kosten dann weniger. Doch gleichzeitig zeigen Studien, dass die Chips von AMD mehr Strom verbrauchen als die Chips von Nvidia. Die “total costs of ownership”, also die Vollkosten für die Entwicklung eines funktionstüchtigen KI-Modells sind bei den AMD-Chips noch immer deutlich höher als bei den Nvidia-Chips, wenn die Energiekosten mit einbezogen werden.