Gudesstraße 3- 5

29525 Uelzen

0581 / 973 696 00

Termine nach
Vereinbarung
Der Clubfonds-Ticker
Gudesstraße 3- 5

29525 Uelzen

0581 / 973 696 00

Termine

nach Ver­ein­ba­rung

Einige Anmerkungen zur Künstlichen Intelligenz Teil 3

Ein Kommentar von Carsten Witt, stellv. Geschäftsführer des NDAC Anlegerclubs

Der Abstand zwischen unseren beiden Depotwerten Nvidia und AMD wird wohl noch eine Weile bestehen bleiben, ja wir dürfen sogar vermuten, dass er vorerst weiter anwachsen wird. Sobald AMD in Sachen Leistungsfähigkeit Boden gut macht zum großen Rivalen, bringt Nvidia bereits die nächste Generation auf den Markt. Bisher ist nicht der Eindruck entstanden, dass sich CEO Jensen Huang auf seinen Lorbeeren ausruht, im Gegenteil, er sieht die KI-Revolution noch in einem sehr frühen Stadium und arbeitet mit Hochdruck an besseren GPUs und an der zügigen Verfügbarkeit neuer GPU`s. Der Kampf der beiden Rivalen mutet fast schon wie der Wettlauf zwischen Hase und Igel, wobei die Rollen klar verteilt sind, zumindest vorerst.

Denn tatsächlich entwickeln Amazon, Alphabet, Microsoft und viele andere Mega-Techs ihre firmeneigenen KI-Chips. Doch diese Chips sind für die “Inferenz” optimiert, nicht für das schon erwähnte Trainieren als Basis für das die gesamte KI. Unter Inferenz verstehen wir die Anwendung des trainierten KI-Modells für den beabsichtigten Zweck. ChatGPT beantwortet alle Fragen. Dazu greift er auf ein Datenmodell zu, das über neun Monate trainiert wurde. Doch zur Beantwortung der konkreten Frage durchforstet er das Datenmodell und stellt die bestmögliche Antwort zusammen. Diesen Prozess nennt man “Inferenz”. Das Modell verfeinert die Antwort, daher können die User auf die gleiche Frage später eine unterschiedliche Antwort erhalten, also stets eine Weiterentwicklung.

Diese Inferenz ist ebenfalls sehr rechenintensiv und es ist vorteilhaft, spezielle Chips für diese Anwendung zu optimieren. Jedoch im Vergleich zum Training ist diese Rechenoperation minimal. Daher sagt Jensen Huang bei jeder Gelegenheit, er begrüße die Entwicklung unternehmenseigener KI-Chips. Denn damit sind die Inferenz-Chips gemeint, nicht die Trainings-Chips. Und je mehr Inferenz-Chips entwickelt werden, desto stärker werden sich KI-Angebote verbreiten. Doch jedes KI-Angebot benötigt zunächst einmal eine KI, die auf Nvidia-GPUs wie der H100 oder H200 oder später auf der H300 trainiert wird.

Je mehr Unternehmen also die Entwicklung eigener KI-Chips ankündigen, desto mehr Nvidia-Chips werden nachgefragt. Wer sich nicht ein wenig mit diesem Sachverhalt beschäftigt hat, der sieht jeden neu entwickelten “KI-Chip” als Konkurrenz für Nvidia an. Doch das Gegenteil ist der Fall. 

Der bisher größte Kunde von Nvidia ist unser Depotwert Meta. Mark Zuckerberg kaufte 24.000 H100 GPUs von Nvidia, um seine ausgelieferte Werbung und seine Vorschläge auf Facebook und insbesondere Instagram zu verbessern. Er nutzt KI-Modelle, die das Vorschlagswesen optimieren. Seit einigen Quartalen liefert Meta kontinuierlich bessere Zahlen ab als von Analysten im Vorfeld erwartet werden. Eine H100 GPU kostet rund 40.000 Dollar. Multipliziert mit der gekauften Stückzahl ergibt das knapp eine Milliarde Dollar an Nvidia gezahlt hat, um überhaupt erst einmal die erforderliche Basis-Hardware für KI-Modelle zu haben.

Nun wurde bekannt, dass Tesla bereits 35.000 H100 GPUs gekauft hat. Das sind summa summarum 1,4 Milliarden Dollar. Das Geschäft mit der Automobilbranche werde für Nvidia lauf Jensen Huang im laufenden Jahr ein Umsatz von 1,4 Milliarden erwirtschaften. Wir sehen, also dass Nvidia volle Auftragsbücher hat. Und für das kommende Jahr erwarte er eine Umsatzverdopplung. Und mittelfristig werde die Automobilbranche also nicht nur Tesla zum wichtigsten Kunden von Nvidia heranwachsen, so Huang. Die Prognose wird durchaus noch Raum für weitere Steigerungen lassen, können wir da durchaus hinzufügen.

Aber wir wissen auch, dass der Zug mit den beiden erwähnten Werten Tesla und Meta noch nicht voll besetzt ist. Amazon, Oracle, Dell und auch Snowflake investieren stark in den Ausbau von KI-Rechenzentren. Nicht jedes Unternehmen kann sich die Investition in die Nvidia-Chips leisten. Doch jedes Unternehmen hat unzählige unternehmenseigene Daten, aus denen man gerne die besten Interpretationen ableiten möchte. Und natürlich dürfen die Ergebnisse nicht für die Konkurrenz verfügbar sein, daher ist jedes Unternehmen gezwungen seine KI zu entwickeln. Das Trainieren einer eigenen KI auf gemieteten KI-Rechenzentren wird ein neuer Zukunftsmarkt. Wir können uns vorstellen, dass die Anbieter einer solchen Dienstleistung heute schon jeden Chip von Nvidia erwerben wollen, sofern es diese noch auf dem Markt sind. Der Preis bestimmt auch hier den Markt.

Bis jetzt haben wir nur von Unternehmen gesprochen, aber es gibt auch Staaten, die ihre eigenen KI-Daten auswerten. Und diese werden bestimmt nicht auf gemietete Trainingszentren zurückgreifen. Da will schon jeder Staat sein eigenes Ding machen. Und das bedeutet noch mehr Nachfrage. Allerdings wird die Nachfrage erst langsam anlaufen, denn es sind Beamte / Politiker die darüber entscheiden. Das kann zwar etwas träge starten, doch dürfte der Absatz von Nvidia-Chips auf absehbare Zeit nur durch die Verfügbarkeit gebremst werden, nicht durch die Nachfrage.