DayFR Deutsch

Nvidia sagt, dass die Entwicklung seiner Chips weit über das Mooresche Gesetz hinausgegangen sei

-

In der High-Tech-Welt gibt es ein merkwürdiges Phänomen. Alle zwei Jahre verdoppelt sich die Anzahl der Transistoren eines Mikroprozessors bei konstanten Kosten. Ungeachtet des technologischen Fortschritts wurde das Tempo beibehalten, und das schon seit mehr als sechzig Jahren. Dieses Phänomen PortePorte der Name „Moores Gesetz“, nach der Vorhersage von Gordon E. Moore aus dem Jahr 1965.

Für Jensen Huang, Präsident von Nvidia, würde Moores Gesetz jedoch nicht mehr für Chips gelten, die das Unternehmen für künstliche Intelligenz entwickelt hat, da diese sich viel schneller weiterentwickeln würden. Während seiner Keynote bei Consumer Electronics Show à la Las VegasVegas (CES 2025) sagte der Mann: „ Unsere Systeme entwickeln sich viel schneller als das Mooresche Gesetz. » Die letzte Kugel für RechenzentrenRechenzentren denn der Betrieb großer Sprachmodelle wäre 30-mal schneller als bei der Vorgängergeneration.

Verfolgen Sie Jensen Huangs vollständige Keynote auf der CES 2025. (Auf Englisch aktivieren Sie die automatische Übersetzung von Untertiteln.) © Nvidia

Eine Leistungssteigerung für künstliche Intelligenz

« Wir können die Architektur, den Chip, das System, die Bibliotheken und die Algorithmen gleichzeitig erstellenfügte Jensen Huang hinzu. Wenn Sie das tun, können Sie schneller vorankommen als das Mooresche Gesetz, denn Sie können in der gesamten Produktionskette Innovationen einführen. » Er hatte unter anderem bereits vorgeschlagen, eine „ Moores Hypergesetz „, wo Inferenz, mit anderen Worten das tägliche Funktionieren der KI im Gegensatz zu ihrem Training, eine ähnliche Entwicklung durchlaufen würde. Eine Leistungssteigerung verringert die Inferenzkosten.

Nvidias neuer Chip ist der GB200 NVL72, der erstmals im März 2024 angekündigt wurde. Er basiert auf der Blackwell-Architektur, die auch für den neuen verwendet wurde GrafikkartenGrafikkarten RTX 50-Serie und ersetzt die H100- und H200-Chips basierend auf der Hopper-Architektur. Der GB200 NVL72 wäre für Inferenzaufgaben 30 bis 40 Mal schneller und 1.000 Mal schneller als Chips, die der Hersteller vor einem Jahrzehnt hergestellt hat.

Für Jensen Huang wird diese Beschleunigung, die viel schneller ist als das Mooresche Gesetz vorhersagt, die Betriebskosten von KI senken, insbesondere für anspruchsvollere Modelle wie o3 von OpenAI, die während der Inferenzphase viel Rechenleistung benötigen.

Related News :