Nvidia: Was ist so gut am neuen KI-Superchip des Technologieunternehmens? | Technologiesektor

[ad_1]

Der Chiphersteller Nvidia hat seinen Vorsprung in der künstlichen Intelligenz mit der Vorstellung eines neuen „Superchips“, eines Quantencomputerdienstes und einer neuen Suite von Tools ausgebaut, die zur Entwicklung des ultimativen Science-Fiction-Traums beitragen sollen: humanoide Allzweckrobotik. Hier schauen wir uns an, was das Unternehmen tut und was das bedeuten könnte.

Was macht Nvidia?

Die wichtigste Ankündigung der jährlichen Entwicklungskonferenz des Unternehmens am Montag war die „Blackwell“-Serie von KI-Chips, mit denen die unglaublich teuren Rechenzentren betrieben werden, in denen Spitzen-KI-Modelle wie die neuesten Generationen von GPT, Claude und Gemini trainiert werden.

Einer davon, der Blackwell B200, ist ein recht einfaches Upgrade gegenüber dem bereits vorhandenen H100-KI-Chip des Unternehmens. Das Training eines riesigen KI-Modells in der Größe von GPT-4 würde derzeit etwa 8.000 H100-Chips und 15 Megawatt Leistung erfordern, sagte Nvidia – genug, um etwa 30.000 typische britische Haushalte mit Strom zu versorgen.

Mit den neuen Chips des Unternehmens würde derselbe Trainingslauf nur 2.000 B200 und 4 MW Leistung erfordern. Dies könnte zu einer Reduzierung des Stromverbrauchs der KI-Industrie führen oder dazu führen, dass in naher Zukunft derselbe Strom für den Betrieb viel größerer KI-Modelle verwendet wird.

Was macht einen Chip „super“?

Neben dem B200 kündigte das Unternehmen einen zweiten Teil der Blackwell-Reihe an – den GB200 „Superchip“. Es quetscht zwei B200-Chips auf einer einzigen Platine neben der Grace-CPU des Unternehmens zusammen, um ein System zu schaffen, das laut Nvidia „30-fache Leistung“ für Serverfarmen bietet, die Chatbots wie Claude oder ChatGPT ausführen, anstatt sie zu trainieren. Das System verspricht außerdem eine Reduzierung des Energieverbrauchs um das bis zu 25-Fache, so das Unternehmen.

Wenn man alles auf ein und demselben Brett zusammenfasst, verbessert sich die Effizienz, da die Zeit, die die Chips mit der Kommunikation untereinander verbringen, reduziert wird, sodass sie einen größeren Teil ihrer Verarbeitungszeit darauf verwenden können, die Zahlen zu ermitteln, die Chatbots zum Singen – oder zumindest zum Sprechen – bringen.

Huang stellt auf der Nvidia GTC-Konferenz neue Chipprodukte vor. Foto: Josh Edelson/AFP/Getty ImagesWas ist, wenn ich größer möchte?

Nvidia, das einen Marktwert von mehr als 2 Billionen US-Dollar (1,6 Billionen Pfund) hat, wäre sehr gerne bereit, diese bereitzustellen. Nehmen Sie den GB200 NVL72 des Unternehmens: ein einzelnes Server-Rack mit 72 B200-Chips, verbunden durch fast drei Kilometer lange Verkabelung. Das reicht nicht? Schauen Sie sich den DGX Superpod an, der acht dieser Racks in einem einzigen KI-Rechenzentrum in der Größe eines Versandcontainers in einer Box vereint. Der Preis wurde bei der Veranstaltung nicht bekannt gegeben, aber man kann mit Sicherheit sagen, dass man es sich nicht leisten kann, wenn man danach fragen muss. Selbst die Chips der letzten Generation kosteten stolze 100.000 US-Dollar pro Stück.

Überspringen Sie die Newsletter-Werbung

Anmelden für Geschäft heute

Machen Sie sich bereit für den Arbeitstag – wir verweisen Sie jeden Morgen auf alle Wirtschaftsnachrichten und Analysen, die Sie benötigen

Datenschutzhinweis: Newsletter können Informationen über Wohltätigkeitsorganisationen, Online-Anzeigen und von Dritten finanzierte Inhalte enthalten. Weitere Informationen finden Sie in unserer Datenschutzerklärung. Wir verwenden Google reCaptcha zum Schutz unserer Website und es gelten die Datenschutzbestimmungen und Nutzungsbedingungen von Google.

Huang enthüllt Details zu Nvidias „Blackwell“-Plattform. Foto: Justin Sullivan/Getty ImagesWas ist mit meinen Robotern?

Das Projekt GR00T – offenbar nach Marvels baumartigem Alien benannt, aber nicht explizit damit verbunden – ist ein neues Basismodell von Nvidia, das zur Steuerung humanoider Roboter entwickelt wurde. Ein Basismodell wie GPT-4 für Text oder StableDiffusion für die Bildgenerierung ist das zugrunde liegende KI-Modell, auf dem spezifische Anwendungsfälle aufgebaut werden können. Sie sind der teuerste Teil des gesamten Sektors, aber sie sind der Motor aller weiteren Innovationen, da sie später auf bestimmte Anwendungsfälle „feinabgestimmt“ werden können.

Nvidias Basismodell für Roboter wird ihnen dabei helfen, „natürliche Sprache zu verstehen und Bewegungen nachzuahmen, indem sie menschliche Handlungen beobachten – und so schnell Koordination, Geschicklichkeit und andere Fähigkeiten erlernen, um in der realen Welt zu navigieren, sich anzupassen und mit ihr zu interagieren“.

GR00T paart sich mit einem weiteren Stück Nvidia-Technologie (und einer weiteren Marvel-Referenz) in Jetson Thor, einem System-on-a-Chip, das speziell als Gehirn eines Roboters entwickelt wurde. Das ultimative Ziel ist eine autonome Maschine, die mithilfe normaler menschlicher Sprache angewiesen werden kann, allgemeine Aufgaben auszuführen, auch solche, für die sie nicht speziell trainiert wurde.

Ein Roboter betritt die Bühne der Nvidia GTC-Konferenz. Foto: Josh Edelson/AFP/Getty ImagesQuantum?

Einer der wenigen geschäftigen Bereiche, in denen Nvidia nicht aktiv ist, ist das Quanten-Cloud-Computing. Die Technologie, die immer noch auf dem neuesten Stand der Forschung ist, wurde bereits in Angebote von Microsoft und Amazon integriert, und jetzt kommt auch Nvidia ins Spiel.

Aber Nvidias Cloud wird nicht wirklich mit einem Quantencomputer verbunden sein. Stattdessen handelt es sich bei dem Angebot um einen Dienst, der mithilfe seiner KI-Chips einen Quantencomputer simuliert und es Forschern so im Idealfall ermöglicht, ihre Ideen zu testen, ohne die Kosten für den Zugriff auf das (seltene, teure) echte Ding auf sich nehmen zu müssen. Aber auf lange Sicht werde Nvidia über die Plattform Zugang zu Quantencomputern von Drittanbietern ermöglichen, hieß es.

[ad_2]

Source link