Nvidia CEO Jensen Huang spricht über Chips, GPUs, Metaverse • The Register

2022-10-22 18:34:31 By : Ms. Shirley Q

GTC Nvidia hat seine Abkehr von der primären Betonung seines Consumer-GPU-Geschäfts, das es auf den breiteren Markt gebracht hat, fortgesetzt und konzentriert sich stattdessen auf seiner GPU-Technologiekonferenz, die diese Woche stattfindet, auf neue Geschäftsmöglichkeiten.Während der Hauptrede stellte Nvidia-CEO Jensen Huang große Pläne vor, um Kreationen im Omniversum aufzustellen – mehr Design und Tests in der virtuellen Realität als ein weiterer Versuch in Second Life – unter Verwendung einer Reihe von Hardwaregeräten und Softwareplattformen, von den Hopper-GPUs, Grace CPUs, ein überarbeiteter Netzwerkstapel und Softwaretools.Huang betonte Nvidias Rolle als diversifiziertes Unternehmen mit Beteiligungen an künstlicher Intelligenz, Supercomputing, Gesundheitswesen, Automobilen und Software durch seine Technologien.„In den letzten zehn Jahren lieferte Nvidia Computing eine 1.000.000-fache Geschwindigkeit in der KI und startete die moderne KI-Revolution.Jetzt wird KI alle Branchen revolutionieren“, sagte er zum Auftakt der Konferenz.CEO Jensen legt seine Pläne dar ... Quelle: Nvidia.klicken um zu vergrößernEs war ein nicht triviales Jahr für Nvidia: Der Plan, Arm zu übernehmen, wurde verworfen, und Schurken brachen in die Netzwerke von Nv ein und stahlen und veröffentlichten interne Dateien, um das Unternehmen unter anderem dafür zu bestrafen, dass es das Krypto-Mining auf seinen GPUs einschränkte.Aber eine neue Unternehmens-GPU und ein ehrgeiziger ARM-basierter Prozessor blieben nach wie vor die Hauptstütze von Huangs charakteristischer Langform-Keynote, die wie immer voller Ankündigungen und Demonstrationen war.Hier ist ein Überblick über die Ankündigungen.Die auf Rechenzentren ausgerichtete Hopper-Architektur wird die Vorgängerarchitektur namens Ampere ablösen, die sowohl im professionellen als auch im Verbraucher-GPU-Markt eingesetzt wurde.Die H100-GPU ist das erste Silizium, das auf Hopper basiert.Es ist auf Anwendungen ausgerichtet, die KI, Supercomputing und 3D-Universen wie das Metaverse umfassen.Der H100 ist ein 80-Milliarden-Transistor-Chip und wird im 4-nm-Prozess von TSMC hergestellt.Laut Huang bietet der Hopper H100 eine neunfache Steigerung der Trainingsleistung gegenüber Nvidias A100 und einen dreißigmal höheren Inferenzdurchsatz bei großen Sprachmodellen.Der H100 ist der erste PCIe Gen-5 und High-Bandwidth Memory 3 (HBM3) GPU mit 40 Terabit pro Sekunde I/O-Bandbreite, sagte Huang.„Zwanzig H100 können das Äquivalent des gesamten Internetverkehrs der Welt aufrechterhalten“, behauptete Huang.Die GPU verfügt über KI-Engines für Transformatoren, um die Trainingszeit von Wochen auf Tage zu verkürzen.Es hat auch einen neuen Satz von Anweisungen namens DPX für die dynamische Programmierung, die komplexe Algorithmen wie die Proteinfaltung bis zu 40-mal beschleunigen, wird uns gesagt.Huang kündigte außerdem den Grace CPU Superchip an, den ersten Rechenzentrums-Anwendungsprozessor des Unternehmens für High-Performance-Computing.Grace ist eine 144-CPU-Core-Komponente, die aus zwei Arm-basierten Prozessoren besteht, die innerhalb derselben Einheit über die neue NVLink-Chip-zu-Chip-Verbindungstechnologie von Nvidia miteinander verbunden sind, und sie wird 1 TB LPDDR5x-Speicher unterstützen.Grace wird eine geschätzte SPEC 2017-Benchmark-Rate von 740 haben, was „nichts annähernd mit dem ist, was heute ausgeliefert wird“, argumentierte Huang.„Das Erstaunliche ist, dass das gesamte Modul einschließlich 1 TB Speicher nur 500 Watt verbraucht.Wir erwarten, dass der Grace Superchip die höchste Leistung und die doppelte Energieeffizienz der damals besten CPU bietet“, fügte er hinzu.Der Grace Superchip wird den bereits angekündigten Grace Hopper Superchip ergänzen, der einen Grace-CPU-Prozessor und eine Hopper-GPU in einer einzigen, über NVLink verbundenen Einheit kombiniert.Dieser Chip ist für groß angelegte KI- und HPC-Anwendungen ausgelegt.Die neuen GPU- und CPU-Chips sind wichtige Bestandteile der Bemühungen des Unternehmens, KI-fokussierte Computer und die grafische Installation für ein Metaverse durch Hardware und Software zu entwickeln.Huang brachte die Idee von „KI-Fabriken“ auf den Weg, die auf der Hopper-GPU und ihrer anderen selbst entwickelten Hardware aufgebaut sind, womit er anscheinend meinte, dass Unternehmen die Ausrüstung verwenden können, um Modelle für maschinelles Lernen aus ihren Datensilos herzustellen.Man hofft, dass diese Modelle Mitarbeitern und Führungskräften helfen können, bessere Geschäftsentscheidungen zu treffen und Einsparungen zu erzielen, insbesondere wenn diese Unternehmen ihre Rechenleistung erhöhen.„KI-Anwendungen wie Sprache, Konversation, Kundenservice und Empfehlungsdienste treiben grundlegende Veränderungen im Rechenzentrumsdesign voran.KI-Rechenzentren verarbeiten Berge kontinuierlicher Daten, um KI-Modelle zu trainieren und zu verfeinern.Rohdaten kommen herein, werden verfeinert und Informationen gehen raus“, sagte Huang.Der CEO von Nvidia erläuterte auch die neue NVLink-Verbindung, die für Grace und Hopper verwendet wird und zur Verbindung zukünftiger Nvidia-Chips, einschließlich CPUs, GPUs, DPUs und SoCs, verwendet wird.Das Unternehmen öffnet NVLink auch für Partner, die mit der Technologie kundenspezifische Chips herstellen möchten.Nv kündigte auch neue Supercomputer mit der H100-GPU an: DGX H100 mit acht H100, 32 Petaflops KI-Leistung bei FP8-Präzision, 640 GB HBM3-Speicher und 24 Terabyte pro Sekunde Speicherbandbreite.Das Unternehmen kündigte auch den DGX Pod und den DGX SuperPOD an.Nvidias Folie zur DGX H100GTC enttäuscht selten für das Supercomputing-Set.Nvidia kündigte einen neuen Supercomputer an, der auf seiner neuen Hardware namens EOS basiert, die Huang Nvidias „erste Hopper-KI-Fabrik“ nannte.Das System liefert 275 Petaflops FP64-Leistung (doppelte Genauigkeit wie bei den meisten HPC-Anwendungen) und für AI 18,4 Exaflops bei FP8 oder 9 EFLOPS bei FP16.Der Supercomputer wird in ein paar Monaten auf den Markt kommen und eher ein Schaufenster der H100-Hardware für Kunden sein, zu denen alle großen OEMs gehören, sagte Huang.Ein Großteil der Keynote konzentrierte sich auf das Omniverse, die Plattform des Unternehmens zum Aufbau paralleler 3D-Universen.Die meisten GPUs, Software-Stacks und KI-Modelle von Nvidia für grafikgesteuerte Schnittstellen kommen in Omniverse zusammen, der Plattform des Unternehmens zur Bereitstellung einer 3D-Version des Internets.Nvidias Full-Speed-Ansatz für eine Metaverse-ähnliche Zukunft steht im Gegensatz zu den Konkurrenten Intel, Qualcomm und AMD, die das Konzept mit Vorsicht angehen, da es von Kritikern bereits als Vaporware abgetan wird.Die Keynote hob mehrere laufende Omniverse-Bemühungen hervor, darunter das virtuelle Testen von Robotern in einem 3D-Raum und die Simulation des globalen Klimawandels mit Earth-2, einem von Nvidia gebauten Supercomputer.„Wissenschaftler sagen voraus, dass ein Supercomputer benötigt wird, der milliardenfach größer ist als der heutige, um den regionalen Klimawandel effektiv zu simulieren. Dennoch ist es von entscheidender Bedeutung, jetzt die Auswirkungen unserer industriellen Entscheidungen und die Wirksamkeit von Minderungs- und Anpassungsstrategien vorherzusagen“, sagte Huang.Earth-2 ist der „weltweit erste KI-Supercomputer mit digitalen Zwillingen und erfindet neue KI- und Computertechnologien, um uns einen 1.000.000.000-fachen Schub zu geben, bevor es zu spät ist“, behauptete Huang.Schlussfolgerungen aus diesen Modellen basieren auf Wahrscheinlichkeiten, die von künstlichen Intelligenzmodellen bestimmt werden, die auf Nvidias GPUs laufen.Für Omniverse kündigte Huang die Nvidia OVX-Systeme an, die groß angelegte Simulationen mit mehreren Systemen ausführen werden, die in Echtzeit direkt miteinander interagieren.Die OVX-Hardware wird durch eine 400-Gbit/s-Netzwerkplattform namens Spectrum-4 verankert, die eine Switch-Familie, die ConnectX-7 SmartNIC, die BlueField-3-Datenverarbeitungseinheit und die DOCA-Rechenzentrumsinfrastruktursoftware umfasst.Die Spectrum-4-Plattform verfügt über 100 Milliarden Transistoren und wird im 4-nm-Prozess von TSMC hergestellt.Nvidias Folie mit den Spezifikationen und dem Rendering seiner ConnectX-7 SmartNICDas Unternehmen kündigte auch die Omniverse Cloud für diejenigen an, die sich die Hardware nicht leisten können, aber für das Metaversum erstellen möchten.Nvidia kündigte einen Computer für Autos namens Hyperion 9 an, der das System Drive Atlan auf dem Chip hat.Das soll doppelt so schnell sein wie heutige Hyperion-8-Rechner auf Basis des Orin-SoC, heißt es.Die Hyperion 9-Computer mit dem neuesten Silizium werden 2026 ausgeliefert.Hyperion 9 kann 14 Kameras, 9 Radare, 3 Lidars und 20 Ultraschallsensoren betreiben und im Vergleich zu Hyperion 8 die doppelte Menge an Sensordaten verarbeiten, sagte der CEO.In der Zwischenzeit werden Hyperion 8-Computer ab 2024 in Fahrzeugen von Mercedes-Benz und im folgenden Jahr in Fahrzeugen von Jaguar Land Rover eingesetzt.Nvidia hat zuvor geschätzt, dass etwa 10 Millionen Autos mit Hyperion 8-Computern auf die Straße kommen werden.Nvidia erwartet Einnahmen aus Software-Updates für autonome Fahrzeuge und Hardware-Upgrades während der gesamten Lebensdauer eines Autos.Weitere Kunden für Drive-Computer sind der Elektrofahrzeughersteller BYD und Lucid Motors.Die Automotive-Pipeline von Nvidia ist in den nächsten sechs Jahren auf über 11 Milliarden US-Dollar gestiegen, sagte das Unternehmen.Das Unternehmen baut auch einen digitalen Zwilling im Maßstab der Erde für autonome Fahrsysteme, um ihn mit experimentellen Algorithmen und Designs zu erkunden und Software vor dem Einsatz in einer Flotte zu testen.Das System verwendet eine multimodale Karten-Engine, die eine genaue 3D-Darstellung der Welt erstellt.Die Karte wird in Omniverse geladen, das dann die Simulation des autonomen Fahrens ermöglicht, um Objekte, Straßenkreuzungen und Fußgänger zu identifizieren.Ziel ist es, KI-Modelle des autonomen Fahrens durch virtuelle Simulation genauer zu machen.„Jedes dynamische Objekt kann animiert oder einem KI-Verhaltensmodell zugewiesen werden“, bemerkte Huang.Er sprach auch darüber, wie Nvidia den Einsatz von KI in medizinischen Anwendungen über Clara Holoscan beschleunigt, eine Plattform, die ein Software-Entwicklungskit enthält.Die Holoscan-Entwicklungsplattform, die bereits ausgewählten Kunden zur Verfügung steht, wird im Mai allgemein verfügbar sein.Die „medizinische Bereitschaft“ von Holoscan wird im ersten Quartal 2023 erreicht.Auf der Roboterseite kündigte Huang die Hardware- und Softwareplattform Isaac Nova Orin an, die die Rechen- und Sensoranforderungen für die Entwicklung autonomer mobiler Roboter erfüllt.Die Plattform basiert auf dem Entwicklungsboard Jetson AGX Orin.Isaac konzentriert sich auf sich bewegende Roboter, während ein anderes Robotikangebot namens Metropolis auf die Entwicklung stationärer Maschinen abzielt, die sich bewegende Objekte verfolgen.Die autonome mobile Roboterplattform Nova wird im zweiten Quartal verfügbar sein, sagte Huang.Es verfügt über zwei Kameras, zwei Lidars, acht Ultraschallsensoren und vier Fischaugenkameras.Nvidia kann über seinen Isaac-SIM-Software-Stack bereits Robotertraining in virtuellen Umgebungen simulieren.Nvidia krönt seine Kronjuwelen an Chips mit einer ordentlichen Portion Software on top, von der sich das Unternehmen in Zukunft mehr Umsatz erhofft.Huang hob während der Keynote einige der Software-Bemühungen des US-Konzerns hervor, die 60 Software-Entwicklungskits und Framework-Updates umfassen.Die KI-Plattform von Nvidia, die von 25.000 Unternehmen weltweit genutzt wird, erhält Updates, darunter den Triton Inference Server, den Jensen als „Grand Central Station of AI Deployment Training“ bezeichnete und Modelle auf jeder Generation von Nvidia-GPUs, x86- und ARM-CPUs einsetzt.Zu den KI-Backends von Nvidia gehören Riva-, Maxine-, Nemo- und Merlin-Bibliotheken, bei denen es sich um spezialisierte Frameworks und vortrainierte Modelle handelt.Das Unternehmen kündigte die allgemeine Verfügbarkeit von Riva 2.0 an, das über eine Spracherkennung in sieben Sprachen und neuronale Text-to-Speech-Modelle mit männlichen und weiblichen Stimmen verfügt und auf das Tao-Toolkit des Unternehmens abgestimmt werden kann, das die Übertragung erlernter Funktionen ermöglicht bestehende neuronale Netze zu neuen.Das Unternehmen kündigte auch die Veröffentlichung der Version 1.0 von Merlin an, einem Framework zum Erstellen groß angelegter Deep-Learning-Recommender-Systeme.Das Unternehmen kündigte außerdem das AI Accelerated-Programm für Ingenieure an, um gemeinsam an der Entwicklung von KI-Lösungen zu arbeiten.Nvidia aktualisiert auch das NeMo Megatron-Framework zum Trainieren großer Sprachmodelle und das Maxine-Framework zur Verbesserung der Audio- und Videoqualität in Märkten, die Telekommunikation umfassen.Huang hat auch CuQuantum auf DGX für die Simulation von Quantencomputing über GPUs angepriesen.Er kündigte auch ein neues KI-Framework für die Entwicklung von 6G-Netzen an.®The Register - Unabhängige Nachrichten und Ansichten für die Tech-Community.Teil von Situation PublishingDie Hand beißen, die IT füttert © 1998–2022