enfrdepluk
Suche finde 4120  disqus socia  tg2 f2 lin2 in2 X-Symbol 3 y2  p2 Tik steam2

NVIDIA stellt DRIVE AGX Orin vor

Nvidia-Laufwerk AGX Orin 1

NVIDIA stellte heute NVIDIA DRIVE AGX Orin™ vor, eine fortschrittliche softwaredefinierte Plattform für autonome Fahrzeuge und Roboter.

Die Plattform basiert auf dem neuen System-on-Chip (SoC) von Orin, das aus 17 Milliarden Transistoren besteht und das Ergebnis einer Milliardeninvestition über einen Zeitraum von vier Jahren ist. Der Orin SoC basiert auf der NVIDIA-Grafikarchitektur der nächsten Generation und Arm-Hercules-CPU-Kernen sowie neuen Deep-Learning- und Computer-Vision-Beschleunigern, die zusammen 200 Billionen Operationen pro Sekunde ermöglichen – fast siebenmal mehr als der NVIDIA Xavier SoC der vorherigen Generation .

Der Orin SoC ist für die Handhabung einer Vielzahl von Deep-Learning-Anwendungen und Netzwerken konzipiert, die gleichzeitig in autonomen Fahrzeugen und Robotern laufen, und erfüllt die Sicherheitsanforderungen der ISO 26262 ASIL-D-Standards.

Als softwaredefinierte Plattform ist DRIVE AGX Orin darauf ausgelegt, architektonisch kompatible Plattformen zu schaffen, die von Stufe zwei bis Stufe fünf (die Stufe des völlig autonomen Fahrens) skaliert werden können und es OEMs ermöglichen, umfassende Familien von Softwareprodukten zu erstellen. Da sowohl Orin als auch Xavier mit offenen CUDA- und TensorRT-APIs und -Bibliotheken programmiert werden, können Entwickler ihre Tools über Produktgenerationen hinweg nutzen.

NVIDIA gewährt der Transportbranche Zugang zu seinen tiefen neuronalen Netzen, um autonome Fahrzeuge zu bauen.

NVIDIA gab heute bekannt, dass die Transportbranche ihre NVIDIA DRIVE™ Deep Neural Networks (DNNs) für autonome Fahrzeuge der Transportbranche über das NVIDIA Container Repository zur Verfügung stellt GPU Wolke (NGC).

NVIDIA DRIVE ist zum De-facto-Standard in der Entwicklung autonomer Fahrzeuge geworden und wird häufig von Pkw-, Lkw- und Robotaxi-Herstellern, Softwareentwicklern und Universitäten eingesetzt. NVIDIA stellt Entwicklern nun seine trainierten KI-Modelle und Trainingscodes zur Verfügung. Mithilfe der KI-Tools von NVIDIA können Entwickler diese Modelle anpassen und komplexer gestalten, um die Zuverlässigkeit und Leistungsfähigkeit ihrer selbstfahrenden Systeme zu erhöhen.

Die Ära der Konversations-KI beginnt mit der Veröffentlichung der neuen NVIDIA-Inferenzsoftware

NVIDIA hat heute eine Inferenzsoftware vorgestellt, die es Entwicklern ermöglicht, dialogorientierte KI-Anwendungen zu erstellen, die vollständig interaktive Erlebnisse ermöglichen.

NVIDIA TensorRT™ 7, das Inferenzsoftware-Entwicklungskit der siebten Generation, öffnet die Tür zu einer Welt fortschrittlicherer Mensch-KI-Interaktionen und ermöglicht Echtzeitanwendungen wie Sprachagenten, Chatbots und Empfehlungsdienste. Laut Juniper Research sind weltweit 3.25 Milliarden digitale Sprachassistenten im Einsatz. Bis 2023 wird diese Zahl auf 8 Milliarden anwachsen, was die Gesamtbevölkerung der Erde übertreffen wird.

TensorRT 7 enthält einen neuen Deep-Learning-Compiler, der die immer komplexer werdenden rekurrenten neuronalen Netze und Transformatornetze, die für Konversations-KI-Anwendungen benötigt werden, automatisch optimiert und beschleunigt. Es beschleunigt Konversations-KI-Komponenten im Vergleich zur CPU um mehr als das Zehnfache und reduziert die Latenz auf 10 ms. Und genau das ist die Schwelle, die für Echtzeitinteraktionen notwendig ist.