Auf der Computex 2025 in Taipei und im Rahmen der Microsoft Build 2025 haben NVIDIA und Microsoft eine Reihe technischer Neuerungen vorgestellt, die den Ablauf von KI-Entwicklung und -Bereitstellung sowohl auf lokalen Windows RTX AI PCs als auch in der Azure-Cloud optimieren.
RTX AI PCs und Entwickler-Tools
TensorRT für RTX AI PCs wurde grundlegend überarbeitet und unterstützt jetzt den Aufbau einer Just-in-Time-Engine auf dem Gerät, was die Inferenzleistung von KI-Modellen binnen Sekunden verbessert. Durch ein neues Packaging konnte die Dateigröße um den Faktor acht reduziert werden. Zudem ist TensorRT für RTX ab sofort in der Windows ML Preview integriert und wird im Juni als eigenständiges SDK über NVIDIA Developer verfügbar sein. Windows ML stellt eine standardisierte API bereit, die von NVIDIA optimierte Beschleunigung nutzt und eine nahtlose Modellimplementierung auf unterschiedlicher Hardware ermöglicht. Kreativanwendungen wie Autodesk, Chaos und Topaz führen bereits RTX-basierte Funktionen ein. Der FLUX.1-Imagegenerator von Black Forest Labs wird als NVIDIA NIM Microservice angeboten und in einer aktualisierten Dev-Version für mehrere RTX-GPUs optimiert. Zusätzlich erleichtert der Open-Source-basierte Project G-Assist Plug-in Builder das Erstellen lokaler Plug-ins, wobei Musterprojekte auf GitHub bereitstehen und der NVIDIA Developer Discord Channel zur Kollaboration einlädt.
KI in Gaming und Grafik
DLSS 4 ist inzwischen in über 125 Spielen und Anwendungen implementiert. Zehn neue Titel – darunter F1® 25, Portal with RTX und Splitgate 2 – unterstützen die neueste Generation der Frame-Interpolation. DOOM: The Dark Ages soll im Juni um Pathtracing und DLSS Ray Reconstruction ergänzt werden. Parallel dazu hat NVIDIA die Verfügbarkeit von GeForce RTX 5060 Desktop- und Laptop-GPUs angekündigt. Mit dem Start eines 50.000-Dollar RTX Remix Mod Contests wird zudem die Community-Entwicklung gefördert. In Portal with RTX kommen künftig Multi Frame Generation und der RTX Neural Radiance Cache zum Einsatz, um die Grafikqualität weiter zu steigern.
KI-Plattform und Microservices
NVIDIA NIM Microservices wie FLUX.1, BioNeMo und ALCHEMI lassen sich nun sowohl lokal auf RTX AI PCs als auch in Azure schneller testen und bereitstellen. In Azure Discovery werden die Microservices ALCHEMI und BioNeMo integriert, um Material- und Wirkstoffforschung zu beschleunigen. Azure AI Foundry bietet ab sofort containerisierte Inferenzen mit NVIDIA Llama Nemotron Open Reasoning-Modellen und BioNeMo-Services für spezialisierte Health- und Enterprise-Szenarien. Microsoft setzt dafür zehntausende NVIDIA GB200 NVL72 Rack-Scale-Systeme in seinen Azure-Rechenzentren ein.
Den Vortrag von NVIDIA-CEO Jensen Huang zur Computex 2025 kann man als Mitschnitt auf der NVIDIA-Eventseite abrufen.