Keine RTX 4090 Ti

Wie Nvidia darauf reagieren könnte, führt uns noch zu einem letzten Gerücht: Angeblich hat Nvidia die RTX 4090 Ti gerade definitiv abgesagt. Bisher wurde immer ein Jahr nach Vorstellung des Topmodels eine weiter verbesserte Ti-Version auf den Markt geworfen - doch in diesem Jahr scheint Nvidia dies nun nicht mehr für notwendig zu halten. An einer nahenden RTX 50x0 Serie kann es übrigens nicht liegen. Nach allgemeiner Gerüchte-Lage ist deren Vorstellung noch mindestens ein Jahr entfernt. Vielmehr dürften die allgemein schwachen GPU-Verkaufszahlen sowie der schon aktuell fehlende Konkurrenzdruck von AMD im High End ein große Rolle bei dieser Entscheidung gespielt haben. Es ist daher auch stark anzunehmen, dass es Nvidia bei einer kommenden RTX 5090 ruhiger angehen wird und kaum die kostspieligen Entwicklungsmuskeln spielen lassen wird - solange man von AMD kein Konkurrenzprodukt im High End erwarten muss.




Mehr Leistung in der Cloud?

Wer als Videobearbeiter mehr Leistung braucht, kann in Zukunft immer noch auf die Cloud ausweichen. Denn hier wird es (auch dank der aktuellen KI-Aufrüstung) theoretisch skalierbare GPU-Leistung bis zum Abwinken geben.



Interessanterweise könnte AMD hierfür sogar die besseren Karten in der Hand haben, denn deren CDNA-Server Beschleuniger wie die kommende MI300 sind noch von Haus aus mit der x86-Architektur kompatibel, auf der auch ohne Modifikation PC-Standardsoftware in der Cloud laufen kann. Nvidia setzt dagegen mit seinen Datacenter-Hopper-Lösungen auf ARMs CPU-Architektur. Nvidias High End Server-Karten werden in der Cloud primär für KI-Training unter CUDA optimiert sein, können aber nicht ohne weiteres gängige Videobearbeitungssoftware wie Resolve ausführen. (Kleinere Cluster von Nvidia wird es jedoch sicherlich auch noch weiterhin mit x86-Architektur-Anbindung geben).



AMDs kommender Cloud-Beschleuniger MI300X
AMDs kommender Cloud-Beschleuniger MI300X




Aber ob aufwendige Videobearbeitung überhaupt in der Cloud mittelfristig ein Zuhause findet, bleibt sowieso ein sehr großes Fragezeichen. Schließlich dürfte es auch in den nächsten Jahren extrem unpraktisch bleiben, ein Petabyte 8K RAW-Daten für ein Filmprojekt in ein entferntes Rechenzentrum hochzuladen - um dort dann in einer Timeline mit komprimierter 8-Bit Echtzeitvorschau zu arbeiten. Denn eine hochauflösende, unkomprimierte und zugleich latenz-arme Vorschau in der Cloud funktioniert bis heute nicht wirklich. Vielleicht wird es jedoch üblich, einzelne Clips für aufwendige Effekte in die Cloud zum Background-Rendering zu schicken.



Bis auf weiteres scheint es jedenfalls praktikabler zu bleiben, die GPU-Rechenleistung unter dem eigenen Tisch zu verstauen. Glücklicherweise reicht für die meisten Projekte ja die Leistung einer aktuellen GPU oft noch gut aus. Zumindest bis die großen generativen KI-Modelle jenseits der 24GB die ersten Videoeffekte übernehmen werden...



Ähnliche Artikel //
Umfrage
    Meine nächste Kamera wird eine










    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash