Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super



Newsmeldung von slashCAM:



Schon länger wollen ein paar übliche Verdächtige gehört haben, dass Nvidia zur Consumer Electronics Show CES am 8. Januar drei neue Grafikkarten der Oberklasse vorstellen...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super


Space


Antwort von iasi:

16 GB DDR RAM über 256 Bit
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.

Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.

Space


Antwort von medienonkel:

Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
Immerhin wird hier die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten, die Xeons oder AMD nicht bieten.
Performance auf dem Niveau einer 4060 aber mit 16GB Speicher.

Stable Diffusion läuft Dank optimierter Modelle auch immer effizienter.

Und alles für weit unter 400 Euro.

https://www.mindfactory.de/product_info ... 10980.html

Space


Antwort von Jörg:

iasi gefangen in der Zeitschleife...
Zu jeder Neuankündigung von Nvidia befindet er sich in diesem Dilemma:
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.
OK.OK, Weihnachten wiederholt sich ebenfalls jährlich

Space


Antwort von iasi:

Jörg hat geschrieben:
iasi gefangen in der Zeitschleife...
Zu jeder Neuankündigung von Nvidia befindet er sich in diesem Dilemma:
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.
OK.OK, Weihnachten wiederholt sich ebenfalls jährlich
Nvidia steckt in der Zeitschleife fest - und ich mit Nvidia.

Nur der Jörg feiert die Speicheraustattung und Anbindung von Nvidia-Karten.

Solange es Leute gibt, wie Jörg, die sich auch 2023 nicht an 12GB mit 192Bit-Anbindung stören, kann Nvidia auch weiterhin bei den Speichern sparen und sich für 16GB bei einer "Super" feiern lassen.
Zumindest die Nvidia-Aktionäre machen die Jörgs dieser Welt glücklich. :)

Space


Antwort von pillepalle:

Denke mal das ist ein Tippfehler im Beitrag. Die 4070 hat bereits 12GB und 192Bit. Die Super Karten haben normalerweise 256Bit und demnach müsste die 4070 Super 12GB und 256Bit haben. Für 600-650,-€ wäre das zwar nicht super, aber doch ganz ok.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
Denke mal das ist ein Tippfehler im Beitrag. Die 4070 hat bereits 12GB und 192Bit. Die Super Karten haben normalerweise 256Bit und demnach müsste die 4070 Super 12GB und 256Bit haben. Für 600-650,-€ wäre das zwar nicht super, aber doch ganz ok.

VG
Eher kein Tippfehler:
Von den 16GB sind 4 lahmgelegt und dadurch nicht angebunden.

Space


Antwort von pillepalle:

@ iasi

Nee... Ich habe eine 2060 super mit 8GB und 256Bit. Die Super Karten haben nach der Nvidia Nomenklatur immer 256Bit gehabt. Die Specs die sie angegeben haben sind die von der 4070 die man jetzt schon bekommt.

VG

Der Inder hier gibt einen ganz guten Überblick für wen sich welche Karten lohnen.

https://youtu.be/5oOlt3YDMmY?si=5KLPPr8 ... z8&t=1m30s

Space


Antwort von Jörg:

ach iasi, diesen dummsprech wirst du wohl nie lassen, ist wohl ne fehlerhafte zerebrale Speicheranbindung ;-((
macht nix, fürs Forum spielt es keine Rolle, man kennt sich...
Solange es Leute gibt, wie Jörg, die sich auch 2023 nicht an 12GB mit 192Bit-Anbindung stören was sollte mich daran stören?
Gibt genug Leute die damit zufrieden sind.
Damit du die keine Gedanken machen musst, womit der Jörg zufrieden ist...
Nvidia.JPG schönen 3. Advent

Space



Space


Antwort von MK:

medienonkel hat geschrieben:
Performance auf dem Niveau einer 4060 aber mit 16GB Speicher.
Naja... statische Benchmarks sagen etwas Anderes, und dazu noch der fast doppelt so hohe Stromverbrauch. Zudem sollte man sich mal überlegen warum die Arc in allen DirectX-Versionen außer DirectX 12 so dermaßen abkackt, von GPU Compute erst gar nicht zu reden...

Intel Arc A770:
https://www.videocardbenchmark.net/gpu. ... 70&id=4605

NVIDIA RTX 4060:
https://www.videocardbenchmark.net/gpu. ... 60&id=4850

Space


Antwort von MK:

Letztlich ist es nur die bessere Hardwareunterstützung durch die Software Seit Jahrzehnten, so ein Pech...

Space


Antwort von iasi:

MK hat geschrieben:
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software Seit Jahrzehnten, so ein Pech...
Die Pluralform ist nicht ganz passend, denn CUDA gibt´s erst seit 2007.

Space


Antwort von DAF:

medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)

Space


Antwort von iasi:

DAF hat geschrieben:
medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)
Eher nicht, denn die Treiber kommen sich dann gegenseitig in die Quere.
Und die Software müsste dann CUDA und OpenGL parallel ansprechen.

Aber vielleicht irre ich mich und es gibt doch einen Weg.

Space


Antwort von DAF:

iasi hat geschrieben:
...
Eher nicht, denn die Treiber kommen sich dann gegenseitig in die Quere.
...
Die beiden Treiber tun das nicht. Funktioniert bei mir wunderbar:

2xGraKa.jpg

Space


Antwort von dienstag_01:

DAF hat geschrieben:
medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)
Wahrscheinlich wird man dann merken, dass man die Nvidia gar nicht braucht ;)

Space


Antwort von medienonkel:

Kommt ja alles immer aufs Nutzungsszenario an.

Die DX12 Problematik der arcs betrifft ja nur Gamer. Kenne keine Mainstream Software für kreative, die noch DX9 zwingend bräuchte.
Man kann problemlos Grafikkarten verschiedener Architektur miteinander ins System einbauenn. In der jeweiligen Applikation wählt man dann die entsprechende compute Einheit aus. Bei Cuda kann man oft auch die CPU mit einbinden.

Nvidia ist hier einfach die universelle Lösung, weil Cuda, OpenCL und tensflow unterstützt werden.

Man darf nicht außer acht lassen, dass arc Intels erste diskrete moderne GPU ist.

Dazu kommt, dass es nichts hilft eine 4070 mit 12 GB zu haben, wenn man 15 GB braucht und ständig mit OOM Fehlermeldungen genervt wird.

Wo bekomme man sonst 16GB für 320 Euro?
Bei KI Anwendungen ist der Speicher oft wichtiger, als die reine Rechenleistung.

Space


Antwort von MK:

Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...

Space



Space


Antwort von iasi:

MK hat geschrieben:
Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...
Hast du das schon mal durchgerechnet?

Die meiste Zeit langweilt sich die Grafikkarte selbst bei der Arbeit mit Resolve.
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.

Der Export, wenn dann wirklich mal kontinuierlich GPU-Leitung verlangt wird, macht nur einen kleinen Teil der Zeit aus, die es für die Post braucht.

Space


Antwort von TomStg:

MK hat geschrieben:
Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...
Solche Sprüche kommen bei den dumm-woken Sekten gut an, in der Realität macht man sich damit lächerlich.
Wer bei einer Grafikkarte (!) deren Stromverbrauch ins Kalkül zieht, sollte zuerst seine Waschmaschine, den Geschirrspüler und seinen Wasserkocher abschaffen.

Space


Antwort von klusterdegenerierung:

Bwuhaha, den ganzen Tag rödelt der Trockner & Waschmaschine, aber die 2 Handgroßen Lüfter auf der Graka ziehen einen in den Ruin. :-)

Space


Antwort von klusterdegenerierung:

Ich schätze mal das ich mit meiner 1080 immernoch alles schneiden kann was ich möchte, schreibe ich dem Umstand zu, das sich mein Rechner beim rendern in einem Paralleluniversum befindet wo andere Mindeststandards herschen, anders kann ich mir das nicht erklären das mein 4K selbst mit Denoisen noch gut abspielbar ist.

Meine neue Graka kommt def erst wenn Grakas wieder Preise wie Grakas haben und nicht wie ein gebrauchter Opel Astra mit 100T und Satz Winterreifen.

Space


Antwort von medienonkel:

Bei mir ist Stromverbrauch zumindest im Winter egal, weil ich dank Altbau eh mit Strom heize und momentan 350 Euro im Monat für Strom zahle...als bescheidener Singlehaushalt.

Für einmal duschen kann ich den großen Rechner 6 Stunden rendern lassen und nebenbei heizt er schön von unten das Bett vor 😉

Space


Antwort von MK:

TomStg hat geschrieben:
Solche Sprüche kommen bei den dumm-woken Sekten gut an
Wenn man sonst nichts zu melden hat beleidigt man halt... traurig.

Space


Antwort von MK:

klusterdegenerierung hat geschrieben:
Bwuhaha, den ganzen Tag rödelt der Trockner & Waschmaschine, aber die 2 Handgroßen Lüfter auf der Graka ziehen einen in den Ruin. :-)
Darum geht es hier doch gar nicht, aber wer den Preis einer Grafikkarte schönrechnen will sollte halt alle Faktoren ins Kalkül einbeziehen und keine Milchmädchenrechnung aufmachen.

Space


Antwort von MK:

iasi hat geschrieben:
Hast du das schon mal durchgerechnet?

Die meiste Zeit langweilt sich die Grafikkarte selbst bei der Arbeit mit Resolve.
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.
Wenn man mit dem Stromverbrauch im Leerlauf rechnen ist die Leistung am Ende auch egal, dann tut es auch die Onboard-Grafikkarte...

Wie sich hier jetzt alle dreckig an der Bemerkung mit dem Stromverbrauch aufgeilen... wenn man lesen und verstehen könnte ging es um den hohen Stromverbrauch in Kombination mit der mauen Leistung...

Halbe Leistung bei doppeltem Stromverbrauch (auch hier natürlich unter Last, was juckt mich die Leistung und Verbrauch im Leerlauf), ach rechnet es Euch doch selber aus...

Space


Antwort von MK:

iasi hat geschrieben:
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.
RTX 3060 = Maximal unter Last 115 Watt

Arc A770 = Maximal unter Last 225 Watt

Bei halber Gesamtleistung wohlgemerkt, und jetzt bitte nicht einen Benchmark-Teilwert rauspicken bei dem die A770 noch halbwegs gut dasteht, das interessiert nicht.

Bei den CPUs sieht es ähnlich aus, bei vergleichbarer Gesamtleistung AMD 7950X3D unter Volllast 120 Watt, Intel i9-14900K unter Volllast 253 Watt.

Im übrigen gibt es nicht nur Resolve sondern auch Anwendungen bei denen die ganze Kiste Stunden oder gar Tage unter Volllast läuft...


Und nochmal: Es geht nicht um den Stromverbrauch an sich, ich habe jahrelang 25kWh - 30kWh am Tag verbraucht... aber der Verbrauch stand immer in Relation zu einer angemessenen Gegenleistung.

Space



Space


Antwort von medienonkel:

Mir ging es eigentlich darum, dass es für die aufgerufenen Preise schon lange keine Entschuldigung mehr gibt weniger als 16 GB GPU Speicher zu verbauen.

Für 1200 Euro sollten es mindestens 24 sein. Oder verschenkt Intel die GPUs?

Space


Antwort von MK:

klusterdegenerierung hat geschrieben:
Ich schätze mal das ich mit meiner 1080 immernoch alles schneiden kann was ich möchte
Was nicht verwunderlich ist da die 2016 auf den Markt gekommene 1080 (ohne Ti) bis auf die geringere DirectX 12 Performance und die "nur" 8GB Speicher die A770 leistungstechnisch in allen anderen Disziplinen immer noch zum Frühstück vernascht...

https://www.videocardbenchmark.net/gpu. ... 80&id=3502

Space


Antwort von MK:

medienonkel hat geschrieben:
Für 1200 Euro sollten es mindestens 24 sein. Oder verschenkt Intel die GPUs?
Bei den Preisen für GDDR Speicher müsste es auch Karten mit 100 Gigabyte aufwärts geben...

Space


Antwort von MK:

Und zu den aktuellen Grafikkartenpreisen... wer nichts auf der Naht hat aber 16GB und mehr als die doppelte Gesamtleistung der Arc A770 möchte, kann sich eine RX 6800 für rund 420 oder eine RTX 4060 Ti für 450 holen...

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Nvidia RTX 4070 Ti ab 5. Januar verfügbar - 40 TFlops, aber nur 500 GB/s
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Viele neue Nvidia GPUs im Januar - RTX3080 Ti und RTX3060/3050Ti/3050
MSI: Laptop Update bringt Nvidia GeForce RTX Super GPUs und neue Intel CPUs
Nvidia RTX 4080/90 Preissenkung, Konkurrent AMD RX 7900 XT(X) startet in Kürze
Nvidia RTX 4070 wird ausgeliefert - Gute Leistung, aber höhere Preise für die Mittelklasse
RTX 3080 Ti vs RTX 4070 for video editing
Neue Nvidia GPUs für Notebooks ab 800 Euro: GeForce RTX 3050/3050 Ti
Zahlreiche neue Workstation GPUs von Nvidia - u.a. RTX A5500
Grafikkartenpreise fallen immer weiter - jetzt zuschlagen oder auf neue Nvidia RTX 4000 GPUs warten?
Günstige Video GPUs: AMD Radeon RX 5500 und Nvidia GeForce GTX 1660 SUPER
Alienware Area 51m R2 mobile Workstation mit neuen Intel CPUs und Nvidia Super GPUs
Gigabyter Aero Laptops mit neuen Intel Comet Lake-H CPUs und GeForce RTX Super GPUs
Acer: Upgrade für ConceptD Pro Serie mit Intel Alder Lake CPUs und Nvidia RTX-GPUs
Neue Nvidia NVIDIA RTX 2000 Ada für $625
Lenovo Yoga Pro 9i 16IRP8 - DaVinci Resolve Performance mit mobiler RTX 4070
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash