Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Intel ARC A770 Desktop-Grafikkarte ab 12.Oktober für ca. 400 Euro im Handel



Newsmeldung von slashCAM:



Der bislang etwas holprige Start der Intel Desktop-Grafikkarten soll sich nun endlich in einer erhältlichen A770 manifestieren. Auf dem Intel Innovation 2022 Event bestät...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Intel ARC A770 Desktop-Grafikkarte ab 12.Oktober für ca. 400 Euro im Handel


Space


Antwort von Frank Glencairn:

"Im produktiven "Creator" Umfeld sollen die Intel Karten dagegen schon relativ zuverlässig arbeiten."

Ich frage mich welche und wie viele "produktive Creators" bereits seit ner Weile eine GPU im Einsatz haben, die erst in 2 Wochen auf den Markt kommt.

Und ja, sicher sind da schon irgendwelche Vorserien-Samples draußen, allerdings hab ich bisher noch keine real world Tests bei den üblichen Verdächtigen gesehen.

Space


Antwort von rudi:

Es gibt seit einiger Zeit in einigen Redaktionen direkt aus China importierte Arc A380 6GB Modelle, von denen man "hört", dass Intel mit den Treibern schon viel voranbringt. Obs am 12. Oktober dann für Premiere und Resolve schon reicht, interessiert mich selber sehr stark.

Space


Antwort von teichomad:

Endlich mal potente Grafikkarten zu normalen Preisen

Space


Antwort von Frank Glencairn:

Über die angebliche "Potenz" wissen wir in Wirklichkeit allerdings noch nix.

Space


Antwort von teichomad:

"Frank Glencairn" hat geschrieben:
Über die angebliche "Potenz" wissen wir in Wirklichkeit allerdings noch nix.
https://www.youtube.com/watch?v=X1WuYeQiSfU&t=606s

Space


Antwort von rudi:

Ich GLAUBE, die werden fürs Geld ne recht vernünftige Performance abliefern, aber erstmal eh kaum verfügbar sein. Könnte auch noch sein, dass die nicht gut mit AMD-CPUs laufen und wer ne Intel CPU nimmt, hat dann ja eh schon nen guten Hardware-Decoder unter Windows...

Space


Antwort von Frank Glencairn:

Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.

Space


Antwort von dienstag_01:

Wahrscheinlich wird Intel OpenCL nutzen. Das könnte den Vorteil haben, dass OpenCL auch in Davinci besser unterstützt wird, da nicht mehr nur AMD.
Könnte, wer weiß.

Space



Space


Antwort von teichomad:

"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?

Space


Antwort von MK:

Laut Intel geht bei fehlender Resizable BAR Unterstützung sehr viel Leistung verloren... heißt also im schlechtesten Fall neues Mainboard und CPU.

Gut für Leute die auf günstige Grafikkarten angewiesen sind...

Space


Antwort von MrMeeseeks:

teichomad hat geschrieben:
"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?
Weil Frank Glencairn die Werte nicht einordnen oder umrechnen kann. Keine Ahnung warum er da auch von "uns" spricht.

Space


Antwort von Frank Glencairn:

teichomad hat geschrieben:
"Frank Glencairn" hat geschrieben:
Spiele Benchmarks sind für uns jetzt nicht wirklich aussagekräftig.
warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.

Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.

Space


Antwort von teichomad:

"Frank Glencairn" hat geschrieben:
teichomad hat geschrieben:


warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.

Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Die Karte wird locker zum schneiden reichen. Kenne auch keine GPU die gametechnisch gut und für NLE nicht zu gebrauchen ist. Lasse mich aber gern eines besseren belehren. Über die Potenz weiß man jedenfalls mehr als "nichts".

Space


Antwort von MK:

Computing Leistung und Spiele Leistung korrelieren nicht... Von daher kann man das auch nicht einfach umrechnen.

Die GTX580 war damals beim Computing auch schneller als die GTX680 obwohl letztere in Spielen schneller war.

Space


Antwort von MrMeeseeks:

Natürlich kann man das umrechnen. Es gibt bereits Benchmarks zu den kleineren Modellen mit identischer Architektur. Wer nicht bereit ist 5 Minuten zu googeln, der brauch auch nicht so zu argumentieren als wären die Dinger ein Geheimnis.

Space


Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
teichomad hat geschrieben:


warum ?
Weil Spiele halt was völlig anderes sind als z.b. Resolve (allein Direct X vs. Cuda Optimierung).
Weder irgendwelche Spiele FPS noch Sachen wie Raytraycing, oder DLSS3 und ähnliches, die bei einem Spiel Vorteile bringen lassen sich mit den Anforderungen einer NLE vergleichen.

Aber unser Mr.Meeseeks wird uns sicher gerne mit seinen neuesten Umrechnungen erleuchten.
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.

Space



Space


Antwort von dienstag_01:

MK hat geschrieben:
dienstag_01 hat geschrieben:
Soll das heißen, dass die Hersteller Spielegrafikkarten mit tausenden Rechenkernen herstellen, die in Spielen dann ungenutzt im Tiefschlaf liegen ;)
Wenn das Spiel die Computing-Rechenkerne nicht nutzt ja... deswegen ist das mit der Umrechnung auch Quatsch da die Spieleleistung nicht mit der Computing-Leistung von CUDA/Open CL, etc. skaliert und andersrum genauso.
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)

Space


Antwort von dienstag_01:

MK hat geschrieben:
dienstag_01 hat geschrieben:
Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
PhysX verwenden auch nur eine handvoll Spiele... gibt es auch erst seit 15 Jahren bei Nvidia... ;-)
Wie auch immer, Parameter wie die Anzahl der Rechenkerne, der Takt und Breite der Anbindung sagen auf jeden Fall etwas über die Leistungsfähigkeit in NLEs/Resolve.
Bei Spielen ist das nicht viel anders.
Aber richtig ist, gerade bei einer völlig neuen GPU, dass man um einen Test mit den einschlägigen Videoanwendungen nicht herum kommt.

Space


Antwort von Frank Glencairn:

dienstag_01 hat geschrieben:

Ich kenne die Spiele da oben im Video nicht, aber kann mir kaum vorstellen, dass eins davon nicht die Rechenarchitektur der GPU nutzt.
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen. All diese Funktionen schlafen dann tatsächlich.

Natürlich kann man immer pauschal sagen - mehr Kerne, mehr Speicher, neuerer Speicher, neue Architektur, schnellere Anbindung etc sind immer schneller - oder in a nut shell: ne neue Karte (in der selben Liga) ist immer schneller als ne alte - dann bewegen wir uns allerdings im Bereich von Binsenweisheiten.

Hier reden wir ja eigentlich davon, wie ne völlig neue und unbekannte Architektur (die eventuelle Stärken bisher nur unter DirectX zeigen konnte) sich auf Cuda optimierten NLEs, im Vergleich zu nativen Cuda GPUs schlägt.

Space


Antwort von markusG:

"Frank Glencairn" hat geschrieben:
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.

Damit hätten wir aber auch schon das Problem: Optix und Cuda als proprietäre APIs, die für Intel (und halt davor AMD) unzugänglich sind. Doof wenn Sofware das aber voraussetzt. Hoffe dass mit Intel ausreichend Gegengewicht entsteht um daran etwas zu ändern.

Space


Antwort von dienstag_01:

markusG hat geschrieben:
"Frank Glencairn" hat geschrieben:
Eher umgekehrt, die NLEs können viele der typisch gamespezifischen Features - die in Spielebenchmarks immer fett Punkte bringen - wie PhysX, Raytracing, oder DLSS3 überhaupt nicht nutzen.
Mit OptiX findet Raytracing auch außerhalb von Spielen Verwendung. Und ja ich weiß, dass du nur NLEs erwähnt hast. Ist nur eine Ergänzung.

Damit hätten wir aber auch schon das Problem: Optix und Cuda als proprietäre APIs, die für Intel (und halt davor AMD) unzugänglich sind. Doof wenn Sofware das aber voraussetzt. Hoffe dass mit Intel ausreichend Gegengewicht entsteht um daran etwas zu ändern.
Oder es gibt halt ne dritte Architektur ;)

Space


Antwort von roki100:

Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.

Space


Antwort von dienstag_01:

roki100 hat geschrieben:
Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)

Space


Antwort von markusG:

dienstag_01 hat geschrieben:
Oder es gibt halt ne dritte Architektur ;)
Tatsache - haben sie wohl schon mit oneAPI, wenn ich das richtig verstehe^^
https://www.intel.com/content/www/us/en ... rview.html

Space



Space


Antwort von cantsin:

Da Resolve bislang nur CUDA und OpenCL unterstützt, kann man wohl davon ausgehen, dass die Intel-Karte mit Resolve - vorläufig - nichts bringt, bzw. Resolve auf einem Rechner mit Intel ARC-GPU gar nicht lauffähig ist?!?

Space


Antwort von dienstag_01:

markusG hat geschrieben:
dienstag_01 hat geschrieben:
Oder es gibt halt ne dritte Architektur ;)
Tatscahe - hHaben sie wohl schon mit oneAPI wenn ich das richtig verstehe^^
https://www.intel.com/content/www/us/en ... rview.html
Dann liegt es ja allein in der Hand der Resolve-Entwickler, ob und wann sie das unterstützen.

Space


Antwort von MK:

cantsin hat geschrieben:
Da Resolve bislang nur CUDA und OpenCL unterstützt, kann man wohl davon ausgehen, dass die Intel-Karte mit Resolve - vorläufig - nichts bringt, bzw. Resolve auf einem Rechner mit Intel ARC-GPU gar nicht lauffähig ist?!?
Die Karten unterstützen OpenCL... also muss das auch laufen.

Space


Antwort von roki100:

dienstag_01 hat geschrieben:
roki100 hat geschrieben:
Mich würde interessieren, wie es mit OpenGL aussieht bzw. ob es mit BMD Fusion schneller läuft.
Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)

So wie ich das verstanden habe, OpenCL berechnet das ganze (zB. PBR ist nur dank OpenCL möglich)...und OpenGL Ist immer noch der Renderer. Kombiniert wird das als GLSL bezeichnet...Auch in Blender bzw. EEVEE in Blender ist Eigenname (ähnlich wie auch Apple "METAL") und ist in Wirklichkeit nichts weiter als GLSL (soweit ich mich erinnere, nannte sich die erste inoffizielle Version auch Blender_GLSL...), nur eben besser optimiert, daher auch schneller als in Fusion...und auch mehr Möglichkeiten freigeschalteten/implementiert, wie zB. Spiegelung von Objekte auf Plane&Co.

Space


Antwort von dienstag_01:

roki100 hat geschrieben:
dienstag_01 hat geschrieben:

Du meinst OpenCL, OpenGL zeichnet dir ein paar Linien auf den Desktop ;)

So wie ich das verstanden habe, OpenCL berechnet das ganze (zB. PBR ist nur dank OpenCL möglich)...und OpenGL Ist immer noch der Renderer. Kombiniert wird das als GLSL bezeichnet...Auch in Blender bzw. EEVEE in Blender ist Eigenname (ähnlich wie auch Apple "METAL") und ist in Wirklichkeit nichts weiter als GLSL (soweit ich mich erinnere, nannte sich die erste inoffizielle Version auch Blender_GLSL...), nur eben besser optimiert, daher auch schneller als in Fusion...und auch mehr Möglichkeiten freigeschalteten/implementiert, wie zB. Spiegelung von Objekte auf Plane&Co.
Ja, wahrscheinlich hast du recht. Mein Blick ist zu sehr von Resolve (ohne Fusion) geprägt.

Space


Antwort von roki100:

Also ich weiß nicht, wenn ich mir das anschaue scheint die Intel ARC GraKa ziemlich schnell zu sein.

https://www.youtube.com/watch?v=bacIa9dqwSc

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Intel Arc 770 Grafikkarte in der Videobearbeitung unter Davinci Resolve
Erste Intel Arc GPUs - endlich Konkurrenz für AMD und NVIDIA?
Der neue Mac Pro kostet zwischen 6.499 und 62.568 Euro -- die Afterburner Karte gibt es für 2.400 Euro
AMD RX6/7 Intel Arc und Nvidia RTX 4 - Kommt jetzt die GPU-Schwemme?
Intel-Arc-GPU?
Intel: HighEnd CPU Cascade Lake-X kommt Oktober und bringt mehr Leistung fürs Geld
Nvidia GTX 1660 Super kommt am 29.Oktober mit 336 MB/s Speicher unter 250 Euro
Intel Rocket Lake-S: Neue Core i-11000 Desktop CPUs vorgestellt
Mobile Intel Alder Lake CPUs mit hybriden Kernen vorgestellt sowie weitere Desktop-Modelle
Vollformat DSLR für 4K-Filmer - Neue Nikon D780 ab Januar im Handel
„Twin Peaks: from Z to A“ BluRay Komplettbox ab Dezember im Handel
Thunderbolt 5 kommt - erste Produkte schon bald im Handel
Kamera-Auswahl für Low Budget Filmer bis 400 Euro
Neue Nikon Sofortrabatt-Aktion: bis zu 400 Euro für Nikon Z6, Z7 und Objektive
Neue Aktivboxen von PreSonus für rund 300 und 400 Euro
Olympus M.Zuiko Digital ED 7-14mm F2.8 PRO -400.- Euro - seriös?
Sony und Nikon Wintercashback 2022: Bis zu 400 Euro beim Kauf von Kameras und Objektiven sparen
Was taugen Camcorder bis 400 Euro ?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash