Larrabee - der Konsolenkiller? ;)

shamanu

L15: Wise
Thread-Ersteller
Seit
24 Aug 2007
Beiträge
8.731
http://www.heise.de/ct/08/15/022/

Für den Bereich „Visual Computing“ und in einer späteren Version auch fürs High Performance Computing ist Larrabee gedacht, ein Prozessor, der bisher mit 16 bis 24 Kernen gehandelt wurde, wahrscheinlich aber gleich mit 32 Kernen im nächsten Jahr debütieren wird – und zwar wie inzwischen durchdrang zur allgemeinen Überraschung wohl mit genau den gut bekannten Pentium-Kernen: dem Pentium P54C. Es wird sich wohl um die modernere Version mit den größeren Caches namens Pentium MMX handeln, natürlich geshrinkt auf 45 nm. Rattner gab allerdings auf die Frage, ob der Larrabee-Kern denn 32- oder 64-bittig sei, die Antwort, er unterstütze die volle Intel-Architektur – und die umfasst heutzutage ja eigentlich 64 Bit. Ob der Kern wohl „verbreitert“ wurde? Die namensgebende MMX-Einheit selber wird er aber wohl nicht brauchen, denn für die mehrfach parallelen Berechnungen (SIMD) besitzt jeder Kern die neue Vektoreinheit mit mutmaßlich 512 Bit Breite. Das ergibt mit Multiply-Add-Befehlen maximal 32 Flop/Takt in einfacher Genauigkeit (SP), die fürs Visual Computing völlig ausreicht. Bei 32 Kernen würden dann schon 2 GHz Takt reichen, um die 2-Teraflops-Marke zu erreichen, womit er etwa doppelt so schnell wäre, wie die ATI/Nvidia-Konkurrenz jetzt. Vermutlich wird die Larrabee-Karte aber auch doppelt so viel verbrauchen wie jene, also rund 300 Watt. Das lässt sich den bisherigen Veröffentlichungen entnehmen, wo man auf einer Larrabee-Karte zwei zusätzliche Spannungsanschlüsse für 150 und 75 Watt ausmachen konnte, was sich zusammen mit dem Strom via PCIe-Konnektor auf 300 Watt summiert.
Es dürfte interessant werden wenn der Larrabee tatsächlich dem echtzeit Raytracing zum Durchbruch verhilft. Ob Intel auch in den Konsolenmarkt einsteigen würde bzw. Amd/Nvidia ein equivalent entwickeln können?
Ansonsten die neue PS und Xbox mit Intel chips? ;)
 
2 Teraflops wird schon der R700 in diesem Juli bieten...
Und Intel hat im Grafikbereich noch nie viel zustande gebracht.Raytracen können übrigens auch Gpus.
Larrabeee wird meines Erachtens ein Riesenflop.
 
http://www.heise.de/ct/08/15/022/
Es dürfte interessant werden wenn der Larrabee tatsächlich dem echtzeit Raytracing zum Durchbruch verhilft.
Ohne jetzt zu technisch zu werden, das ist eher ausgeschlossen. Wenn Raytracing wirklich der neue Standard werden will muss es um ein Vielfaches schneller sein als Rasterisierung. Das ist praktisch nur bei Polycounts der Fall die abartig hoch sind (höher als wir je sinnvoll benutzen werden). Wesentlich wahrscheinlicher ist, dass Raytracing irgendwann als Hybrid-Lösung zu Rasterisierung auftritt und dort spezielle Effekte in hoher Qualität berechnet wie z.B. Reflexionen.

Raytracing ist beschränkt mathematisch korrekt. Was sich zunächst super anhört ist weniger spelktakulär als es scheint, denn niemand will realistische Lichtberechnung, wir wollen schöne Lichtberechnung und dort steht Rasterisierung kaum nach. Im Gegenteil es ist sogar vielfach schneller. Außerdem stehen dem Konzept in der Praxis noch viele Probleme im Weg die Spiele eigentlich nur teurer machen.

Microsoft geht mit DirectX 11 eigentlich auch in eine andere Richtung. Damit wird sich Raytracing zwar sehr wahrscheinlich einfacher implementieren lassen (über die GPGPU-APIs) aber der Fokus steht weiterhin komplett auf Rasterisierung. Intel hypt und wirbt zwar für Raytracing aber sie sind nicht so verrückt wirklich an eine Revolution zu glauben, weswegen Larrabee vorallem eines gut können wird: Rasterisierung.

Ob Intel bei Konsolen einsteigt? Gut möglich eigentlich. Intel hat noch immer einen recht gewaltigen Fertigungsvorteil. Während AMD gerade beginnt 45nm zu produzieren ist bei Intel schon der Blick auf 32nm angesagt. Je nachdem wie ausgefeilt der Prozess ist macht das einen wirklich gewaltigen Unterschied und bei GPUs kommt das noch heftiger als bei CPUs. Diese 2TFLOP sind allerdings auch nicht wirklich beeindruckend, der RV870 von ATI wird ähnlich viel haben und ganz sicher keine 300 Watt schlucken ;-)

Microsoft wird vermutlich bei ATI bleiben, die haben wirklich gute Architekturen für Konsolen. Fragt sich welche CPU sie nehmen. Möglich wäre, dass sie sich ein "Paket" us CPU und GPU bei AMD sichern. In der Lage in der AMD ist machen die sicher einen guten Preis dafür. ;-)
 
2 Teraflops wird schon der R700 in diesem Juli bieten...
Und Intel hat im Grafikbereich noch nie viel zustande gebracht.Raytracen können übrigens auch Gpus.
Larrabeee wird meines Erachtens ein Riesenflop.

Die GPU's sind aber ziemlich anderst vom Aufbau. Mit den hunderten von parallelen Recheneinheiten ist es einfacher ein paar Teraflops zu erreichen.
Intel ist sehr erfolgreich im Grafikbereich, nur im Highend gebiet haben sie es (meines Wissens) erst einmal probiert.
Auf jeden fall haben sie die Ressourcen um da richtig einzusteigen und bei Microsoft dachte damals wohl auch niemand das die sich so "schnell" in den Konsolen markt drücken können.



Ohne jetzt zu technisch zu werden, das ist eher ausgeschlossen. Wenn Raytracing wirklich der neue Standard werden will muss es um ein Vielfaches schneller sein als Rasterisierung. Das ist praktisch nur bei Polycounts der Fall die abartig hoch sind (höher als wir je sinnvoll benutzen werden). Wesentlich wahrscheinlicher ist, dass Raytracing irgendwann als Hybrid-Lösung zu Rasterisierung auftritt und dort spezielle Effekte in hoher Qualität berechnet wie z.B. Reflexionen.
Und wiso nicht? Wenn das Intel teil beide Bereich gut supportet und Raytracing mit weniger tricks schneller ist und bessere ergebnisse Liefert spricht doch nichts gegen einen Umstieg.?
Es stimmt was du sagst, das es sicher keine sofortige Revolution geben wird. Aber nach ersten teilimplementierungen wären erste engines welche anfangs eventuell noch mehr experimentell darauf basieren sicher nicht unwahrscheinlich.

Ob Intel bei Konsolen einsteigt? Gut möglich eigentlich. Intel hat noch immer einen recht gewaltigen Fertigungsvorteil.
Eben, Intel hat auch keine Probleme seinen Larabee in der Zukunft zu Shrinken. Zumindest sagen sie ja das bis 10nm die Schritte schon absehbar sind.


Möglich wäre, dass sie sich ein "Paket" us CPU und GPU bei AMD sichern. In der Lage in der AMD ist machen die sicher einen guten Preis dafür. ;-)
Aber die Amd Cpu's sind in der Leistung aktuell nicht so top...
 
Raytracing ist beschränkt mathematisch korrekt. Was sich zunächst super anhört ist weniger spelktakulär als es scheint, denn niemand will realistische Lichtberechnung, wir wollen schöne Lichtberechnung und dort steht Rasterisierung kaum nach. Im Gegenteil es ist sogar vielfach schneller. Außerdem stehen dem Konzept in der Praxis noch viele Probleme im Weg die Spiele eigentlich nur teurer machen.

100% agree. Realistische Lichtbrechung ist eben nicht zwangsläufig eine schöne oder eine spektakuläre Lichtbrechung. Raytracing ist und bleibt zu aufwendig, als dass es jetzt endlich den Durchbruch schaffen würde. Als Helfer für Rasterisierung könnte ich mir Raytracing allerdings irgendwann mal vorstellen, allerdings halte ich das ganze noch für pure Zukunftsmusik. Mit einem Spiegelpalast mit realistischen Reflexionen rechne ich erst nach 2015 trotz der hohen Investitionen seitens Intel.
 
Larrabeee wird meines Erachtens ein Riesenflop.
Ich weis ja nicht, nach meiner Meinung ist es eine der Besten Neuentwicklungen der letzten Jahre.
Er muß nur im Rasterbereich auf eine ähnliche Leistung wie dann aktuelle Gpu's kommen.
Eine "Grafikkarte" die zu x86 kompatibel ist liese sich für alle möglichen Zwecke "mißbrauchen". Und es fällt das ganze umlernen auf CUDA um ein paar endkunden zu erreichen weg.
 
Und wiso nicht? Wenn das Intel teil beide Bereich gut supportet und Raytracing mit weniger tricks schneller ist und bessere ergebnisse Liefert spricht doch nichts gegen einen Umstieg.?
Wo liefert Raytracing bessere Ergebnisse? Selbst die meisten CGI-Streifen verwenden Rasterizer und da hat sich noch niemand über schlechte Beleuchtung beschwert. Raytracing liefert beliebig exakte Ergebnisse, je nachdem wie viel Rechenleistung man reinsteckt. Meistens reicht es aber auch aus einfach imposante Beleuchtung zu bieten.

Das sieht man doch an Godrays z.B. (Sonnenstrahlen die durch Bäume fallen) ziemlich gut. Die sind in der Realität nie so extrem ausgeprägt wie z.B. in Crysis oder STALKER: Clear Sky aber es sieht einfach toll aus und kommt einem irgendwie realistisch vor.

Weil du sagst beide Bereiche gut supporten: Ich denke ATI und Nvidia werden mit ihren nächsten Chips richtig auftrumpfen und massig Rechenleistung reinstecken. Larrabee mit 32 Kernen braucht für 2TFLOPs 300 Watt (--> kann man mehr oder weniger vergessen den Chip), die kleinere Karte mit 16 Kernen schafft aber nur mehr 1 TFLOP.

Das sind theoretische Werte ber zumindest Nvidia schafft es diese fast komplett auf die Straße zu bringen (ATI setzt eher auf mehrere kleine Einheiten die ineffizienz aber billig sind) und wenn ich das jetzt mit Nvidia vergleiche dürfte der nächste Performance-Chip von Nvidia schon ein gutes Stück schneller sein als Larrabee.

Larrabee muss erst beweisen, dass er das halten kann was Intel verspricht. Vorallem aber bringen ATI und Nvidia schon wieder neue Architekturen bis Larrabee auf den Markt kommt. Larrabee ist sehr interessant aber wir sollten ihn nicht überbewerten, das Projekt bleibt gewagt.

shamanu schrieb:
Aber die Amd Cpu's sind in der Leistung aktuell nicht so top...
Hast dir den Xenon (nicht die Server-CPU von Intel) mal angesehen? ;-)

shamaru schrieb:
Eine "Grafikkarte" die zu x86 kompatibel ist liese sich für alle möglichen Zwecke "mißbrauchen". Und es fällt das ganze umlernen auf CUDA um ein paar endkunden zu erreichen weg.
Das ist der wahre Vorteil von Larrabee und nur damit kann er sich wirklich durchsetzen. Raytracing wird nicht viel helfen. Wenn dich das Thema interessiert, bei PC Perspective gibt's einige Artikel darüber (und andere Themen). Den Artikel von Computerbase solltest du eher meiden, denn der wurde von einem Intel-Mitarbeiter geschrieben. ;-)
 
Zuletzt bearbeitet:
Wo liefert Raytracing bessere Ergebnisse?
Es geht darum das mit Raytracing über weniger Tricks mindestens das selbe ergebnis erziehlbar ist. Ich vermute das dies den Entwicklern von Engines auch einiges an Erleichterung bringen kann. Und das es im endefekt nicht erkentlich viel besser ausschaut mag sein, aber das kenne ich schon von vielen Engines.
Es ist auch eine Frage der gewohnheit, Konsolen Spieler denken auch sie hätten eine super Grafik...

Weil du sagst beide Bereiche gut supporten: Ich denke ATI und Nvidia werden mit ihren nächsten Chips richtig auftrumpfen und massig Rechenleistung reinstecken.
Und wann soll die nächste nach der aktuell erscheinenden kommen? Nvidia ist ja von ihrem früheren Zyklus von halbjährlich weggegangen. Solange Amd nicht zu stark pusht lassen sich die auch zeit.

Larrabee ist sehr interessant aber wir sollten ihn nicht überbewerten, das Projekt bleibt gewagt.
Ja, es ist gewagt, hat aber viel potential. Und wenn es Intel nicht beim ersten Sprung schaft dann eben in einer der Nächsten generationen. Nvidia nimmt zb die Bedrohung ziemlich ernst.

Das ist der wahre Vorteil von Larrabee und nur damit kann er sich wirklich durchsetzen.
Und wiso nicht? es kommt doch nur auf den Preis an mit welchem er erscheinen wird. Wenn er akzeptabel wird kaufe ich mir schon alleine wegen der Programmierbarkeit einen.
Immerhin habe ich nur wegen dem Larrabee auf eine Einarbeitung in CUDA verzichtet.
 
Raytracing wird nicht viel helfen. Wenn dich das Thema interessiert, bei PC Perspective gibt's einige Artikel darüber (und andere Themen).
Hier schreibt der typ ja über die Vorteile bei der Portierung:
http://www.pcper.com/article.php?aid=334&type=expert
It was amazing how easy it was to program special effects that would have taken much longer using the conventional graphic technology called Rasterization used by common graphic cards. For example dynamic, per-pixel real-time shadows are calculated with about ten lines of code as described in the introduction figure about ray tracing.
Es benötigt einfach weniger Tricks und das die höhere Poligonzahl aktuell nicht so wichtig erscheint ist auch zu einem großen Teil auf solche Tricks zurückzuführen.
Außerdem ist es Marketing technisch sicher auch nicht schlecht wenn eine zukünftige Engine mit ray tracing werben kann.
 
Es geht darum das mit Raytracing über weniger Tricks mindestens das selbe ergebnis erziehlbar ist.
Ich sehe da keine Erleichterung für Entwickler. Im Gegenteil du bekommst bei Raytracing schon Probleme bei Soft Shadows oder dynamisch erzeugter Geometrie. Natürlich gibt es auch genug Tricks bei Rasterizern aber die hat man inzwischen alle drauf während da bei Raytracing noch immer geforscht wird. Außerdem entwickelt sich DirectX11 wieder weiter...

Shamanu schrieb:
Und wann soll die nächste nach der aktuell erscheinenden kommen? Nvidia ist ja von ihrem früheren Zyklus von halbjährlich weggegangen. Solange Amd nicht zu stark pusht lassen sich die auch zeit.
AMD pusht aber gerade gewalitg. ;-)

shamanu schrieb:
Ja, es ist gewagt, hat aber viel potential. Und wenn es Intel nicht beim ersten Sprung schaft dann eben in einer der Nächsten generationen. Nvidia nimmt zb die Bedrohung ziemlich ernst.
Intel ist zwar mächtig aber sie können auch nicht alles nach belieben vordiktieren.

shamanu schrieb:
Und wiso nicht? es kommt doch nur auf den Preis an mit welchem er erscheinen wird. Wenn er akzeptabel wird kaufe ich mir schon alleine wegen der Programmierbarkeit einen.
Immerhin habe ich nur wegen dem Larrabee auf eine Einarbeitung in CUDA verzichtet.
Du bist damit aber nicht der Massenmarkt. Wenn der Chip für Spieler keine Vorteile bringt (das muss man abwarten) muss er es eben bei gewöhnlichen Anwendern probieren und das sind i.d.R. keine Programmierer.

edit: Das ist genau der Typ der jetzt bei Intel arbeitet, ich wusste nicht dass der Artiel auch bei PC Perspective ist. Seine Betrachtung ist komplett einseitig und könnte direkt aus den Federn der Intel-PR Abteilung kommen. Er hat zwar Recht, aber es ist eben einseitig betrachtet.
 
Zuletzt bearbeitet:
Die GPU's sind aber ziemlich anderst vom Aufbau. Mit den hunderten von parallelen Recheneinheiten ist es einfacher ein paar Teraflops zu erreichen.
Intel ist sehr erfolgreich im Grafikbereich, nur im Highend gebiet haben sie es (meines Wissens) erst einmal probiert.

Ja,bei Onboardgrafik,warum auch immer.
Mit Hilfe neuer Algorithmen will die Universität des Saarlandes die Berechnungszeit eines Strahls auf der CPU auf 1000 Takte reduziert bekommen haben. An der zweiten Front, einer GPU-Lösung (via CUDA auf einem G80) koste die gleiche Berechnung zwar etwa 15000 Takte, die Performance sei der CPU trotzdem um Faktor 2 bis 8 überlegen.
Zu guter Letzt wurde auch das Raytracing auf einem FPGA (Chip mit programmierbaren Logik-Schaltung) bei 66 MHz gezeigt. Allerdings zeigten die Demos – wenn überhaupt – nur einfachste prozedurale Texturen und in Bewegung kein Anti-Aliasing (weder innerhalb von Texturen noch an Kanten).
http://www.3dcenter.org/artikel/echtzeit-raytracing-der-universit%C3%A4t-des-saarlandes
Die Leistung bei den Grafikkarten hat sich inzwischen verdoppelt und auch bei den Algorithmen für Cuda kann man sicher noch einiges optimieren.
 
Hast dir den Xenon (nicht die Server-CPU von Intel) mal angesehen? ;-)
Tja,gibt es irgendwelche aussagekräftigen Benchmarks?
Aber bitte nicht diesen albernen Artikel von Anandtech verlinken,wo der Xenon angeblich schwächer als ein Pentium 4 ist...
Dazu leistet der etwa in physiklastigen Spielen wie Force Unleashed doch zu viel.
Bis zum R870 braucht man auch nicht zu warten(schon der R700 wird mehr als zwei Teraflops haben).Außerdem soll doch auch die eine X2 mit seperatem Shadertakt werden?
 
Tja,gibt es irgendwelche aussagekräftigen Benchmarks?
Es gibt XNA Benchmarks aber die sind natürlich beschränkt. Ich frage mich dennoch wozu man da Benchmarks braucht, alleine von den Hardwarespezifikationen und dem Design ist das Ding nicht wirklich schnell. Jon Stokes hat mal zwei Artikel über den Xenon geschrieben die das Thema eigentlich perfekt treffen, vorallem Teil 2.

Inside the Xbox 360, Part I: the Xenon CPU

Inside the Xbox 360, Part II: the Xenon CPU

reginald schrieb:
Bis zum R870 braucht man auch nicht zu warten(schon der R700 wird mehr als zwei Teraflops haben).Außerdem soll doch auch die eine X2 mit seperatem Shadertakt werden?
Das weiß ich, aber ich rede ja von Chips und nicht von GPUs. Im R700 stecken zwei Chips. ;-)
 
AMD pusht aber gerade gewalitg. ;-)
Naja, die aktuelle Generation. Nvidia hat in letzter zeit einfach etwas geschlafen. Seit dem 8800er ist ja nicht viel wirklich neues gekommen. Die werden schon noch etwas größeres in der Hinterhand haben das einfach auf "zu spät" geplant war.

Intel ist zwar mächtig aber sie können auch nicht alles nach belieben vordiktieren.
Nein, aber sie haben Erfahrung im gewöhnlichen Grafikmarkt. Sie haben die Entwickler und Forschungsstätten. Sie haben know how im CPU bereich. Sie haben die Fabs und sind ziemlich führend im shrinking der die size. Sie haben die kohle.
Wenn jemand gute Chancen hat in den Grafik bereich einzusteigen dann doch wohl Intel.

Wenn der Chip für Spieler keine Vorteile bringt (das muss man abwarten) muss er es eben bei gewöhnlichen Anwendern probieren und das sind i.d.R. keine Programmierer.
Aber es bringt ja Vorteile für den Massenmarkt. Endlich eine Grafikkarte die nicht nur für Spiele gut ist. CUDA ist aktuell ein Nieschenprodukt. Es gibt vielleicht 2-3 gute massentaugliche Endanwender Produkte die es unterstüzten. Mit einer x86er fähigen Erweiterungskarte welche nur geringes umdenken abverlangt wird die Portierung von aufwendigen Berechnungen sicher schneller vonstatten gehen wie bei Nvidia's lösung.
Wer braucht mehr kerne als ein Quadcore? Die meisten sind bereits mit Dualcore zufrieden. Aber eine Grafikkarte die dazu noch rechenaufwendige Aufgaben übernimmt läßt sich sicher gut vermarkten.

edit: Das ist genau der Typ der jetzt bei Intel arbeitet, ich wusste nicht dass der Artiel auch bei PC Perspective ist. Seine Betrachtung ist komplett einseitig und könnte direkt aus den Federn der Intel-PR Abteilung kommen. Er hat zwar Recht, aber es ist eben einseitig betrachtet.
Ja, aber immerhin hat er "mal eben so" für seine Arbeit als ein man Projekt die Engine auf Ray tracing portiert.
Sicher wird es da noch Probleme geben, aber für Crysis war ein Mann (wenn ich mich recht entsinne) alleine acht Monate damit beschäftigt halbwegs realistische Wellen zu erzeugen. Wenn eine Portierung relativ gut machbar ist sehe ich da keine Hindernisse.
 
http://www.3dcenter.org/artikel/echtzeit-raytracing-der-universit%C3%A4t-des-saarlandes
Die Leistung bei den Grafikkarten hat sich inzwischen verdoppelt und auch bei den Algorithmen für Cuda kann man sicher noch einiges optimieren.
Ich habe jetzt zwar nicht gesehen auf was für eine CPU sich die dort beziehen aber ein Larrabee ist auch keine normale CPU.
Nur als Vergleich, ein Intel Quadcore mit 3Ghz soll im bereich von unter 100GFlop liegen(!). CPU und eine Grafikkarten arbeiten für zwei unterschiedliche Welten weshalb die Performance auch nicht so gut direkt vergleichbar ist.
Aber nach den Daten sollte ein Larrabee mit den 1000 Takten die GPU mit 15000 Takten wohl ziemlich in den Boden stampfen beim Raytracing.
 
Ich habe jetzt zwar nicht gesehen auf was für eine CPU sich die dort beziehen aber ein Larrabee ist auch keine normale CPU.
Nur als Vergleich, ein Intel Quadcore mit 3Ghz soll im bereich von unter 100GFlop liegen(!).
Faktor 8 bei 8800.Faktor 16 beim Gt200.Faktor 32 beim einem möglichen Dualchip mit zwei 280ern.
CPU und eine Grafikkarten arbeiten für zwei unterschiedliche Welten weshalb die Performance auch nicht so gut direkt vergleichbar ist.
Aber nach den Daten sollte ein Larrabee mit den 1000 Takten die GPU mit 15000 Takten wohl ziemlich in den Boden stampfen beim Raytracing.

Auch bei der Gpu kann man den Algorithmus sicher noch optimieren.Wenn man beispielsweise 15000 Takte auf 7500 senken könnte...
Dann wird aus Faktor 32 Faktor 64.Da kommt dann auch der Larrabee nicht mehr mit,wobei man nicht weiß,was für eine Leistung dessen Kerne beim Raytracing haben werden.Dessen Kerne soll noch auf Pentiums basieren.
 
Das ist, bis larabee endlich kommt, alles null und nichtig.

Am 14. Juli kommt erstmal AMD mit ihrer HD4870X2 die wird sogar schon über 2 TFlops produzieren(was aber nichts heißen will! Das sind sowieso nur synthetische Werte) ;)

Zwar im Dual GPU design aber was solls. Den Konsolenkiller hast du heute schon, die 130 euro Karte Radeon HD 4850!
 
Zuletzt bearbeitet:
Faktor 8 bei 8800.Faktor 16 beim Gt200.Faktor 32 beim einem möglichen Dualchip mit zwei 280ern.
Es gab aber nicht nur bei der Grafikkarten Vortschritte...

Auch bei der Gpu kann man den Algorithmus sicher noch optimieren.Wenn man beispielsweise 15000 Takte auf 7500 senken könnte...
Dann wird aus Faktor 32 Faktor 64.Da kommt dann auch der Larrabee nicht mehr mit,wobei man nicht weiß,was für eine Leistung dessen Kerne beim Raytracing haben werden.Dessen Kerne soll noch auf Pentiums basieren.
Es handelt sich aber natürlich um modifizierte Pentiums. 32 Kerne einer zehn Jahre alte CPU's wären nach zehn Jahren nicht wirklich schneller als eine aktuelle CPU.
Schon alleine wenn die GPU's im Raytracing so schnell wären könte Intel auf die Einführung pfeifen.
 
Ach ja,sowas wie Larrabee gab es schon mal,nannte sich Rendition.Das aber nur am Rande.Letzendlich wird man abwarten müssen,was er bei entsprechenden Tests zustandebringt.
 
Ich seh das jetzt erst 300 Watt für ne Grafikkarte, das ist der reinste Wahnsinn...
 
Zurück
Top Bottom