oje dann hab ich aber jahrelang beim kunden alles falsch gemacht ,gut das ich euch habe :-)
nochmal: mit einer dicken heatipe geht das,die ziehen nämlich die wärme hauptsächlich ab und der lüfter kühlt diese dann usw. kühler ohne kupfer sollten keine lüfter draufkriegen die blasen,das wird viel zu heiß.
Zitat
Wie es scheint, hat Microsoft die Hardware der Xbox One auf eine komplett "andere" Art optimiert, wie es bisher für detailliertere 3D Objekte, große Texturen und Lichtberechnung gemacht wurde.
Ich muss mich noch weiter in die (für mich ziemlich spannende) Materie einlesen, aber ein paar Techniken kennt man heute schon in anderen Bereichen.
In dem eSRAM Thread wird der Planet Mars gezeigt, wie er mit einer 1GB großen Textur "bemalt" wurde, und mit einer 2GB großen Textur Berge und Täler aufgeprägt bekommt.
Beim "klassischen" Ansatz wie es bisher die meisten Spiele heute machen, bräuchte man also 3 GB Textur-RAM, um den Planeten auf den Bildschirm zu rendern. Aber das Problem ist, dass auch die Texturbereiche im Speicher gehalten werden, die man gar nicht sieht, weil man auf der anderen Seite des Planeten ist, oder auf der Oberfläche in eine andere Richtung blickt.
Was DirectX 11.2 nun macht ist, dass es ähnlich wie Google Earth die Texturen in einem Raster aufteilt, und nur das anzeigt, was gerade im Sichtfenster ist. Und zwar im Detailgrad, der für die Entfernung sinnvoll ist Je näher man bei Google Earth an die Erdoberfläche kommt, desto detailliertere Texturen werden aus dem Internet nachgeladen, und zwar nur von dem Bereich, den man gerade sieht. Und mit einer ähnlichen Technologie kann die Xbox One die 3GB Texturdaten vom Beispiel in nur 16MEGAbyte RAM halten.
Da man aber jetzt viele kleine Textur-Plättchen im Speicher hin- und herschieben muss, lässt Microsoft das wohl über dedizierte Hardware und den eSRAM mit ordentlich Bandbreite laufen (die Move Engines), anstatt über das langsamere DDR3 RAM.
So ähnlich wird es dann auch mit 3D Objekten gemacht. Früher gab es LoD (Level of Detail) Modelle, bei denen ein Objekt (zum Beispiel eine Gegnerfigur) in mehreren Detailgraden im RAM gelegen hat: Einmal als hochdetailliertes Modell wenn man nahe dransteht, und mehrere Modelle mit immer weniger Polygonen, je weiter man weg ist.
Bei dem Xbox One Ansatz scheint es nun so zu sein, dass ein relativ niedrig aufgelöstes Modell im Speicher liegt, und dann mittels mathematischer Formeln mehr Details dazugerechnet werden.
Das darf man sich natürlich nicht vorstellen, als wenn man eine Kugel in den Speicher lädt, und je näher man kommt, wird magisch eine Nase und Augen daraus heraus berechnet.
Es ist eher so, dass eine Kopfform genommen wird, die bei entsprechender Entfernung so aussieht, wie die Figuren von Interstate '76. Aber bei den einzelnen Polygonflächen noch hinterlegt wird, dass die Fläche eigentlich eine gebogene Fläche sein sollte, die einer bestimmten mathematischen Formel gehorcht. Je näher man also an das "flache" 3D Objekt kommt, desto "runder" werden die vormals flachen flächen, und man sieht eine Kopfrundung, Backen, etc.
Die Verarbeitung dieser Berechnungen, um aus einem flachen Polygon eine gebogene Fläche zu machen, hat (wie es scheint) eine eigene Hardware auf der Xbox One bekommen.
Und das Raytracing ist (wie ich vermutet hatte) auch nicht das "echte" Raytracing. Sondern anstatt wie bisher eine 3D Umgebung anhand der Polygone mit Licht und Schatten zu berechnen, macht man aus der Polygonwelt unsichtbar im Hintergrund wohl erstmal eine Minecraft-Klötzchenwelt aus groben Voxeln. Jetzt schickt man also "Lichtstrahlen" aus dem virtuellen Kameraauge in die Umgebung, und dort wo der Lichtstrahl durch einen Voxel Klotz passiert, schaut man "genauer" hin, was mit dem Lichtstrahl passiert. Den groben Klotz teilt man nun in immer feinere Klötze auf, um dann für den Bereich Beleuchtung, Reflexionen, Schattenwurf und solche Sachen zu berechnen.
Und das kann die One dank DirectX 11.2 wohl auch "cleverer" und schneller erledigen, als der Software-Ansatz in OpenGL der in den Forschungspapieren beschrieben wurde. In der "build" Präsentation von Microsoft haben sie die "Nachteile" der Softwarelösung in Hardware gelöst.
Ebenso heißt es in einem Forschungspapier, dass man das "Abtauchen" in immer kleinere Voxelklötze beschleunigen kann, indem man die Informationen über die Spielwelt vorher in einer Art Indextabelle speichert (die benutzen eine Textur dafür). Und das wäre (in meinen Augen) nochmal eine ideale Aufgabe für die Cloud. Die Server berechnen für die One diese Spick-Tabelle, und anstatt dass die Xbox selber die verschossenen Lichtstrahlen und Voxel-Klötzchen berechnen muss, schaut sie sich einfach die fertigen Ergebnisse schnell in der Tabelle an, und nutzt sie einfach.
Meine Vermutung: Durch die Technologien macht auch die "Power der Cloud" Sinn. Ähnlich wie Google Earth könnten dann Spielinhalte aus der Cloud auf die Konsole gestreamt werden ("ZOMG! Always On!!1elfhundertelf!"), die niedrig aufgelöst sind, aber mit den Mathematischen Formeln versehen sind, wie man daraus das hochaufgelöste Objekt erzeugt. So können dann vergleichsweise winzige Datenmengen wie ein niedrigaufgelöstes Polygonmodell mit angehängten Matheformeln schnell übers Internet übertragen werden, und auf der Konsole zu einem hochdetaillierten Spiel-Objekt werden.
ACHTUNG! Jetzt kommt wieder ein enorm hinkender Autovergleich: So wie sich die Technologie-Beschreibungen anlesen, verhält sich die PS4 mit 8GB DDR5 RAM und schnellerem Grafikchip gegenüber der Xbox One mit "schwächerem" Grafikchip und "komischem" Speicherverhalten des langsameren DDR3 Speichers wie ein Bentley Continental mit über 500PS gegenüber einem Lotus Exige S mit "nur" 221PS. Während der Lotus aus Kurven schneller wegkommt, hat der Bentley auf geraden Strecken dank höherer Endgeschwindigkeit einen Vorteil. Da aber Straßen selten schnurgerade sind, gleichen sich die Stärken und Schwächen unter realen Bedingungen eher aus.
Während die PS4 also mit "klassischer" Rechenpower loslegt, macht Microsoft mit "Know How" die scheinbaren Defizite wett. Ob das im Endeffekt aufgeht, sieht man in Zukunft bei Multiplattform Titeln gegenüber Exclusivtiteln. Aber was ich auf der Gamescom von beiden Konsolen gesehen habe (und ich bezweifle mal, dass die Demo-Konsolen eine Anbindung an eine Cloud hatten), lässt mich ziemlich ruhig schlafen.
Sehr interessanter Beitrag aus dem xbox Forum:
Zitat
Wie es scheint, hat Microsoft die Hardware der Xbox One auf eine komplett "andere" Art optimiert, wie es bisher für detailliertere 3D Objekte, große Texturen und Lichtberechnung gemacht wurde.
Ich muss mich noch weiter in die (für mich ziemlich spannende) Materie einlesen, aber ein paar Techniken kennt man heute schon in anderen Bereichen.
In dem eSRAM Thread wird der Planet Mars gezeigt, wie er mit einer 1GB großen Textur "bemalt" wurde, und mit einer 2GB großen Textur Berge und Täler aufgeprägt bekommt.
Beim "klassischen" Ansatz wie es bisher die meisten Spiele heute machen, bräuchte man also 3 GB Textur-RAM, um den Planeten auf den Bildschirm zu rendern. Aber das Problem ist, dass auch die Texturbereiche im Speicher gehalten werden, die man gar nicht sieht, weil man auf der anderen Seite des Planeten ist, oder auf der Oberfläche in eine andere Richtung blickt.
Was DirectX 11.2 nun macht ist, dass es ähnlich wie Google Earth die Texturen in einem Raster aufteilt, und nur das anzeigt, was gerade im Sichtfenster ist. Und zwar im Detailgrad, der für die Entfernung sinnvoll ist Je näher man bei Google Earth an die Erdoberfläche kommt, desto detailliertere Texturen werden aus dem Internet nachgeladen, und zwar nur von dem Bereich, den man gerade sieht. Und mit einer ähnlichen Technologie kann die Xbox One die 3GB Texturdaten vom Beispiel in nur 16MEGAbyte RAM halten.
Da man aber jetzt viele kleine Textur-Plättchen im Speicher hin- und herschieben muss, lässt Microsoft das wohl über dedizierte Hardware und den eSRAM mit ordentlich Bandbreite laufen (die Move Engines), anstatt über das langsamere DDR3 RAM.
So ähnlich wird es dann auch mit 3D Objekten gemacht. Früher gab es LoD (Level of Detail) Modelle, bei denen ein Objekt (zum Beispiel eine Gegnerfigur) in mehreren Detailgraden im RAM gelegen hat: Einmal als hochdetailliertes Modell wenn man nahe dransteht, und mehrere Modelle mit immer weniger Polygonen, je weiter man weg ist.
Bei dem Xbox One Ansatz scheint es nun so zu sein, dass ein relativ niedrig aufgelöstes Modell im Speicher liegt, und dann mittels mathematischer Formeln mehr Details dazugerechnet werden.
Das darf man sich natürlich nicht vorstellen, als wenn man eine Kugel in den Speicher lädt, und je näher man kommt, wird magisch eine Nase und Augen daraus heraus berechnet.
Es ist eher so, dass eine Kopfform genommen wird, die bei entsprechender Entfernung so aussieht, wie die Figuren von Interstate '76. Aber bei den einzelnen Polygonflächen noch hinterlegt wird, dass die Fläche eigentlich eine gebogene Fläche sein sollte, die einer bestimmten mathematischen Formel gehorcht. Je näher man also an das "flache" 3D Objekt kommt, desto "runder" werden die vormals flachen flächen, und man sieht eine Kopfrundung, Backen, etc.
Die Verarbeitung dieser Berechnungen, um aus einem flachen Polygon eine gebogene Fläche zu machen, hat (wie es scheint) eine eigene Hardware auf der Xbox One bekommen.
Und das Raytracing ist (wie ich vermutet hatte) auch nicht das "echte" Raytracing. Sondern anstatt wie bisher eine 3D Umgebung anhand der Polygone mit Licht und Schatten zu berechnen, macht man aus der Polygonwelt unsichtbar im Hintergrund wohl erstmal eine Minecraft-Klötzchenwelt aus groben Voxeln. Jetzt schickt man also "Lichtstrahlen" aus dem virtuellen Kameraauge in die Umgebung, und dort wo der Lichtstrahl durch einen Voxel Klotz passiert, schaut man "genauer" hin, was mit dem Lichtstrahl passiert. Den groben Klotz teilt man nun in immer feinere Klötze auf, um dann für den Bereich Beleuchtung, Reflexionen, Schattenwurf und solche Sachen zu berechnen.
Und das kann die One dank DirectX 11.2 wohl auch "cleverer" und schneller erledigen, als der Software-Ansatz in OpenGL der in den Forschungspapieren beschrieben wurde. In der "build" Präsentation von Microsoft haben sie die "Nachteile" der Softwarelösung in Hardware gelöst.
Ebenso heißt es in einem Forschungspapier, dass man das "Abtauchen" in immer kleinere Voxelklötze beschleunigen kann, indem man die Informationen über die Spielwelt vorher in einer Art Indextabelle speichert (die benutzen eine Textur dafür). Und das wäre (in meinen Augen) nochmal eine ideale Aufgabe für die Cloud. Die Server berechnen für die One diese Spick-Tabelle, und anstatt dass die Xbox selber die verschossenen Lichtstrahlen und Voxel-Klötzchen berechnen muss, schaut sie sich einfach die fertigen Ergebnisse schnell in der Tabelle an, und nutzt sie einfach.
Meine Vermutung: Durch die Technologien macht auch die "Power der Cloud" Sinn. Ähnlich wie Google Earth könnten dann Spielinhalte aus der Cloud auf die Konsole gestreamt werden ("ZOMG! Always On!!1elfhundertelf!"), die niedrig aufgelöst sind, aber mit den Mathematischen Formeln versehen sind, wie man daraus das hochaufgelöste Objekt erzeugt. So können dann vergleichsweise winzige Datenmengen wie ein niedrigaufgelöstes Polygonmodell mit angehängten Matheformeln schnell übers Internet übertragen werden, und auf der Konsole zu einem hochdetaillierten Spiel-Objekt werden.
ACHTUNG! Jetzt kommt wieder ein enorm hinkender Autovergleich: So wie sich die Technologie-Beschreibungen anlesen, verhält sich die PS4 mit 8GB DDR5 RAM und schnellerem Grafikchip gegenüber der Xbox One mit "schwächerem" Grafikchip und "komischem" Speicherverhalten des langsameren DDR3 Speichers wie ein Bentley Continental mit über 500PS gegenüber einem Lotus Exige S mit "nur" 221PS. Während der Lotus aus Kurven schneller wegkommt, hat der Bentley auf geraden Strecken dank höherer Endgeschwindigkeit einen Vorteil. Da aber Straßen selten schnurgerade sind, gleichen sich die Stärken und Schwächen unter realen Bedingungen eher aus.
Während die PS4 also mit "klassischer" Rechenpower loslegt, macht Microsoft mit "Know How" die scheinbaren Defizite wett. Ob das im Endeffekt aufgeht, sieht man in Zukunft bei Multiplattform Titeln gegenüber Exclusivtiteln. Aber was ich auf der Gamescom von beiden Konsolen gesehen habe (und ich bezweifle mal, dass die Demo-Konsolen eine Anbindung an eine Cloud hatten), lässt mich ziemlich ruhig schlafen.
Quelle: http://forums.xbox.com/de-de/das_deutsch…px?PageIndex=48
Na das hört sich doch gut an, und beruhigt mich ungemein.
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Hitman006xp« (3. Oktober 2013, 13:01)
Danke für den Beitrag. (Wieso gibts bei mir keinen Button dafür?)
Ich seh das fast genau so, bis auf den Faktor spiele. Die werden für meinen Geschmack auf lange zeit auf der ps4 besser sein.
Aber bis dahin wird noch lange zeit vergehen.
![]()
RDR war doch wunderschön.
Aber halt nicht im Sinne eines Crysis....
ups soory sehe gerade das es sic hauf die PS3 Version bezog
Richtig, das hab ich auf die PS3 Version vs. Xbox360 bezogen. Nur in der Nextgen wird das Verhältnis wohl genau anders rum sein.
20% schlechtere Auflösung.
42 Besucher
Um die vielfältigen Funktionen des Forums nutzen zu können, solltest Du Dich registrieren. Es lohnt sich!
Jetzt registrieren!