Zaloguj się, aby obserwować  
Gram.pl

Red Alert 3 - pogłoski potwierdzone przez EA

36 postów w tym temacie

Czyli jednak to prawda, kolejna (prawdopodobnie świetna, biorąc pod uwagę udanego C&C3 i spuściznę Red Alert) gra omija PS3.

Dnia 05.06.2008 o 16:51, amellas napisał:

Chodzi mi o to, iż procesor Cell ma wiele niewykorzystanej dotąd mocy. Jego konstrukcja
jest o tyle nowatorska, że wiele firm nie radzi sobie z jego oswajaniem xD Innymi słowy-
na ilu komputerach możesz zasymulować wybuch jądrowy, aaa? :)

Po prawdzie to ja wolę pc, za kontrolery... heh, gdyby połączyć Cell z architekturą piecyka-
byłby ideał.


Tyle że Cell tak naprawdę wcale nie ma żadnego ukrytego potencjału... Testy (czyli nieskomplikowane programy, które zostały stworzone pod daną architekturę, żadne rozbudowane gry, tylko programy stworzone po to żeby wciskać sprzęt do granic) MIPS wykazały, że Cell jest znacznie bardziej ograniczony w porównaniu do wielu PCowych 2-rdzeniówek, nie wspominając nawet o 4. Zresztą co rozumiesz przez zasymulowanie wybuchu jądrowego? Jaka skala dokładności jest dla Ciebie symulacją? Bo taki wybuch może być zasymulowany bardzo dokładnie; teoretycznie nawet na poziomie cząstek elementarnych (chociaż na takie coś trzeba będzie jeszcze długo czekać), tak że każdy atom, a nawet nukleon (bo to w końcu reakcja rozpadu ciężkich atomów) musiałby mieć obliczane położenie/prędkość/kierunek i zwrot w stosunku do innych, dokładna fizyka itd. Tyle że do czegoś takiego w czasie rzeczywistym przy np. 30 FPSach nawet wszystkie PS3 by nie wystarczyły (obecne PC zresztą też), a z drugiej strony możesz mieć prostą symulację z kilkoma elementami wziętymi pod uwagę i prostą fizyką. Propagandowo fajnie to brzmi "symulowanie wybuchu atomowego", ale to bardzo szerokie pojęcie.

BigStach

Wiesz jak wygląda granie w RTSa na konsoli? Bardziej jak coś do pooglądania niż do grania - produkujesz jakieś jednostki, albo idziesz w masę, wydajesz rozkaz ataku i patrzysz... O micro praktycznie można zapomnieć, może co najwyżej jedną grupą jakieś sporadyczne przemieszczanie na polu walki, a o takim dancingu to w ogóle można zapomnieć, wszystko idzie bardzo wolno, a gra z gry staje się bardziej batalistycznym pokazem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

HAHA to dobrze, bo RTS na Konsole to ostra pomyłka...
Ja tam wole zagrać na konsoli w piłkę nożną np jak teraz w PES''a 5 na PS 2 ;P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wale na plecy za każdym razem jak widzę komentarz w stylu:
''RTS na Konsole to ostra pomyłka"...Jakoś C&C3 Tiberium Wars wyszło na X360 i dostało wiele dobry recenzji w szczególności za nowatorski system ułatwiający gre padem...nie wiem jak to wygląda ale widziałem parę recenzji(chociażby gram.tv)...więc nie wciskajcie mi tutaj nic o porażka i innych pitołach...FPS na konsole to jest dopiero porażka ;].
@ROTFL
Widać,że chłopak na czytał się stereotypów i wali nimi na lewo i prawo...ale wielu takich wszędzie ;]
Co do symulacji wybuchów jądrowych na poziomie nukleonów...nigdy nie będzie można czegoś takiego przeprowadzi z powodu znanej i lubianej zasady nieoznaczoności Heisenberga.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 05.06.2008 o 20:49, ROTFL napisał:

Tyle że Cell tak naprawdę wcale nie ma żadnego ukrytego potencjału... Testy (czyli nieskomplikowane
programy, które zostały stworzone pod daną architekturę, żadne rozbudowane gry, tylko
programy stworzone po to żeby wciskać sprzęt do granic) MIPS wykazały, że Cell jest znacznie
bardziej ograniczony w porównaniu do wielu PCowych 2-rdzeniówek, nie wspominając nawet
o 4.

Ale Cell to nie tylko wykonywanie instrukcji, to również możliwość szybkoich obliczeń zmiennoprzecinkowcyh (na wektorach). No i do tego jeszcze synchronicznie działająca pamięć XDR, takiego czegoś w żadnym procku na PC nie uświadczysz. Cell to trochę więcej niż zwykłe CPU i też trochę inaczej należy go wykorzystać.
To tak jakbyś mówił, że jeep jest gorszy od ferrari bo wolniej jeździ, to prawda, ale jednocześnie może zrobić dobrze wiele rzeczy którym Ferrari nie podoła.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Szkoda. Tak, wiem, wiem RTS na konsole bla bla..
Ale jak ktoś ma na to ochotę, powinien mieć taką możliwość.
Nie wiem co jest przyczyną, że wiele gier omija PS3 (kiepski devkit? lenistwo programistów?), ale Sony powinno coś z tym zrobić z korzyścią dla graczy.
P.S. Nie jestem fanbojem Sony. W domu mam PC i XBox360, nie lubię RTS-ów.
Po prostu uważam, że gry powinny wychodzić na wszystkie platformy, a od gracza powinno zależeć na jakim sprzęcie chce w daną grę pograć.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Nie będę się wdawał w dyskusję czy strategie to rzecz na konsole czy też nie. Nie będę się domyślał powodów dla których olano PS3.

Po prostu czuję się olany, oszukany bo akurat na RA3 czekałem i miałem nadzieję że nie będę musiał odkurzać Windowsów :/

Gdyby mój protest niekupowania produkcji EA coś dał to bym zawiązał na supeł swój portfel dla gier z tego wydawnictwa :/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 06.06.2008 o 01:08, Namaru napisał:

Ale Cell to nie tylko wykonywanie instrukcji, to również możliwość szybkoich obliczeń
zmiennoprzecinkowcyh (na wektorach). No i do tego jeszcze synchronicznie działająca pamięć
XDR, takiego czegoś w żadnym procku na PC nie uświadczysz. Cell to trochę więcej niż
zwykłe CPU i też trochę inaczej należy go wykorzystać.
To tak jakbyś mówił, że jeep jest gorszy od ferrari bo wolniej jeździ, to prawda, ale
jednocześnie może zrobić dobrze wiele rzeczy którym Ferrari nie podoła.


Po części masz racje, bo rzeczywiście jeżeli chodzi o wykonywanie operacji zmiennoprzecinkowych to Cell jest pod tym względem lepszy niż tradycyjne procki, tylko co z tego skoro jednocześnie w porównaniu do byle karty graficznej nawet średniaka jaki jest wmonotowany w PS3, czyli RSX w porównaniu FLOPS zdecydowanie wymięka, a w porównaniu do najnowszych GFów jest nawet kilkadziesiąt razy słabszy (z tego co wiem, w porównaniu do RSX''a różnica była już ok. 9-krotna). Krótko mówiąc, chcieli stworzyć GPGU, ale im nie wyszło, bo okazał się drogi w produkcji, a jako karta graficzna nie wytrzymuje porównania z wyspecjalizowanym sprzętem, natomiast jako CPU nie wytrzymuje porównania z PCowymi prockami. Wiesz, że początkowo zakładano wmonotowanie 2 procesorów Cell, do PS3? Jeden miał robić za CPU, a drugi za GPU. Ich strategia miała polegać na tym, że stworzyli 1 procek do dwóch bardzo odmiennych zadań, tyle że to jest taki sprzęt do wszystkiego i do niczego za wysoko cenę; jego typowo "CPUowe" właściwości są mocniejsze niż możliwości przeciętnego GPU, natomiast "GPUowe" mocniejsze niż możliwości przeciętnego CPU, tyle że co z tego skoro znacznie lepszym i wydajniejszym rozwiązaniem jest wykorzystanie jednocześnie CPU stworzonego z myślą o byciu CPU i GPU stworzonego z myślą o byciu GPU niż 2 drogich, a słabych procków "do wszystkiego".

Glocks

Dnia 06.06.2008 o 01:08, Namaru napisał:

@ROTFL
Widać,że chłopak na czytał się stereotypów i wali nimi na lewo i prawo...ale wielu takich wszędzie ;]
Co do symulacji wybuchów jądrowych na poziomie nukleonów...nigdy nie będzie można czegoś takiego
przeprowadzi z powodu znanej i lubianej zasady nieoznaczoności Heisenberga.


Rzeczywiście jakoś wyleciała mi z głowy nieoznaczoność przy pisaniu tamtego posta :P, ale z drugiej strony jak się tak zastanowić, to nie możliwe z jej powodu byłoby jedynie odtworzenie za pomocą komputera prawdziwej eksplozji przy posiadaniu wszystkich danych na temat oddziaływań w danym momencie, masy i struktury materiału rozszczepianego itd., bo zawsze wystąpi nieoznaczoność na poziomie kwantowym, więc tego na chwilę obecną nawet w teorii nie da się przeskoczyć, ale gdyby stworzyć symulację "od podstaw", to byłoby to możliwe, bo można by uwzględnić nieoznaczoność jako parametr losowy dla cząstek subatomowych, bo w końcu z teorii Heisneberga np. wynika że mimo odtworzenia tych samych warunków dla dwóch detonacji obie byłyby inne, a zarazem wynika z tego że takich różnorodności byłoby praktycznie nieskończenie wiele, więc symulacja mogłaby przedstawiać pewną możliwą eksplozję, która miała by szanse zaistnieć w danych warunkach, ale jednocześnie byłaby jedną z ogromnej ilości innych. Krótko mówiąc odtworzenie jest praktycznie niemożliwe, ale zasymulowanie samego wybuchu jest, bo to że nie można w danym momencie określić np. położenia elektronu ze 100% pewnością można by włączyć jako czynnik losowy dla każdego atomu, podobnie z resztą niewiadomych. Trochę chaotycznie to napisałem (ale w sumie chaos się wkomponowuje w teorię nieoznaczoności :P), mam nadzieję że wiesz o co mi chodzi ;).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 07.06.2008 o 11:30, ROTFL napisał:

> Ale Cell to nie tylko wykonywanie instrukcji, to również możliwość szybkoich obliczeń

> zmiennoprzecinkowcyh (na wektorach). No i do tego jeszcze synchronicznie działająca
pamięć
> XDR, takiego czegoś w żadnym procku na PC nie uświadczysz. Cell to trochę więcej
niż
> zwykłe CPU i też trochę inaczej należy go wykorzystać.
> To tak jakbyś mówił, że jeep jest gorszy od ferrari bo wolniej jeździ, to prawda,
ale
> jednocześnie może zrobić dobrze wiele rzeczy którym Ferrari nie podoła.

Po części masz racje, bo rzeczywiście jeżeli chodzi o wykonywanie operacji zmiennoprzecinkowych
to Cell jest pod tym względem lepszy niż tradycyjne procki, tylko co z tego skoro jednocześnie
w porównaniu do byle karty graficznej nawet średniaka jaki jest wmonotowany w PS3, czyli
RSX w porównaniu FLOPS zdecydowanie wymięka, a w porównaniu do najnowszych GFów jest
nawet kilkadziesiąt razy słabszy (z tego co wiem, w porównaniu do RSX''a różnica była
już ok. 9-krotna). Krótko mówiąc, chcieli stworzyć GPGU, ale im nie wyszło, bo okazał
się drogi w produkcji, a jako karta graficzna nie wytrzymuje porównania z wyspecjalizowanym
sprzętem, natomiast jako CPU nie wytrzymuje porównania z PCowymi prockami. Wiesz, że
początkowo zakładano wmonotowanie 2 procesorów Cell, do PS3? Jeden miał robić za CPU,
a drugi za GPU. Ich strategia miała polegać na tym, że stworzyli 1 procek do dwóch bardzo
odmiennych zadań, tyle że to jest taki sprzęt do wszystkiego i do niczego za wysoko cenę;
jego typowo "CPUowe" właściwości są mocniejsze niż możliwości przeciętnego GPU, natomiast
"GPUowe" mocniejsze niż możliwości przeciętnego CPU, tyle że co z tego skoro znacznie
lepszym i wydajniejszym rozwiązaniem jest wykorzystanie jednocześnie CPU stworzonego
z myślą o byciu CPU i GPU stworzonego z myślą o byciu GPU niż 2 drogich, a słabych procków
"do wszystkiego".

GPU to taka wyspecjalizowana jednostka która wykonuje obliczenia geometryczne, generuje powierzchnie, cieniuje, koloruje teksturuje etc (wszystko to są obliczenia zmienno przecinkowe). Sam cell natomiast potrafi jedynie dokonywać szybko obliczenia geometryczne na wektorach (o ile sie nie myle) i to znacznie szybciej niz karta graficzna. Wiec jest to jednostka troche innego typu. (dlatego np. moc 3 połączonych cellow potrafi dokonywać raytracingu w czasie rzeczywistym, podczas gdy takiej sztuczki nie zrobi zadna karta graficzna (bo jest to układ wyspecjalizowany w wyswietlaniu grafiki rastrowej), ani CPU który w zmiennoprzecinkowych obliczeniach na wektorach nie jest mistrzem ;)).
Więc jako CPU Cell sprawdza sie gorzej niż jednostka centralna PC, ale jednocześnie ma dodatkowe "ficzyrsy" no i GPU to też nie jest (bo nie ma jego specjalizowanych funkcji) ;)
CELL jako GPU ? Nie wydaje mi się aby było to możliwe, chyba, że chcieliby rayracing robic, ale wtedy by z 4 potrzebowali ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.06.2008 o 17:54, Namaru napisał:

GPU to taka wyspecjalizowana jednostka która wykonuje obliczenia geometryczne, generuje
powierzchnie, cieniuje, koloruje teksturuje etc (wszystko to są obliczenia zmienno przecinkowe).
Sam cell natomiast potrafi jedynie dokonywać szybko obliczenia geometryczne na wektorach
(o ile sie nie myle) i to znacznie szybciej niz karta graficzna. Wiec jest to jednostka
troche innego typu. (dlatego np. moc 3 połączonych cellow potrafi dokonywać raytracingu
w czasie rzeczywistym, podczas gdy takiej sztuczki nie zrobi zadna karta graficzna (bo
jest to układ wyspecjalizowany w wyswietlaniu grafiki rastrowej), ani CPU który w zmiennoprzecinkowych
obliczeniach na wektorach nie jest mistrzem ;)).


Po pierwsze przesadzasz, bo nie 3 procki Cell, a 14 w clusterze i jedyne co potrafiły wygenerować, to kiepskiej jakości lagujący obraz statycznego obiektu, którym jest widoczny na filmiku samochód, więc efekty porażające nie są, ba można spokojnie powiedzieć że mocno rozczarowują:

http://pl.youtube.com/watch?v=zKqZKXwop5E

Natomiast nie wiem czemu twierdzisz, że obecne GPU nie są w stanie generować grafiki w ray tracingu w czasie rzeczywistym? Powiem Ci że nie dość, że potrafią to jeszcze robią to znacznie lepiej niż sprzęt Sony i to skupiony w wielkich clusterach, mimo że jak zauważyłeś GPU te nie były tworzone z myślą o śledzeniu promieni.
Przykłady? Proszę bardzo (przykłady ze standardowych PCowych GPU, nie żadnych ogromnych konstrukcji z masy procesorów, a po prostu ze zwykłych pojedynczych układów graficznych):

- Geforce 6800 (czyli mający już swoje lata); oczywiście pokaz w czasie rzeczywistym
http://pl.youtube.com/watch?v=l3iNt_JvCFs&feature=related

- PCowa przeróbka Quake''a 4 przy użyciu ray tracingu (filmik ma już ponad rok, a przecież ówczesne GPU były znacznie słabsze od tego co można dostać teraz), mimo że nie jest to jeszcze poziom zwykłego Quake''a 4, to jednak efekt uzyskany przy wykorzystaniu PC i jego GPU jest nieporównywalnie lepszy niż to, co zdołało wydalić z siebie połączenie 14 procków Cell...

http://pl.youtube.com/watch?v=DsCgJhoAm0c&feature=related

Dnia 10.06.2008 o 17:54, Namaru napisał:

Więc jako CPU Cell sprawdza sie gorzej niż jednostka centralna PC, ale jednocześnie ma
dodatkowe "ficzyrsy" no i GPU to też nie jest (bo nie ma jego specjalizowanych funkcji)
;)


"Ficzery", które nic praktycznie nie dają a sporo kosztują ;).

Dnia 10.06.2008 o 17:54, Namaru napisał:

CELL jako GPU ? Nie wydaje mi się aby było to możliwe, chyba, że chcieliby rayracing
robic, ale wtedy by z 4 potrzebowali ;)


A jednak takie mieli plany ;P. W ostatnim momencie zorientowali się, że byłby to koniec PS3 zaraz po starcie, bo sprzęt kosztowałby w granicach 3500 $ w momencie premiery, a generowałby grafikę na poziomie co najwyżej PS2. Szybko więc porozumieli się z Nvidią, która postanowiła przerobić odrobinę jeden ze swoich GFów i dorzucili go do PS3 jako RSX (A dosłownie kilkanaście miesięcy wcześniej szydzili z MS, że nie potrafi stworzyć własnego hardware i jako firma czysto software''owa zleca pracę PCowym producentom XD).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.06.2008 o 22:37, ROTFL napisał:

Po pierwsze przesadzasz, bo nie 3 procki Cell, a 14 w clusterze i jedyne co potrafiły
wygenerować, to kiepskiej jakości lagujący obraz statycznego obiektu, którym jest widoczny
na filmiku samochód, więc efekty porażające nie są, ba można spokojnie powiedzieć że
mocno rozczarowują:
http://pl.youtube.com/watch?v=zKqZKXwop5E

Po pierwsze statyka obrazu ma małe znaczenie w przypadku Raytraingu. Po drugie obraz jest ruchomy (choć obiekt jest statyczny). Po trzecie zobacz sobie odbicia od karoserii samochodu i ciebie bo to jest właśnie moc ray.
Po czwarte rozdzielczość 1080p.
Nie widzę tu nic rozczarowującego.

Dnia 10.06.2008 o 22:37, ROTFL napisał:

Natomiast nie wiem czemu twierdzisz, że obecne GPU nie są w stanie generować grafiki
w ray tracingu w czasie rzeczywistym? Powiem Ci że nie dość, że potrafią to jeszcze robią
to znacznie lepiej niż sprzęt Sony i to skupiony w wielkich clusterach, mimo że jak zauważyłeś
GPU te nie były tworzone z myślą o śledzeniu promieni.
Przykłady? Proszę bardzo (przykłady ze standardowych PCowych GPU, nie żadnych ogromnych
konstrukcji z masy procesorów, a po prostu ze zwykłych pojedynczych układów graficznych):
- Geforce 6800 (czyli mający już swoje lata); oczywiście pokaz w czasie rzeczywistym
http://pl.youtube.com/watch?v=l3iNt_JvCFs&feature=related

Ha. Nawet zwykłe cpu z zegarem 1GHz jest w stanie wykonać raytraycing w czasie rzeczywistym. Tylko pytanie w jakiej rozdzielczości i przy jakiej szczegułowości cieni, śledzonych świateł, odbić etc.
Wg. mnie rozdzielczość w tym filmiku to co najwyżej 640x480. Co więcej nie jest to pełny raytracing a tylko jakieś przybliżenie (choinki mają poobcinane szczyty niekiedy). Do tego na filmiku nie ma żadnych odbić światła, a źródło światła jest w górze (w nieskończoności) i jest tylko jedno (a może wcale go nie ma a cienie pod choinkami są tylko teksturą?).

Mówiąc wprost porównujesz raytracing w FULL-HD i "global ilumination", z jakimś "pół-ray" w niskiej rozdzielczości.
Tutaj proszę filmik który miałem na początku na myśli : http://pl.youtube.com/watch?v=oLte5f34ya8

Dnia 10.06.2008 o 22:37, ROTFL napisał:

- PCowa przeróbka Quake''a 4 przy użyciu ray tracingu (filmik ma już ponad rok, a przecież
ówczesne GPU były znacznie słabsze od tego co można dostać teraz), mimo że nie jest to
jeszcze poziom zwykłego Quake''a 4, to jednak efekt uzyskany przy wykorzystaniu PC i
jego GPU jest nieporównywalnie lepszy niż to, co zdołało wydalić z siebie połączenie
14 procków Cell...
http://pl.youtube.com/watch?v=DsCgJhoAm0c&feature=related

Nie wiem co niezwykłego jest w tym filmiku? Po pierwsze to "prerender", po drugie w porównaniu z zwykłym q4 lepsze są tylko cienie i leciutko modele.

Dnia 10.06.2008 o 22:37, ROTFL napisał:

"Ficzery", które nic praktycznie nie dają a sporo kosztują ;).

Bo producenci gier multiplatformowych ich nie wykorzystują bo szkoda im kasy. Wolą szybciej i taniej wypuścić "niedorobionego" gniota. A np. można by spokojnie zaimplementować na nim fizykę o której xpudło może tylko marzyć.

Dnia 10.06.2008 o 22:37, ROTFL napisał:

A jednak takie mieli plany ;P. W ostatnim momencie zorientowali się, że byłby to koniec
PS3 zaraz po starcie, bo sprzęt kosztowałby w granicach 3500 $ w momencie premiery, a
generowałby grafikę na poziomie co najwyżej PS2. Szybko więc porozumieli się z Nvidią,
która postanowiła przerobić odrobinę jeden ze swoich GFów i dorzucili go do PS3 jako
RSX (A dosłownie kilkanaście miesięcy wcześniej szydzili z MS, że nie potrafi stworzyć
własnego hardware i jako firma czysto software''owa zleca pracę PCowym producentom XD).

No bo tak było MS nie opracował żadnych rozwiązań sprzętowych. Natomiast Cell jest dzieckiem Sony (no i IBM). Swoją drogą: czy słyszałeś o GPU w superkomputerach? A o Cellu w superkomputerze? Nie? To proszę: http://en.wikipedia.org/wiki/IBM_Roadrunner

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 14.06.2008 o 21:32, Namaru napisał:

Po pierwsze statyka obrazu ma małe znaczenie w przypadku Raytraingu. Po drugie obraz
jest ruchomy (choć obiekt jest statyczny). Po trzecie zobacz sobie odbicia od karoserii
samochodu i ciebie bo to jest właśnie moc ray.
Po czwarte rozdzielczość 1080p.
Nie widzę tu nic rozczarowującego.


Nie widzisz naprawdę nic rozczarowującego? Nie zapominaj, że jest to efekt pracy 14 procków Cell, nie jednego. Fakt odbicia są, ale także widać przycięcia, no i w praktyce generowany jest jedynie ten samochód, bo naokoło są ściany ograniczające przestrzeń, bo całej mocy starczyło praktycznie tylko na samochód i kilka ścian właśnie. Co do 1080p miało być podobno standardem PS3?

Dnia 14.06.2008 o 21:32, Namaru napisał:

Ha. Nawet zwykłe cpu z zegarem 1GHz jest w stanie wykonać raytraycing w czasie rzeczywistym.
Tylko pytanie w jakiej rozdzielczości i przy jakiej szczegułowości cieni, śledzonych
świateł, odbić etc.
Wg. mnie rozdzielczość w tym filmiku to co najwyżej 640x480. Co więcej nie jest to pełny
raytracing a tylko jakieś przybliżenie (choinki mają poobcinane szczyty niekiedy). Do
tego na filmiku nie ma żadnych odbić światła, a źródło światła jest w górze (w nieskończoności)
i jest tylko jedno (a może wcale go nie ma a cienie pod choinkami są tylko teksturą?).


Ale z drugiej strony głębia obszaru jest znacznie większa niż w przypadku tego na co pozwoliły połączone PS3. Nie twierdzę, że ten staruśki GF jest mocniejszy niż 14 Cellów (to byłby totalny pogrom ;P), ale twierdzę że jak na tak stary sprzęt w pojedynkę radzi sobie całkiem nieźle.

Dnia 14.06.2008 o 21:32, Namaru napisał:

Mówiąc wprost porównujesz raytracing w FULL-HD i "global ilumination", z jakimś "pół-ray"
w niskiej rozdzielczości.
Tutaj proszę filmik który miałem na początku na myśli : http://pl.youtube.com/watch?v=oLte5f34ya8


Tak? A gdzie ty na filmiku z PS3 widziałeś global illumination? Mam nadzieję, że chociaż wiesz co to znaczy, a nie jedynie rzucasz zasłyszanymi terminami na lewo i prawo. Jest tam jakaś poświata koloru generowanego przez powierzchnie odbijające światło? Nie, więc skąd wniosek o global illumination? I skąd wniosek o "pół-ray" w przypadku GFów?

Dnia 14.06.2008 o 21:32, Namaru napisał:

Nie wiem co niezwykłego jest w tym filmiku? Po pierwsze to "prerender", po drugie w porównaniu
z zwykłym q4 lepsze są tylko cienie i leciutko modele.


Prerender? Tak możesz powiedzieć o wszystkim... Jakiś dowód? A to, że w ogóle da się wersję ray tracingową porównywać z rasterowaną na obecnym etapie technologii samo w sobie jest ogromnym sukcesem. W końcu Q4 to nie jest stara gra (na X360 też jest, więc do obecnej generacji można go spokojnie zaliczyć), natomiast to co wygenerowało 14 Cellów mogłogby być jedynie wycinkiem normalnej gry, gdyby zrobić na tych 14 cellach grę wyścigową w ray tracingu to ta moc musiałaby zostać rozdzielona na wiele innych samochodów, trasę, szybko zmieniające się oświetlenie poruszających się pojazdów itd. Jednakt nawet w takiej malutkiej formie wygląda gorzej niż praktycznie każda obecna gra wyścigowa. Natomiast efekt pracy jednego GFa jest już porównywalny z wersją standardową, więc różnica osiągnięć jest ogromna, nawet w porównaniu 1 GF (i to nie najnowszy, bo filmik ma mniej więcej rok) vs 14 Cellów, a co by było gdyby tak GF 8800, albo GF 9800 porównać z 1 Cellem?

Dnia 14.06.2008 o 21:32, Namaru napisał:

Bo producenci gier multiplatformowych ich nie wykorzystują bo szkoda im kasy. Wolą szybciej
i taniej wypuścić "niedorobionego" gniota. A np. można by spokojnie zaimplementować na
nim fizykę o której xpudło może tylko marzyć.


Słyszałem ten sam tekst wielokrotnie: "równają w dół, bo jest multi"; oczywiście jest w tym sporo prawdy, tylko skąd domniemanie że to właśnie PS3 nie jest tym dołem? gdyby twoja teoria była prawdziwa to pomiędzy multiplatami a exclusive''ami PS3 byłaby przepaść, a jak jest w rzeczywistości? Nadal jedną z najlepiej wyglądających gier na PS3 jest multiplatformowy CoD4, Haze śmiga w rozdzielczości nawet nie HD Ready, nawet nie tzw. sub-HD, ale w SD! Przykładów jest wiele, co z tego że Cell jest trochę mocniejszy niż Xenon, skoro RSX jest równy lub nawet słabszy niż Xenos? Teraz GPU to podstawa, a nie CPU z domieszką GPU, która tak naprawdę do niczego się nie przydaje, bo w porównaniu nawet z RSXem jest ok. 9 razy słabsza..., a do tego musi pracować jako CPU, bo jest tylko jeden w PS3.

Dnia 14.06.2008 o 21:32, Namaru napisał:

No bo tak było MS nie opracował żadnych rozwiązań sprzętowych. Natomiast Cell jest dzieckiem
Sony (no i IBM). Swoją drogą: czy słyszałeś o GPU w superkomputerach? A o Cellu w superkomputerze?
Nie? To proszę: http://en.wikipedia.org/wiki/IBM_Roadrunner


Słyszałem o tworzonym przez IBM kompie z Cellami, tyle że jakie oni mają wyjście? Wydali z Sony 200 mln $ na opracowanie Cella, czyli 10 razy tyle ile kosztuje opracowanie przez Intel czy Nvidię całkowicie nowej serii procków czy kart? Muszą sami takiego kompa tworzyć, bo jakoś nikt inny w Cellu potencjału nie dostrzega. Sprawdź w necie ile z najszybszych superkomputerów Świata śmiga na prockach Intela i AMD, a ile na IBM (w pierwszej 500 Intel i AMD mają ok. 480 swoich superkompów, co i tak nie oznacza że reszta należy do IBM...).

Co do tego, że MS sam nie opracowywał nowego sprzętu to moim zdaniem był strzał w 10, bo po cholerę wydawać krocie, żeby stworzyć coś co i tak nie ma szans ze sprzętem tworzonym, rozwijanym i ulepszanym bez przerwy przez PCowych liderów? W takim starciu nikt nie ma szans, więc wtedy do gry wkracza outsourcing. Po co każdy ma sam sobie szyć buty, skoro ktoś kto szyje je codziennie zrobi to znacznie szybciej, taniej i lepiej?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 17.06.2008 o 21:08, ROTFL napisał:

Prerender? Tak możesz powiedzieć o wszystkim... Jakiś dowód?

Dowód jest taki, że zamieszczający nie napisał, że był to realtime ;)

Dnia 17.06.2008 o 21:08, ROTFL napisał:

natomiast to co wygenerowało 14 Cellów mogłogby
być jedynie wycinkiem normalnej gry, gdyby zrobić na tych 14 cellach grę wyścigową w
ray tracingu to ta moc musiałaby zostać rozdzielona na wiele innych samochodów, trasę,
szybko zmieniające się oświetlenie poruszających się pojazdów itd.

Tylko, że w przypadku ray-tracingu skomplikowanie sceny nie ma takiego dużego znaczenia jak w grafice rastrowej, większe znaczenie ma rozdzielczość.

>Jednakt nawet w takiej

Dnia 17.06.2008 o 21:08, ROTFL napisał:

malutkiej formie wygląda gorzej niż praktycznie każda obecna gra wyścigowa.

Nie przesadzałbym ;) W normalnych grach wyścigowych samochody nie mają po 300000 trójkątów.

Dnia 17.06.2008 o 21:08, ROTFL napisał:

Słyszałem ten sam tekst wielokrotnie: "równają w dół, bo jest multi"; oczywiście jest
w tym sporo prawdy, tylko skąd domniemanie że to właśnie PS3 nie jest tym dołem? gdyby
twoja teoria była prawdziwa to pomiędzy multiplatami a exclusive''ami PS3 byłaby przepaść,
a jak jest w rzeczywistości? Nadal jedną z najlepiej wyglądających gier na PS3 jest multiplatformowy
CoD4, Haze śmiga w rozdzielczości nawet nie HD Ready, nawet nie tzw. sub-HD, ale w SD!

CoD4 to faktycznie dobry port, ale to raczej wyjątek potwierdzający regułę (a raczej przyjmując rozkład normalny jakości gier jest to gra znacznie powyżej średniej).

Dnia 17.06.2008 o 21:08, ROTFL napisał:

która tak naprawdę do niczego się nie przydaje, bo w porównaniu nawet z RSXem jest
ok. 9 razy słabsza..., a do tego musi pracować jako CPU, bo jest tylko jeden w PS3.

No ale już 3 raz Ci to piszę porównujesz czystą moc obliczeniową karty graficznej, której (w olbrzymim stopniu) nie da się spożytkować do niczego innego niż renderowania obrazu.

Dnia 17.06.2008 o 21:08, ROTFL napisał:

Słyszałem o tworzonym przez IBM kompie z Cellami, tyle że jakie oni mają wyjście? Wydali
z Sony 200 mln $ na opracowanie Cella, czyli 10 razy tyle ile kosztuje opracowanie przez
Intel czy Nvidię całkowicie nowej serii procków czy kart?

Bo Cell to coś więcej niż zwykły procek czy GPU, i nie jest prostym rozwinięciem starego produktu, ale czymś opracowanym praktycznie od zera, nic zatem dziwnego, że jego opracowanie było droższe.

Dnia 17.06.2008 o 21:08, ROTFL napisał:

Muszą sami takiego kompa tworzyć,
bo jakoś nikt inny w Cellu potencjału nie dostrzega. Sprawdź w necie ile z najszybszych
superkomputerów Świata śmiga na prockach Intela i AMD, a ile na IBM (w pierwszej 500
Intel i AMD mają ok. 480 swoich superkompów, co i tak nie oznacza że reszta należy do
IBM...).

Cell jest nowy, zobaczymy jak sytuacja będzie wyglądać za parę (parenaście) lat.
Btw. ale i tak większość tych komputerów wyprodukował IBM ;)

Dnia 17.06.2008 o 21:08, ROTFL napisał:

Co do tego, że MS sam nie opracowywał nowego sprzętu to moim zdaniem był strzał w 10,
bo po cholerę wydawać krocie, żeby stworzyć coś co i tak nie ma szans ze sprzętem tworzonym,
rozwijanym i ulepszanym bez przerwy przez PCowych liderów?

IBM też jest komputerowym liderem.

Dnia 17.06.2008 o 21:08, ROTFL napisał:

Po co każdy ma sam sobie szyć buty, skoro
ktoś kto szyje je codziennie zrobi to znacznie szybciej, taniej i lepiej?

Tylko Sony nie szyło ich samodzielnie to raz. Dwa Sony to firma produkująca głównie sprzęt więc mają doświadczenie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zastosowanie Cella w raytracingu nie jest tak różowe jak Ci sie wydaje. Nvidia CUDA kładzie go na łopatki.

http://eric_rollins.home.mindspring.com/ray/cuda.html
Oczywiście w obu przypadkach daleko tutaj do zastosowania raytracingu w jakiejkolwiek grze, bo procki ledwie radzą sobie z kilkoma kulkami i jednym źródłem światła ;]. Jednak widać ponad dwukrotną przewagę jednego GPGPU nad 6 SPU w Cellu.
I co tu dużo nie mówić, GPGPU zdobywa coraz większe uznanie w małych i duzych superkomputerach. Modularne komputery z nawet 4 kartami graficznymi na każdej płycie głównej już grzeją szafy na wielu uczelniach Świata.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 18.06.2008 o 14:04, hans olo napisał:

Zastosowanie Cella w raytracingu nie jest tak różowe jak Ci sie wydaje.

Nie wydaje mi się, że jest "bardzo różowe" chodziło tylko o pokazanie jednego z zastosowań do jakiego Cella można użyć, poza jego pracją jako zwykłej jednostki głównej.

Dnia 18.06.2008 o 14:04, hans olo napisał:

Nvidia CUDA kładzie go na łopatki.

Przejrzałem ten dokument i tak:
1. "With this design CUDA is not a practical way to implement a ray-tracer. The 16K shared memory restriction makes realistic world models impractical." Dobra by była jakaś pełniejsza implementacja.
2. G80 "zjada" znacznie więcej prądu niż Cell i jest znacznie droższy (to w zastosowaniach przemysłowych).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować