Zaloguj się, aby obserwować  
Gram.pl

Rozkmina na weekend: czy czeka nas powrót OpenGL?

38 postów w tym temacie

"to potwór, znajdujący się wciąż poza granicą zamordowania nawet przez Crytek - jej moc obliczeniowa to 1,84 teraflops."

Fueh ? HD 7970 ma dwa razy więcej. A ona nie ma starczyć na co najmniej 5 lat jak w wypadku tej w PS4.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 18:24, Jeggred napisał:

Fueh ? HD 7970 ma dwa razy więcej. A ona nie ma starczyć na co najmniej 5 lat jak w wypadku
tej w PS4.

Dalej pozostaje bez zmian fakt, że potęgi takich kart dziś nawet Crytek nie wykorzystuje. To potwory z zapasem mocy na lata. Jedynym problemem dla takiej karty może być obligatoryjna zmiana generacji, wywyołana przez Microsoft i DirectX 12 - a na to sie chwilowo nie zanosi. No i to nie dotyczy PS4 raczej...
Hint: moc obliczeniowa to też nie wszystko :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ilość TFLOPS to rzeczywiście nie wszystko, wystarczy prosty, łopatologiczny wręcz przykład przecietnego smartfona, który ze spokojem odpala gry z grafiką na poziomie z roku 2000(+-1), podczas gdy komputer z tego okresu nie miałby szans odtworzyć materiału wideo 1080p bez jakiejś sprzętowej akceleracji, z którym telefon radzi sobie bez problemu.
No a sam OGL zjada DX odbytem. Wystarczy wspomnieć "quake 3", który bezproblemowo działa na każdym kolejnym systemie operacyjnym nie zrzędząc, że wersja DX się nie zgadza (czyt. jest zbyt nowa). Osobiście zaobserwowałem na win7 jedynie jakieś mikroprzycięcia, ale przecież mamy odświeżonego "quake live"

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 18:32, Lucas_the_Great napisał:

Dalej pozostaje bez zmian fakt, że potęgi takich kart dziś nawet Crytek nie wykorzystuje.

Wyjaśnij bo nie do końca rozumiem. Crysis 3 na bardzo wysokich ustawieniach zjada praktycznie każdą kartę graficzną przy rozdzielczości 1920x1080 i więcej. Chyba że dla kogoś 30 - 40 klatek/s w strzelankach to płynne działanie.

Dnia 23.03.2013 o 18:32, Lucas_the_Great napisał:

Hint: moc obliczeniowa to też nie wszystko :)

Wiem, ale to nie ja nazywam kartę graficzną potworem i opieram to na teraflopach :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

"PlayStation 4 zawita do naszych domów już całkiem niedługo, a mi wciąż spędza sen z oczu wypowiedź o tym, iż będzie to high-end PC. "
To duży błąd tak myśleć. Nie wiadomo ile ile będzie kosztowało PS4 ale powiedzmy, że 1600zł, czy za tyle pieniędzy da się kupić high endowego pcta? Nie bardzo, a Sony w tym miejscu cudów nie uczyni. Rdzenie Jaguar to wcale nie są dobre procesory, mało tego one z założenia są słabe bo ich właściwy target to małe i/lub mobile urządzenia, nacisk położony jest na jak najmniejszy pobór prądu, a nie wydajność. Co prawda mogą władować tam z 8 rdzeni ale to żaden Core i7 nie będzie, podejrzewam, że nawet dzisiejszych i5 nie dogoni.
Ale wiadomo sprzęt będzie zoptymalizowany do renderowania grafiki w czasie rzeczywistym i pewne jest, że wsadzą w zamian za dość średni CPU bardzo mocne GPU. Współdzielona pamięć GDDR5 też da kopa.

"Microsoft nie odpuści i będzie walczyć, hermetyzując swoje platformy. Być może pojawią się permanentne "exy" dla danego API, czyli gry chodzące albo pod Windows i nowym Xboksem, albo pod MAC OS X i Playstation 4."
Nie mam pojęcia skąd taki pomysł?! Przecież Windows obsługuje OpenGL, usunięcie jego obsługi spowodowałoby, że połowa programów straciłaby kompatybilność z tym systemem. Microsoft nigdy tego nie zrobi.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 19:05, Jeggred napisał:

> Dalej pozostaje bez zmian fakt, że potęgi takich kart dziś nawet Crytek nie wykorzystuje.
Wyjaśnij bo nie do końca rozumiem. Crysis 3 na bardzo wysokich ustawieniach zjada praktycznie
każdą kartę graficzną przy rozdzielczości 1920x1080 i więcej.


Ale MOCY OBLICZENIOWEJ nie zużywa. Cały czas się odnoszę do tego, bo na temat innych detali ATI jeszcze milczy. Tyle, nie próbuj rozwijać mojej wypowiedzi poza kontekst :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 19:13, Lucas_the_Great napisał:

> > Dalej pozostaje bez zmian fakt, że potęgi takich kart dziś nawet Crytek nie
wykorzystuje.
> Wyjaśnij bo nie do końca rozumiem. Crysis 3 na bardzo wysokich ustawieniach zjada
praktycznie
> każdą kartę graficzną przy rozdzielczości 1920x1080 i więcej.

Ale MOCY OBLICZENIOWEJ nie zużywa. Cały czas się odnoszę do tego, bo na temat innych
detali ATI jeszcze milczy. Tyle, nie próbuj rozwijać mojej wypowiedzi poza kontekst :)



Już pojawiła się plotka, że BF4 na PS4 będzie działał tylko w 720p - gdyby to się potwierdziło, to faktycznie - mamy do czynienia z "hajendowym" piecykiem :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zgadzam się z Laston.

Do tego przyczepię się do paru rzeczy :-)

"Otóż Jaguar to ośmiordzeniowy, 64-bitowy procesor o architekturze x86, czyli faktycznie podrasowane serce peceta"

Z części przed przecinkiem nie wynika część po przecinku (a dokładnie fakt, że to podrasowany PC). Może jednak chodziło o to, że ma architekturę PC a to, iż jest podrasowane uznajemy za fakt oczywisty. Sam raczej sądzę, że to nie będzie po prostu PC.

"Z drugiej strony rozsądny gracz posiada więcej niż jedną platformę, więc pewnie wystarczy w domu mieć duet PC+PS4 lub MAC+X720..."

Ironia, ponury żart czy tak na serio? Nie każdego stać aby kupić konsolę, a do tego mieć PC, który "nadąża" z odpalaniem coraz to nowych gier (i nie mam tu na myśli gier na najwyższych ustawieniach), bo patrząc na historię to trzeba będzie go ulepszać. Pomijam już fakt, że to co jest rozsądne to kwestia subiektywna.

Ogólnie tekst mi się podoba, choć stronniczy moim zdaniem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

I dobrze, jakas customowa wersja OpenGL plus cos na ksztalt libGCM i wszystko powinno smigac na tyle, ze papierowymi danymi (jak teraflopy) mozna sie bedzie podetrzec. Gdyby to mialo byc D3D ps4 nie mialo by szansy byc czyms wiecej (wydajnosciowo) niz pc oparty na takich samych podzespolach;

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

> Ale MOCY OBLICZENIOWEJ nie zużywa. Cały czas się odnoszę do tego, bo na temat innych
> detali ATI jeszcze milczy. Tyle, nie próbuj rozwijać mojej wypowiedzi poza kontekst :)

Yhm, polecam sprawdzić obciążenie karty graficznej podczas rozgrywki i może jeszcze raz przemyśleć swoje stanowisko :) Gra nie wykorzystuje mocy, gdy wykorzystanie GPU jest mniejsze niż 80% - na rynku jest pełno gier, które wykorzystują kartę bardziej.

Co do wspomnienia o Jaguarze - to procesor low-endowy, następca tak samo low-endowego Bobcata. Tekst o karcie graficznej i nazwanie jej potworem to już nieśmieszny żart - polecam sprawdzić jak sprawują się karty Radeon HD 7790 (rdzeń Bonaire), które mają praktycznie identyczną moc i które zapewne będą wykorzystane w PS4. Taki z tego potwór jak z Kuby potęga gospodarcza.

PS4 będzie nadrabiało jedynie przepustowością szyny, ale nigdy nie będzie to generowało takiej grafiki, jak na obecnych kartach ze średniej półki, od HD7850 wzwyż.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

"W każdym razie jest to bardziej logiczne, niż płacenie Microsoftowi za Direct3D".
Od kiedy to trzeba płacić MS za robienie gier pd DX?
I jak ktoś słusznie zauważył, OpenGL jest także dostępne na Windowsie, i co ciekawe, to zawsze Radeon miał problemy ze sterownikami pod to API, a nie GeForce.
I znowu, procesor to low-end AMD, karta - aktualna średnia półka, tylko ewentualnie szybka pamięć nadrabia. Cała nadzieja w optymalizacji gier.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 20:28, MozgotrzepPL napisał:

"W każdym razie jest to bardziej logiczne, niż płacenie Microsoftowi za Direct3D".
Od kiedy to trzeba płacić MS za robienie gier pd DX?

Nie za robienie, za wykorzystanie przez Sony w swoim urządzeniu. O to mi chodziło.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

> "W każdym razie jest to bardziej logiczne, niż płacenie Microsoftowi za Direct3D".
> Od kiedy to trzeba płacić MS za robienie gier pd DX?
> I jak ktoś słusznie zauważył, OpenGL jest także dostępne na Windowsie, i co ciekawe,
> to zawsze Radeon miał problemy ze sterownikami pod to API, a nie GeForce.
> I znowu, procesor to low-end AMD, karta - aktualna średnia półka, tylko ewentualnie szybka
> pamięć nadrabia. Cała nadzieja w optymalizacji gier.

Właśnie, OpenGL czasem znajduje się nawet w nowych grach AAA, żeby nie szukać daleko - RAGE. Żeby było śmieszniej, na moim Radosławie ta gra wyglądała na premierę tak szpetnie, że żal to było oglądać.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.03.2013 o 20:19, BlindObserver napisał:

Yhm, polecam sprawdzić obciążenie karty graficznej podczas rozgrywki i może jeszcze raz
przemyśleć swoje stanowisko :) Gra nie wykorzystuje mocy, gdy wykorzystanie GPU jest
mniejsze niż 80% - na rynku jest pełno gier, które wykorzystują kartę bardziej.

Proponuję zapoznać się trochę z teorią programowania i optymalizacji. Nie wystarczy zamordować kompa kiepsko napisanym programem, żeby można było powiedzieć, że wykorzystał on całą moc obliczeniową sprzętu. A wystarczy jedna pętla by zaciągnąć do niekończącej się pracy na ekstremalnym obciążeniu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

> > Yhm, polecam sprawdzić obciążenie karty graficznej podczas rozgrywki i może jeszcze
> raz
> > przemyśleć swoje stanowisko :) Gra nie wykorzystuje mocy, gdy wykorzystanie GPU
> jest
> > mniejsze niż 80% - na rynku jest pełno gier, które wykorzystują kartę bardziej.
>
> Proponuję zapoznać się trochę z teorią programowania i optymalizacji. Nie wystarczy zamordować
> kompa kiepsko napisanym programem, żeby można było powiedzieć, że wykorzystał on całą
> moc obliczeniową sprzętu. A wystarczy jedna pętla by zaciągnąć do niekończącej się pracy
> na ekstremalnym obciążeniu.
>


Nie widzę, by gry z serii Crysis (poza jedynką i Warheadem) były źle zoptymalizowane - wręcz przeciwnie. Jeśli gra dobrze skaluje się wraz ze wzrostem ilości rdzeni (tak w CPU jak i procesorów strumieniowych w GPU) tzn jest dobrze zoptymalizowana. Te, które mordują kompa zwykle "siedzą" na CPU, jak choćby słynne GTA IV czy ostatnio "jednordzeniowe" SimCity. Przetestowałem w życiu wiele kart graficznych i mogę powiedzieć, że nie ma na rynku produkcji, która wykorzystując większość dostępnych zasobów udostępnianych przez GPU byłaby źle zoptymalizowana. Ewentualnie czekam na wymienienie mi takiej pozycji.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

> > > Dalej pozostaje bez zmian fakt, że potęgi takich kart dziś nawet Crytek nie
> wykorzystuje.
> > Wyjaśnij bo nie do końca rozumiem. Crysis 3 na bardzo wysokich ustawieniach zjada
> praktycznie
> > każdą kartę graficzną przy rozdzielczości 1920x1080 i więcej.
>
> Ale MOCY OBLICZENIOWEJ nie zużywa. Cały czas się odnoszę do tego, bo na temat innych
> detali ATI jeszcze milczy. Tyle, nie próbuj rozwijać mojej wypowiedzi poza kontekst :)

Szanowny Autorze,

Czytelnicy słusznie zarzucają Ci błąd merytoryczny w tym wypadku. Moc obliczeniowa GPU to dość mglisty wskaźnik. Obiektywnych danych może nam dostarczyć wykres obciążenia karty graficznej w danej grze: w tym wypadku wiele gier mocno obciąża dzisiejsze GPU (nawet te posiadające więcej TFLOPS niż układ z PS4) w wysokich ustawieniach/rozdzielczości. Dlatego pisanie, ze Crysis 3 jest "poza zasięgiem" - cokolwiek to znaczy - naraża Cię na słuszną krytykę.

Druga sprawa: CPU z PS4 jest opatre na architekturze przeznaczonej dla tabletów/laptopów...dlatego właściwym wydaje się pisanie o "podrasowanym laptopie" a nie PC.

Trzeci zarzut: sugerowanie zakupu duetu Mac + x720 jest całkowicie bez sensu. Dobrze wiemy jak kiepską platformą do gier są komputery Apple...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

A chcesz sie zalozyc ze bedzie? :) Bezposrednie zestawienie konsoli i peceta opartego o identyczne komponenty jest dosc ryzykowne, zwlaszcza jesli to pierwsze otrzyma dedykowany soft rozpisany na niskim poziomie a to drugie juz nie. Optymalizacja czyni cuda, ps3 na papierze powinno sie udusic CoD MW2 a ciagnie BF3, Crysisa itd. na ekwiwalencie GF 7800GTX (z obcieta o polowe pamiecia RAM)- pal licho detale, sprobuj to odpalic na takim zlomie ;) Poza tym to struktura mocno zintegrowana, wszystko zatopione w jednym kawalku silikonu, bez zadnych plotkow po drodze, zasobozernego OS-a i gownianego API;

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować