Zaloguj się, aby obserwować  
Gram.pl

PhysX w GeForce'ach pojawi się w sierpniu

40 postów w tym temacie

Dnia 25.07.2008 o 10:39, Olamagato napisał:

Nie mam zamiaru nikogo wprowadzać w błąd. A właśnie odwrotnie. Trzeba wiedzieć co się
z czym je.



Ok. Chodzi mi tylko o to, że aktualna sytuacja jest taka:
- CPU liczy fizykę, taką jak widać w grach (ragdoll, proste wybuchy itp.)
- Ageia np. miała te efekty wzbogacić (np. dodatkowe elementy rozpryskujące się podczas wybuchu, lepszy ragdoll)
- Jeśli obecne CPU mogłoby sobie z tym poradzić, to programiści w grach by takie efekty dodali bez potrzeby stosowania dodatkowych akceleratorów
- Masz rację, że 8xxx będzie za słabe, żeby dać maks grafę + efekty fizyczne, ale jeśli ktoś woli słabszą grafę (np. bez AA i anizo), za to z lepszymi efektami fizycznymi, to będzie miał możliwość wyboru - na CPU nie osiągnie się RÓWNIE DOBRYCH efektów, jak na GPU

:) pozdro

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 10:52, Mr. X napisał:

- na CPU nie osiągnie się RÓWNIE DOBRYCH efektów, jak na GPU

A jakbyś miał do wyboru: iść 100km piechotą albo pojechać maluchem, to co byś zrobił? Bo kupować sportowe Ferrari raczej się nie kalkuluje (zresztą skąd wziąć na to kasę), a zresztą maluch też przejedzie te 100km, wprawdzie wolniej, ale zawsze :)
Logiczne, że CPU nie poradzi sobie tak dobrze jak GPU, ale przynajmniej COŚ zrobi, a inaczej nie byłoby nic :/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 10:35, zajacisko napisał:

Heh, to świetny pomysł! Jak na wszystkich 8xxx więc mój 8600 też będzie obsługiwał tą
technologię! Nareszcie pogram w Warmonger bez większych ścinek...


wiesz nagle twoja karta nie zrobi się wydajniejsza, a wręcz przeciwnie zamiast obrabiać grafikę w wysokiej rozdzielczości część jej mocy będzie szło na fizykę,a co za tym idzie mniejsza rozdzielczość i fizyka, albo wyższa rozdzielczość bez fizyki ;] gf 8xxx nie mają chipy od fizyki, więc ta emulacja będzie obciążać układ odpowiedzialny za renderowanie coś dostajesz i coś tracisz nie am mowy o zysku

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Hmmm... fajnie wreszcie bedzie lepsza fizyka w niektórych grach... ale widze ze czas na ,,mały''''upgrade kompa jesli chce z tego skorzystać:D A tak przy okazji cholerenie sie nawet opłaca bo ceny kart graficznych poszły w dół

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Pomysł Nvidi jest świetny, ale dla właścicieli najlepszych kart 9xxx oraz 280 i 260 ;) Bo nie chce mi się wierzyć, żeby moja 8600GT wyświetli świetną grafikę i obliczyła fizykę :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jest napisane ,ze w sterownikach dodadza wsparcie dla PX a nie ,ze karta sama bedzie obliczac efekty fizyki.Wsparcie to znaczy ,ze bedziecie mogli dodac do kompa taka specjalna karte PX ktora bedzie wspolpracowala z wasza karta graficzna. GF 9800 i obliczenia PX smiech na sali nie robcie boga z teja karty bez karty PX moze co najwyzej obliczac proste efekty fizyczne i to bez wielkich fajerwerkow a gdzie cienie gdzxie bluur gdzie AA .

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Generalnie słaby news. Już nie od dziś wiadomo, że na najnowszych sterach działa to też na geforce 8800gt/gtx, 9800gtx i wzwyż. Dodatkowo, nowe sterowniki będą miały wsparcie dla pozostałych kart z serii 8 i 9. Kolejna sprawa to słabe porównanie co daje psyhx. W GRAW to po prostu g*wno daje, ma się więcej odłamków, ot co... Dobrym porównaniem były by screeny z CellFactor Revolution gdzie całe mapy zbudowane są z bloków, które możemy rozwalać. Generalnie okazuje się, że te całe Psyhx pod geforcy można odpalić na kartach ATI, na razie udało się to na radkach z serii 3, beta testy tych sterów trwają, niedługo mają być wydane dla publiki. No i jedyne co obecnie daje ten psyhx for nvidia to więcej pkt w 3d smarku vantage:

http://www.ngohq.com/news/14219-physx-gpu-acceleration-radeon-hd-3850-a-19.html
http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update-9.html

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

gdybym nie przeczytał posta Firexive, powiedziałbym, że "no to ATI ma trochę w plecki" ale nie powiem. a dopóki ten cały PhysX jest wykorzystywany tylko do obliczania toru trzech czy czterech odłamków - dla mnie żadna rewelacja. Jakoś wolę Havoka. Ale w sumie nie wiem, jaka różnica w nich :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dodam jeszcze, że ATI współpracuje z Havokiem, który możemy obserwować w np. Half-Life 2 , znacznie lepiej to wychodzi w praniu niż jakaś Ageia, która obecnie, zdaje się, działa tylko na grach z silnikiem Unreal Engine 3. A jeśli już przy ati vs nvidia jesteśmy... Radeony od paru lat mają sprzętową teselację, wparcie dla dx 10.1, karty w technologii 55nm, gddr5 no i Havok, wszystko to czyni nvidię niesamowicie zacofaną technologicznie, jedynie ich marketing pozwala na przytrzymywaniu ich produktów przy życiu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 11:36, pendejo napisał:

> Heh, to świetny pomysł! Jak na wszystkich 8xxx więc mój 8600 też będzie obsługiwał

> technologię! Nareszcie pogram w Warmonger bez większych ścinek...

wiesz nagle twoja karta nie zrobi się wydajniejsza, a wręcz przeciwnie zamiast obrabiać
grafikę w wysokiej rozdzielczości część jej mocy będzie szło na fizykę,a co za tym
idzie mniejsza rozdzielczość i fizyka, albo wyższa rozdzielczość bez fizyki ;] gf 8xxx
nie mają chipy od fizyki, więc ta emulacja będzie obciążać układ odpowiedzialny za renderowanie
coś dostajesz i coś tracisz nie am mowy o zysku


co rozumiesz przez "chip od fizyki"?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 10:39, Olamagato napisał:

> Nadmiar mocy CPU w żaden sposób nie wystarczy do skomplikowanych obliczeń fizyki
w czasie rzeczywistym, bo do tego współczesne CPU są za cienkie.
I to jest właśnie kwestia dyskusyjna. Prawda, że GPU są specjalizowane i dużo obliczeń
mają wprost pasujących do obsługi obliczeń zmiennoprzecinkowych bardzo wysokiej precyzji.
Tyle, że dobicie ich jeszcze kolejnym układem albo kolejnym kawałkiem rdzenia oznacza,
że wszystko musi być jeszcze większe lub wydajniejsze. Nie ma tańszej wersji niż wykorzystanie
tego co już jest. Karty klasy GF 88xx można już wyżyłować do maksimum. W wielu grach
nie ma już dla nich ani kawałeczka marnującej się mocy, a i tak chodzą jak suszarki.
Natomiast CPU najczęściej pracuje w idle, albo ledwo coś robi.

> Obecne GPU przewyższają CPU mocą kilkadziesiąt razy w specyficznych zastosowaniach...
Tak zgadza się. Ale kosztem obsługi grafiki w tym samym czasie. Chyba, że pogorszysz
jakość tej ostatniej.


Nie zgodzę się. W chwili, w której procesor obrabia fizykę konieczne jest jeszcze przesłanie po szynie danych o wierzchołkach do karty graficznej. Ten transfer nie jest tani. Patrząc przez analogię o ile VBO pomogły wydajności przetwarzania geometrii sądzę, że będzie dokładnie odwrotnie. Fizyka będzie mogłba być liczona w czasie, który normalnie byłby zmarnowany na oczekiwanie na przetworzone wierzchołki. Zatem rezultat może być taki, że obliczymy 10-krotnie bardziej skomplikowaną fizykę nie spowalniając grafiki.

Dostęp do wierzchołków przez DMA to tak jakby cache-miss. Nie na darmo w procesorach stosuje się cache L1/L2(/L3). Nawet jeśli czas czekania na kilka wierzchołków to zaledwie np. kilkadziesiąt cykli zegara GPU - to biorąc pod uwagę, że mamy np. 64-128 shading units możemy obliczyć w tym samym czasie ich kilkaset! Albo obliczyć tyle samo ale przyspieszyc wyswietlanie grafiki o ileś procent.

Dnia 25.07.2008 o 10:39, Olamagato napisał:

> Tam gdzie CPU może równocześnie obsłużyć kilka wątków GPU może ich obsłużyć kilkadziesiąt...
Prawda. Ale jak już napisałem co Ci z tego, że możesz przeliczyć kilkaset źródeł zmian
fizycznych jeżeli w tym czasie musisz dokupić drugą kartę w SLI bo ta jedna się nie wyrabia
z grafiką? To prościej jest zlecić CPU zrobienie mniej, ale bez żadnych dodatkowych nakładów
poza użyciem programowego emulatora.

> Podsumowując to co piszesz nie jest prawdą. Mam nadzieję, że nikogo nie wprowadziłeś
w błąd.
Nie mam zamiaru nikogo wprowadzać w błąd. A właśnie odwrotnie. Trzeba wiedzieć co się
z czym je.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 09:32, Olamagato napisał:

> na serii 8xxx też ? czyżby CUDA się działy?
> ps na wszystkich kartach tej serii czy też modele z dolnej półki zostaną pominięte?

Ten sterownik, to nic innego jak emulator.


emulator czego? C64?

Dnia 25.07.2008 o 09:32, Olamagato napisał:

Tyle, że emulator, który te najbardziej pracochłonne
i specjalizowane obliczenia przekazuje do wykonania dla GPU.
Dlatego nie jest to nic specjalnie odkrywczego.


oczywiście, że nie. Tak działają emulatory :P

Dnia 25.07.2008 o 09:32, Olamagato napisał:

Kwestia wolnej mocy obliczeniowej na
GPU. Tyle, że ten pomysł jest słaby. GPU nie cierpią na nadmiar mocy bo zawsze można
wyświetlać bardziej ciężką grafikę. Natomiast na nadmiar niepotrzebnej mocy cierpią współczesne
procesory, które dosłownie nie mają co robić. Nvidia chce dokładać kolejne klocki do
swojego GPU i sprzedawać coraz droższe karty dając ludziom to co taniej mogą uzyskać
po prostu wykorzystując swoje szybkie CPU.


Prawda jest taka - jeśli masz wolną kasę - kupujesz lepszą kartę graficzną - bo procesor za 3000 zł z kartą za 300 będzie w grach dużo gorszy niż procesor za 300 z kartą za 600.

Dnia 25.07.2008 o 09:32, Olamagato napisał:

Ale najprawdopodobniej strzelą sobie w stopę
bo ile można z kart graficznych robić piekarnik czy grzejnik.


A procesor to nam chłodzi komputer ;) np. 125W AMD x2 6000

Dnia 25.07.2008 o 09:32, Olamagato napisał:

Producenci gier i tak będą
używać rozwiązań programowych bo w tym celu w procesorach są przecież potrzebne rozkazy


właśnie np. mnożenie i dodawanie, których procesor może zrobić naraz 1-2, z użyciem SSE 16 ALE zakładając odpowiednie ułożenie danych w pamięci (co kosztuje!). GPU zrobi w 1 cyklu takich operacji tyle ile ma jednostek (np. 128), poza tym pamięć peceta z reguły jest sporo wolniejsza od pamięci przy GPU. No i w przypadku liczenia na GPU odpada transfer obliczonych pozycji wierzchołków do karty graficznej.

Dnia 25.07.2008 o 09:32, Olamagato napisał:

i wolna moc.


problem ludzi inwestujących w nie te podzespoły co trzeba.

Dnia 25.07.2008 o 09:32, Olamagato napisał:

No i wtedy producent gry nie jest uwiązany do takiej czy innej karty graficznej.


Nie jest. PhysX może działać też na CPU.

Dnia 25.07.2008 o 09:32, Olamagato napisał:

Wystarczy supermarketowy komputer do którego dołoży się normalną grafikę.


i buuuum. po zasilaczu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.07.2008 o 01:11, soulcoder napisał:

Nie jest. PhysX może działać też na CPU.

A to od kiedy? przecież physX z początku był specjalizowaną kartą (swoją drogą zawierającą minijądra niewiele różniące się od shaderów) wyłącznie od fizyki, to nie havoc że zrobiono go na cpu a teraz się przenosi na karty graficzne.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.07.2008 o 07:15, sig. napisał:

> Nie jest. PhysX może działać też na CPU.
A to od kiedy? przecież physX z początku był specjalizowaną kartą (swoją drogą zawierającą
minijądra niewiele różniące się od shaderów) wyłącznie od fizyki, to nie havoc że zrobiono
go na cpu a teraz się przenosi na karty graficzne.


Racja. Nieprecyzyjnie się wyraziłem. Chodziło mi o AGEIA PhysX driver, nie HW oczywiście.

Nie doczytałem całego posta - A właśnie, że zrobiono na CPU. Novodex SDK pojawił się rok przed ogłoszeniem informacji o sprzęcie mającym go wspierać. Novodex SDK przemianowano później na AGEIA PhysX SDK.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 26.07.2008 o 00:43, soulcoder napisał:

co rozumiesz przez "chip od fizyki"?


to, że najnowsze gf mają osobny układ na pokładzie od obliczania fizyki, a gf 8xxx będą miały te sprawę rozwiązaną programowo czyli będą zabrane zasoby potrzebne do czegoś innego. Czyli nie włączy się tych efektów bez spadku fpsów na gf 8xxx, a na nowszych już spadek będzie mniejszy bądź wcale zależy od tego jak ten wbudowany układ współgra z resztą.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

>
> > co rozumiesz przez "chip od fizyki"?
>
> to, że najnowsze gf mają osobny układ na pokładzie od obliczania fizyki, a gf 8xxx będą
> miały te sprawę rozwiązaną programowo czyli będą zabrane zasoby potrzebne do czegoś innego.

Nie wiem skąd taka wiadomość. Nie mają. Ze strony nvidii wyczytać można "NVIDIA will deploy PhysX on CUDA-enabled GPUs", stronka opisująca CUDA pokazuje, że jest wspierane od wersji 8xxx. Prosta fizyka (np. cząsteczek) była dostępna w SDK nvidii na shaderach 1.3. Fizyka to nie cuda (chociaż :) dziwnym trafem są to CUDA), tylko mnożenia i dodawania. Jednak ograniczenia shader''ów wcześniejszych wersji nie pozwalały na uruchamianie bardziej skomplikowanych programów (np. na początku nie było w ogóle pętli!).

Zgodzę się tylko z tym, że jeśli karta jest raczej niskobudżetową pozycją, to fakt uruchomienia PhysX''a na GPU nie sprawi, że gry nagle zaczną płynnie działać.

Tak dla ścisłości - 8xxx i 9xxx to ta sama architektura SPA (Scalable Processor Array) ze zunifikowanymi shader''ami. Dopiero seria, którą reprezentuje GTX280 przynosi zmianę w postaci SPA drugiej generacji. Najistotniejsze różnice (oprócz ogólnego usprawnienia architektury wszędzie po troszce) to większa liczba TPC (Texture Processing Clusters/Thread Processing Clusters - zależnie od trybu pracy - grafika vs obliczenia równoległe), oraz większa liczba SM (Streaming Multiprocessors, które dla NV są 8-core''owe - każdy core to tzw. SP (streaming processor; ew. thread processor)). SM występują per TPC i tak dla GF8/9 mamy 8 TPC, 2 SM per TPC razy 8 core''ów daje 128 SP, dla GTX280 mamy 10 TPC, 3 SM per TPC razy 8 daje 240 SP. Oznacza to przynajmniej w ujęciu analitycznym potencjalny wzrost mocy prawie dwa razy.

Kolejna zmiana to architektura wielowątkowości, sprzętowy Thread Scheduler potrafiący zarządzać ponad 30 tysiącami wątków - zapewniając prawie optymalne wykorzystanie sprzętu; dalej mamy 512 bitowy interfejs pamięci, Hybrid Power i zarządzanie poborem prądu w ogóle; podwójna precyzja liczb zmiennopozycyjnych i wsparcie dla 10-bitowego koloru.

Zwiększona precyzja obliczeń absolutnie nie przyda się w grach, gdzie symulacja fizyki obliczana jest zwykle odwrotnym Eulerem, nawet nie mid-point''em (no może czasami ktoś się pokusi o rozwiązywanie ODE metodami 2-go rzędu:)) czy metodami Runge-Kutty (co do symulacji np. cieczy, gazów itd. PDE są zdecydowanie za ciężkie by wychodzić poza rząd 2) - zresztą w grach zależy wszystkim na efektach, nie na super dokładności obliczeń. Reszta usprawnień przyniesie tylko jeszcze większą wydajność - nic poza tym.

> Czyli nie włączy się tych efektów bez spadku fpsów na gf 8xxx, a na nowszych już spadek
> będzie mniejszy bądź wcale zależy od tego jak ten wbudowany układ współgra z resztą.

ze względu na wydajność kart zawsze będzie różnica.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.07.2008 o 00:55, soulcoder napisał:

Nie zgodzę się. W chwili, w której procesor obrabia fizykę konieczne jest jeszcze przesłanie
po szynie danych o wierzchołkach do karty graficznej. Ten transfer nie jest tani. Patrząc
przez analogię o ile VBO pomogły wydajności przetwarzania geometrii sądzę, że będzie
dokładnie odwrotnie. Fizyka będzie mogłba być liczona w czasie, który normalnie byłby
zmarnowany na oczekiwanie na przetworzone wierzchołki. Zatem rezultat może być taki,
że obliczymy 10-krotnie bardziej skomplikowaną fizykę nie spowalniając grafiki.

Hm z tego co mi wiadomo (o OpenGL) to wszelkie listy wyświetlania i tak przechowywane są w pamięci głównej. Czyli wierzchołki i związane z nimi prymitywy i kordynaty tekstur i tak przesyła się do karty graficznej przy każdej klatce. Karta graficzna natomiast przechowuje głównie tekstury. Odpal sobie starusieńkiego CSa i zobacz ile zajmuje w pamięci: 400 MB to są własnie informacje o modelach i animacjach.
Z tego co ty napisałem, że rozumiesz karte graficzną jako urządzenie do ktorego wysyłasz modele, program, wszystko, a potem dosyłasz input użytkownika. Urządzenie o którym mówisz to nie karta graficzna tylko komputer ;) Grafika w zasadzie oblicza jedynie efekty wizualne czyli cieniowania fragmentow, kolorowanie pikseli etc.

Dnia 26.07.2008 o 00:55, soulcoder napisał:

np. kilkadziesiąt cykli zegara GPU - to biorąc pod uwagę, że mamy np. 64-128 shading
units możemy obliczyć w tym samym czasie ich kilkaset! Albo obliczyć tyle samo ale przyspieszyc
wyswietlanie grafiki o ileś procent.

To co w tym czasie będzie cieniować wierzchołki na ekranie?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

> > Nie zgodzę się. W chwili, w której procesor obrabia fizykę konieczne jest jeszcze
> przesłanie
> > po szynie danych o wierzchołkach do karty graficznej. Ten transfer nie jest tani.
> Patrząc
> > przez analogię o ile VBO pomogły wydajności przetwarzania geometrii sądzę, że będzie
>
> > dokładnie odwrotnie. Fizyka będzie mogłba być liczona w czasie, który normalnie
> byłby
> > zmarnowany na oczekiwanie na przetworzone wierzchołki. Zatem rezultat może być taki,
>
> > że obliczymy 10-krotnie bardziej skomplikowaną fizykę nie spowalniając grafiki.
>
> Hm z tego co mi wiadomo (o OpenGL) to wszelkie listy wyświetlania i tak przechowywane
> są w pamięci głównej. Czyli wierzchołki i związane z nimi prymitywy i kordynaty tekstur
> i tak przesyła się do karty graficznej przy każdej klatce. Karta graficzna natomiast
> przechowuje głównie tekstury. Odpal sobie starusieńkiego CSa i zobacz ile zajmuje w pamięci:
> 400 MB to są własnie informacje o modelach i animacjach.

stare dzieje. Zerknij na np. GL_ARB_vertex_buffer_object. Dzięki VBO możliwe jest umieszczenie tablicy wierzchołków w pamięci karty co eliminuje konieczność straty przepustowości szyny, jak napisałeś, co klatkę.

> Z tego co ty napisałem, że rozumiesz karte graficzną jako urządzenie do ktorego wysyłasz
> modele, program, wszystko, a potem dosyłasz input użytkownika.

Dokładnie. Jeśli wrzucimy wierzchołki, tekstury, animacje itd. do pamięci karty (ew. jeśli mamy za mało pamięci na karcie zostanie użyta systemowa przez dostęp DMA - co jednak będzie b. wolne - dlatego ważne by np. dobierać poziom detali zależnie od pamięci karty) starczy posyłać nam koordynaty całych obiektów (zmieniające się np. w wyniku wejścia czy też działań AI) jako parametry shader''ów a całym renderowaniem sceny (łącznie z obliczeniem kolejnego kroku dla fizyki ciał sztywnych i cząsteczek) zajmie się karta graficzna.

> Urządzenie o którym mówisz
> to nie karta graficzna tylko komputer ;)

10 lat temu nierealne było, że karta graficzna mogłaby robić rzeczy osiągane dziś przy pomocy shader''ów a jakość wyznaczana była przez ray-tracing. Czasy się zmieniają.

Popieram NV w jej walce z Intelem. Intel został daleko z tyłu ze sztuczną architekturą CISC (co z tego, że rdzenie riscowe) i kilkoma marnymi core''ami. Najbardziej ciężkie algorytmy wykonywane równolegle na GPU i bez super drogiego cache''u wykonują się dziesiątki razy szybciej niż na procesorach dwukrotnie droższych od przyzwoitej karty graficznej.

> Grafika w zasadzie oblicza jedynie efekty wizualne
> czyli cieniowania fragmentow, kolorowanie pikseli etc.

Kiedyś tylko wyświetlała piksele. Ewolucja.

>
> > np. kilkadziesiąt cykli zegara GPU - to biorąc pod uwagę, że mamy np. 64-128 shading
>
> > units możemy obliczyć w tym samym czasie ich kilkaset! Albo obliczyć tyle samo ale
> przyspieszyc
> > wyswietlanie grafiki o ileś procent.
> To co w tym czasie będzie cieniować wierzchołki na ekranie?

Nie w tym czasie. Po prostu karta graficzna czekając na wierzchołek do wyświetlenia traci więcej czasu niż gdyby sama obliczyła fizykę mając wierzchołek w swojej pamięci.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować