Zaloguj się, aby obserwować  
Gram.pl

PhysX w GeForce'ach pojawi się w sierpniu

40 postów w tym temacie

na serii 8xxx też ? czyżby CUDA się działy?
ps na wszystkich kartach tej serii czy też modele z dolnej półki zostaną pominięte?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

sig - wyraźnie napisałem "Na razie działa on wyłącznie na GeForce''ach 9800 GTX oraz GTX 280 i GTX 260. Jednak w dniu premiery również posiadacze kart graficznych z serii 8xxx i pozostałych wchodzących w skład 9xxx będą mogli cieszyć się wspomnianą technologią." ;-) Więc wszystkie ósemki, dziewiątki i gtx 280 i 260. ;-)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Przyznam, że też nie bardzo łapię jak karty z rodziny 8 mogą mieć PhyXa na pokładzie. W sumie z tego co pamiętam do którejś gry wydali patch, który pozwalał korzystać z tych bajerów nawet bez tej karty. No nic poczekamy zobaczymy :D.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 08:33, Half-Devil napisał:

Przyznam, że też nie bardzo łapię jak karty z rodziny 8 mogą mieć PhyXa na pokładzie.
W sumie z tego co pamiętam do którejś gry wydali patch, który pozwalał korzystać z tych
bajerów nawet bez tej karty. No nic poczekamy zobaczymy :D.

być może odpowiedzią jest http://www.nvidia.pl/object/cuda_what_is_pl.html

re Harpen16 po stwierdzeniu microsoftu że multiplatformowość = wersja na win 98 i win xp lepiej się upewniać co do szczegółów, czasem interpretacje wcześniejszych wypowiedzi takiego czy innego giganta potrafią być całkowicie "odkrywcze".

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Miło... Miejmy nadzieję, że teraz jak ludzie będą mieli PhysX, nawet w grafie, to programiści zaczną z tego korzystać i zaleje nas falal tytułów. Jeśli nie, to zieloni stracą kupę kasy na nikomu niepotrzebny bajer. :/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 09:05, kaganiec napisał:

Miło... Miejmy nadzieję, że teraz jak ludzie będą mieli PhysX, nawet w grafie, to programiści
zaczną z tego korzystać i zaleje nas falal tytułów. Jeśli nie, to zieloni stracą kupę
kasy na nikomu niepotrzebny bajer. :/

zawsze można w ten sam sposób dodać sprzętowe wspomaganie havooka, a wtedy już masa gier skorzysta.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zapowiada się ciekawa sytuacja na rynku kart grafiki sprzętowo obsługujących fizykę. Intel kupił Havoc''a, więc Larrabee będzie miała jego pełne wsparcie, nVidia kupiła AGEIA i ma wsparcie PhysX, a AMD/ATI... z tego, co słyszałem, zostanie wsparte przez nVidia, która podobno dała im prawo do użycia PhysX, aby wyprzeć ewentualnie Havoc, a Intel z kolei miał dać im prawo do użycia Havoc''a, aby pozbyć się PhysX. Tak czytałem na jakichś dwóch portalach internetowych. Wychodzi na to, że w tej sytuacji karty AMD jako jedyne obsłużyły by i PhysX i Havoc. Ciekawie:)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 08:23, sig. napisał:

na serii 8xxx też ? czyżby CUDA się działy?
ps na wszystkich kartach tej serii czy też modele z dolnej półki zostaną pominięte?

Ten sterownik, to nic innego jak emulator. Tyle, że emulator, który te najbardziej pracochłonne i specjalizowane obliczenia przekazuje do wykonania dla GPU.
Dlatego nie jest to nic specjalnie odkrywczego. Kwestia wolnej mocy obliczeniowej na GPU. Tyle, że ten pomysł jest słaby. GPU nie cierpią na nadmiar mocy bo zawsze można wyświetlać bardziej ciężką grafikę. Natomiast na nadmiar niepotrzebnej mocy cierpią współczesne procesory, które dosłownie nie mają co robić. Nvidia chce dokładać kolejne klocki do swojego GPU i sprzedawać coraz droższe karty dając ludziom to co taniej mogą uzyskać po prostu wykorzystując swoje szybkie CPU. Ale najprawdopodobniej strzelą sobie w stopę bo ile można z kart graficznych robić piekarnik czy grzejnik. Producenci gier i tak będą używać rozwiązań programowych bo w tym celu w procesorach są przecież potrzebne rozkazy i wolna moc. No i wtedy producent gry nie jest uwiązany do takiej czy innej karty graficznej. Wystarczy supermarketowy komputer do którego dołoży się normalną grafikę.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dojdzie do tego że dwie karty w kompie to będzie standard ... jedna do renderowania grafiki, a druga do obliczania fizyki, sztucznej inteligencji, i całej reszty operacji którymi zajmował się procesor :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Póki co GPU mają dużo większą moc obliczeniową niż CPU, więc czemu nie dać doskonałej karty graficznej do średniego procka? to wojna intela (świetny cpu z marną karta graficzną) z nvidią (na odwrót) i ja póki co kibicuję drugiej opcji jako wydajniejszej, Lepsza grafika? takowa i tak ma marginalne znaczenie, zaś fizyka się przyda do realistycznego zachowania otoczenia.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 09:36, sig. napisał:

Póki co GPU mają dużo większą moc obliczeniową niż CPU

Ale można je już teraz wyżyłować do maksimum. Tylko nowe karty z górnej półki mają początkowo nadmiar niewykorzystanej mocy - dopóki producenci gier nie nauczą się wykorzystywać nowej technologii do wytworzenia coraz bardziej wyszukanej grafiki.

Dnia 25.07.2008 o 09:36, sig. napisał:

więc czemu nie dać doskonałej karty graficznej do średniego procka?

Bo dzisiaj średni procek wykorzystuje 20-30% swojej mocy w najbardziej obciążających komputer zadaniach.

Dnia 25.07.2008 o 09:36, sig. napisał:

to wojna intela (świetny cpu z marną karta graficzną) z nvidią (na odwrót) i ja póki co kibicuję drugiej opcji jako wydajniejszej

A ja kibicuję świetnemu CPU ze świetną kartą graficzną. I to jest przy okazji opcja najtańsza w stosunku do potrzeb (najbardziej wydajna, najbardziej opłacalna).
Czyli współczesny komputer ze współczesną kartą graficzną, a nie piekielnie słaby procek z przerośniętą grafiką lub rzężący ogromnym wentylatorem CPU z badziewną integrą GPU.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Fajny pomysł z tą ageią w geforcach. Teraz, żeby cieszy się realistyczną fizyką nie będzie trzeba kupować następnej karty.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 09:32, Olamagato napisał:

> na serii 8xxx też ? czyżby CUDA się działy?
> ps na wszystkich kartach tej serii czy też modele z dolnej półki zostaną pominięte?

Ten sterownik, to nic innego jak emulator. Tyle, że emulator, który te najbardziej pracochłonne
i specjalizowane obliczenia przekazuje do wykonania dla GPU.
Dlatego nie jest to nic specjalnie odkrywczego. Kwestia wolnej mocy obliczeniowej na
GPU. Tyle, że ten pomysł jest słaby. GPU nie cierpią na nadmiar mocy bo zawsze można
wyświetlać bardziej ciężką grafikę. Natomiast na nadmiar niepotrzebnej mocy cierpią współczesne
procesory, które dosłownie nie mają co robić. Nvidia chce dokładać kolejne klocki do
swojego GPU i sprzedawać coraz droższe karty dając ludziom to co taniej mogą uzyskać
po prostu wykorzystując swoje szybkie CPU. Ale najprawdopodobniej strzelą sobie w stopę
bo ile można z kart graficznych robić piekarnik czy grzejnik. Producenci gier i tak będą
używać rozwiązań programowych bo w tym celu w procesorach są przecież potrzebne rozkazy
i wolna moc. No i wtedy producent gry nie jest uwiązany do takiej czy innej karty graficznej.
Wystarczy supermarketowy komputer do którego dołoży się normalną grafikę.


Hm... Jak się zastanowić, to w ten sposób wszystkie sterowniki (także te "zwykłe" do kart graficznych) są emulatorami, które wykorzystują do obliczeń moc procesora. Procesor to urządzenie, które bez sterownika "emulatora'' samo nie będzie działać, a tak się składa, że współczesne GPU tak samo dobrze nadają się do obliczeń fizyki jak i grafiki.

Nadmiar mocy CPU w żaden sposób nie wystarczy do skomplikowanych obliczeń fizyki w czasie rzeczywistym, bo do tego współczesne CPU są za cienkie. Obecne GPU przewyższają CPU mocą kilkadziesiąt razy w specyficznych zastosowaniach... Tam gdzie CPU może równocześnie obsłużyć kilka wątków GPU może ich obsłużyć kilkadziesiąt... To ma znaczenie przy obliczaniu np. efektów cząsteczkowych.

Podsumowując to co piszesz nie jest prawdą. Mam nadzieję, że nikogo nie wprowadziłeś w błąd.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zaraz,zaraz... czyli, jeżeli mam Geforca 9800 GTX, to wystarczy że ściągnę sobie te sterowniki o których mowa w newsie, i będę miał jakoby wybudowaną obsługę PhysX ?
Cóż, brzmi mniej więcej tak, jak zwykłe używanie tego emulatora.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Heh, to świetny pomysł! Jak na wszystkich 8xxx więc mój 8600 też będzie obsługiwał tą technologię! Nareszcie pogram w Warmonger bez większych ścinek...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 10:35, zajacisko napisał:

Heh, to świetny pomysł! Jak na wszystkich 8xxx więc mój 8600 też będzie obsługiwał tą
technologię! Nareszcie pogram w Warmonger bez większych ścinek...



Zobaczymy co to za ściema Nvidii i przekonamy się ile nasze karty zyskają "mocy" po emulacji PhsyX.

ps... jeśli w ogóle coś zyskamy poza marketingowym chwytem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 25.07.2008 o 10:15, Mr. X napisał:

Nadmiar mocy CPU w żaden sposób nie wystarczy do skomplikowanych obliczeń fizyki w czasie rzeczywistym, bo do tego współczesne CPU są za cienkie.

I to jest właśnie kwestia dyskusyjna. Prawda, że GPU są specjalizowane i dużo obliczeń mają wprost pasujących do obsługi obliczeń zmiennoprzecinkowych bardzo wysokiej precyzji. Tyle, że dobicie ich jeszcze kolejnym układem albo kolejnym kawałkiem rdzenia oznacza, że wszystko musi być jeszcze większe lub wydajniejsze. Nie ma tańszej wersji niż wykorzystanie tego co już jest. Karty klasy GF 88xx można już wyżyłować do maksimum. W wielu grach nie ma już dla nich ani kawałeczka marnującej się mocy, a i tak chodzą jak suszarki. Natomiast CPU najczęściej pracuje w idle, albo ledwo coś robi.

Dnia 25.07.2008 o 10:15, Mr. X napisał:

Obecne GPU przewyższają CPU mocą kilkadziesiąt razy w specyficznych zastosowaniach...

Tak zgadza się. Ale kosztem obsługi grafiki w tym samym czasie. Chyba, że pogorszysz jakość tej ostatniej.

Dnia 25.07.2008 o 10:15, Mr. X napisał:

Tam gdzie CPU może równocześnie obsłużyć kilka wątków GPU może ich obsłużyć kilkadziesiąt...

Prawda. Ale jak już napisałem co Ci z tego, że możesz przeliczyć kilkaset źródeł zmian fizycznych jeżeli w tym czasie musisz dokupić drugą kartę w SLI bo ta jedna się nie wyrabia z grafiką? To prościej jest zlecić CPU zrobienie mniej, ale bez żadnych dodatkowych nakładów poza użyciem programowego emulatora.

Dnia 25.07.2008 o 10:15, Mr. X napisał:

Podsumowując to co piszesz nie jest prawdą. Mam nadzieję, że nikogo nie wprowadziłeś w błąd.

Nie mam zamiaru nikogo wprowadzać w błąd. A właśnie odwrotnie. Trzeba wiedzieć co się z czym je.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Czekałem na ten news ... ale nie spodziewałem się, że moja kochana 88GT także będzie mogła wykorzystać ten silnik fizyki ;OOO RADOŚĆ <YEAH>.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować