Zaloguj się, aby obserwować  
Gram.pl

Akceleratory fizyki atakują

75 postów w tym temacie

Dnia 10.04.2006 o 19:22, NyGgA MiLy napisał:

Po co ten akcelerator potrzebny?
W realu jest lepsza fizyka:D
Zrzuć kolesia za schodów i gotowe(zaden akcelerator tego nie odtworzy):D

pewnie, w grze to zawsze leci kukła, a w realu osobnik będzie próbował się uratować. no i wrażenia dźwiękowe niemożliwe do symulacji :]

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

zapomniałeś o minireaktorze jądrowym (kupno wyjdzie taniej niż rachunek za prąd ;) pozatym do liczenia fizyki można wykorzystać shadery z kart graficznych (a te mamy za darmo, starczy dodać suwak na którym z jednej strony będą efekty graficzne a z drugiej fizyczne. i ustali każdy co bardziej (i jak bardziej bo shaderów jest już po pare(naście) na karcie) lubi.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Eh, ale wy marudzicie, ręce opadają... :P

Akcelerator fizyki może służyć do wielu rzeczy, nie tylko do symulacji fizycznej, ale także do wspomagania AI. A to już jest coś, no nie?

Procesory 64bit wcale nie są szybsze od 32bit przez większy zakres adresowania (są szybsze dzięki nowej arhitekturze), po prostu pozwalają zaadresować więcej pamięci i przetworzyć w jednym takcie bardziej dokładne parametry (porównajcie sobie FarCry w wersjach 32 i 64), ale wcale nie policzy ich więcej! Więc fizyka na procesorach, przynajmniej fizyka takiego kalibru, jeszcze długo możliwa nie będzie.

Co do układów fizycznych na grafice - to może być ciekawe. Ba, widziałem tech demo nVidii pokazujace symulację AI opartą w 100% na GPU. Zobaczymy...

A sam PPU mnie nie interesuje, bo kompa ulepszał już raczej nie będę, przynajmniej nie teraz... Wolę kupić konsolę...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.04.2006 o 13:38, Arclight napisał:

Kiedyś wymyślili "generator zapachów" podpinany do USB. I się nie przyjął.


Tak, tak pamiętam. Jego hasłem reklamowym było bodajże ''''Poczuj odór lochów Diablo II w własnym domu!'''' Ciekawe czy fizyka w Ghost Recon Advanced Warfighter z x360 będzię się znacząco różniła od tej z portu na PC z uruchomionym PhysX.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.04.2006 o 19:09, Bambusek napisał:

Taa, ciekawe ile procent wydajności/klatek na sekundę zyskamy uruchamiając grę z tym akceleratorem.
Obstawiam, ze niewiele.


aale... aale... O_o a widziałeś co jest pod tym linkiem? akurat jest tam porównanie, jak gra wygląda "bez" (ciężarówka robi bum, kiwa na resorach i otwierają się jej drzwi) a "z" (roz*******a się na kawałki, które jeszcze przez chwilę spadają z nieba)

;f

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

zależy co liczymy, przy dużych/długich zmiennoprzecinkowych liczbach (takich które sie w 32 bitowym rejestrze nie zmieszczą)procesor 64 bit będzie szybszy. ale dodanie 2 jądra przyśpieszy go bardziej i to niezależnie od tego co liczymy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Grafike to juz nieznacznie beda w grach chyba polepszac bo co jeszcze mozna robic? Majac najlepszy obecnie procek i grafike mozna naprawde niezle efekty ogladac. Jak beda lepsze procki i grafiki to one beda mogly nam obliczac fizyke i wiele innych ciekawych pomyslow. Ta firma lepiej by zrobila gdyby wspolpracowala z nvidia albo ati zeby zamontowac trakie cos na grafice i by bylo korzystniej dla wszystkich.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

nie trzeba współpracować, w tym chipie jest po prostu paredziesiąt rdzeni działających na zasadzie jednostek sse/shadarów. to są dokładnie te same obliczenia tylko z innymi zmiennymi (które programowalne jak najbardziej są). A co za tym idzie można wykorzystać te co już są albo dołozyć nowe żeby super-hiper-mega-zbędnych wodotrysków graficznych nie trzeba było ograniczać). co wiejcej czipy graficzne nvidi już sie wykorzystuje w celach niegraficznych, symulowały np śmierć gwiazdy (co prawa trzeba im było wmuwić że liczą tekstury, ale to tymczasowo), co zeszło dużo krucej niż przy tradycyjnym cpu (zarówno nvidia jak i ati zapowiadają że ułątwią takie rzeczy, w końcu dotychczas naukowcy nie potrzebowali supergrafy, a porzy takich możliwosciach napewno grono kupujących duże ilośći zasilą)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.04.2006 o 19:08, Bambusek napisał:

To po prostu miałeś pecha. Tak bywa. Ja zawsze tak kupowałem kartę, że starczyła mi na długo.


No miałem, mogłem kupować kiedy ta karta kosztowała 2 tysiaki. Wtedy starczyła by mi na długo, tak jak Tobie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Nie ma co.. Aby tylko kase zedrzeć (a tak przy okazji, to moim zdaniem takie efekty spokojnie można osiągnąć na najnowszym sprzęcie i żaden "dopalacz" nie jest do tego potrzebny).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Re @ sig. --> Podobny efekt, śmiem twierdzić, byłby przy dodaniu drugiego jądra procesorowi 32bit. Ale poza tym zgadzam sie w zupełności... :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 10.04.2006 o 21:03, Kajetan Chrumps napisał:

> To po prostu miałeś pecha. Tak bywa. Ja zawsze tak kupowałem kartę, że starczyła mi na
długo.

No miałem, mogłem kupować kiedy ta karta kosztowała 2 tysiaki. Wtedy starczyła by mi na długo,
tak jak Tobie.


Ależ ciebie rozczaruję. Moja pierwsza karta graficzna to była 16 megowa riva TNT. Bynajmniej 2000 nie kosztowała, bo wtedy za cały komputer zaplaciłem 3000 (1999 rok). Padła dopiero po 3 latach (a w 99 bynajmniej to super karta nie była). Wtedy kupiłem GeForce 2 MX 400, za 250 zł (prawie zgadłes, pomyliłeś się "tylko" o jedno zero). Teraz mam Radeona 9600xt 128 MB (dwa lata temu kosztowała 650 zł, teraz pewnie w okolicach 400 jak nie mniej). To tyle w kwestii mitu o kartach za kilaktysięcy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

To pokaż mi grę, do której to jest potrzebne. Nie mówie, że nie ma kart za ponad 2000 (chociaz mówimy wciaż o Polsce, bo w USA są nawet do 50% tańsze i to juz po przeliczeniu z dolarów na złotówki). Tyle że są bezużyteczne, bo to moc idąca w nicość. Jak się stają naprawdę potrzebne to są juz sporo tańsze.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Moim zdaniem ewolucja procesorów idzie w wielordzeniowość. Głownym zadaniem CPU są obliczenia, więc ich producenci zrobią wszystko, żeby robiły obliczenia, które będą potrzebne.
Akcelerator fizyki ma dokładnie takie same zadanie. Zaprogramować istniejący układ jest znacznie prościej niż zmuszać kogokolwiek do kupowania urządzenia, które może istnieć tylko ze względu na szczególna architekturę komputerów PC. Jeżeli w przyszłości będą potrzebne procesory np. o 256 rdzeniach, to takie będzie się sprzedawać.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować