Zaloguj się, aby obserwować  
Gram.pl

Do 80 procent więcej mocy dzięki CrossFire X

42 postów w tym temacie

Nie rozumiem ludzi co nabierają się na hardware''owy marketing, a potem żala się po forach, że co chwilę muszą (?) zmieniać sprzęt i coś dokupywać. Jak się kupuje PC "z głową" to nie ma później takich rzeczy. Pomijam wszelkich fanatyków sprzętowych ;-P bo to ich hobby i chleb powszedni oraz tych którzy nie mają co z pieniędzmi robić ;-]

Poza tym na co przeciętnemu kowalskiemu, nawet jeśli gra, SLi lub Crossfire na stan obecny wykorzystania takiego sprzętu? Ot ciekawostka na przyszłość i spory marketing.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

ok panie i panowie, widze ze zapomnialem dodac jeden szczegol - ten moj 8600 jest w wersji mobilnej, tzn w laptopie. a jak sami wiecie, to nie ma poki co wiele mocniejszych kart w tym segmencie. mimo wszystko, kupuje konsole jak szybko sie da;P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Sytuacja AMD/ATI nie jest ostatnio najlepsza. Ciekawe czy te karty chociaż trochę poprawią ich sytuację finansową. Według mnie powinni postawić na lepszy marketing. Większość gier jest opatrzona logiem Nvidii...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Kyo-San... Nie trzeba mieć kompa dla którego ta karta była wąskim gardłem, żeby było warto w nią zainwestować. Napewno da lepsze efekty nawet z jednordzeniowym Athlonem od słabszej karty. A co do tego że ATI zawsze było z tyłu to się chyba wczoraj urodziłeś. Seria X1xxx ATI lepsze, seria X8xx ATI lepsze, seria 9k konkurująca z serią 5 Nvidii po prostu ją zmiotła. Ja nie wiem co ty tak z całkowitym wykorzystywaniem mocy, przecież procek to obsłuży bez problemu nie rób też histerii z ramem, karta przelicza i oddaje efekty pracy, co ma do tego CPU... Co ty czytasz clicka? cybermyche? ATI tylko przy serii HD zmieniło strategie teraz zbiera owoce, lepiej opracowało samą technologię multiGPU, nie rdzenie ale właśnie całą mechanike wielordzeniowości GPU co widać po temp. i wydajności w stosunku do pojedynczej karty. Nvidia owszem będzie silna ale kto to kupi, kartaw pustke każdy myślący zaczeka na GT200 czy R700.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jak dla mnie bez rewelacji. Zauwazcie ze tylko w 2 grach przyrost jest duzy. F.E.A.R i CALL OF JUAREZ w innych nie bardzo a 15% w 3dmarku 06 mowi samo za siebie. Przeciez jak ktos bedzie chcial kupic takie 2 grafiki to nie bedzie patrzyl na wyniki w 2 grach tylko wlasnei w 3dmarku. trzeba liczyc ze 2 takie karty kosztowac beda troche ponad 3000zl. Za poltora miecha powinny ukazac sie nowe chipy NVIDII ktore bez problemu poradza sobie z tym bublem jaki wymyslilo ATI

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

tjaaa... jak długo grasz w 3Dmarka??? bo ja w sumie wcale (chyba tylko jak kupie nowy sprzęt żeby się podjarać jak szybszy jest od poprzedniego;) liczy się wydajność w grach!! a co technologii to mam nadzieje że będzie lepsza niż odpowiednik z SLI

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 07.02.2008 o 00:30, Ecko09 napisał:

Ciekawe co na to nvidia.


nVidia na to GeForce 9800 GTX :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 06.02.2008 o 23:06, scyzor napisał:

Kyo-San... Nie trzeba mieć kompa dla którego ta karta była wąskim gardłem, żeby było
warto w nią zainwestować. Napewno da lepsze efekty nawet z jednordzeniowym Athlonem od
słabszej karty. A co do tego że ATI zawsze było z tyłu to się chyba wczoraj urodziłeś.
Seria X1xxx ATI lepsze, seria X8xx ATI lepsze, seria 9k konkurująca z serią 5 Nvidii
po prostu ją zmiotła. Ja nie wiem co ty tak z całkowitym wykorzystywaniem mocy, przecież
procek to obsłuży bez problemu nie rób też histerii z ramem, karta przelicza i oddaje
efekty pracy, co ma do tego CPU... Co ty czytasz clicka? cybermyche? ATI tylko przy serii
HD zmieniło strategie teraz zbiera owoce, lepiej opracowało samą technologię multiGPU,
nie rdzenie ale właśnie całą mechanike wielordzeniowości GPU co widać po temp. i wydajności
w stosunku do pojedynczej karty. Nvidia owszem będzie silna ale kto to kupi, kartaw pustke
każdy myślący zaczeka na GT200 czy R700.


co do tego, ze nie zawsze ati bylo gorsze, to sie zgodze, choc seria x8xx byla gorsza od konkurencyjnych GF6 (glownie dlatego, ze nie obslugiwalo shaderow 3.0). poza tym nie rozpatrujmy tylko kart high-end, ale takze te tansze przedzialy cenowe).

co do ograniczania karty graficznej przez procesor - tu sie nie moge zgodzic. procesor musi byc silby, aby karta graficzna pokazala pelnie mozliwosci. wiem to z doswiadczenia. przykladowo: JADE EMPIRE. zapewne wielu z was pamieta scene, gdy bylo sie w zaswiatach i spotykalo sie wiecznie walczace 2 armie duchow (czy cos takiego). na moim poprzednim kompie (z radeonem x1600) chodzilo idealnie wtedy. jednakze, wszystkie ruchy tych duchow byly z gory zaplanowane, procesor nie mial praktycznie nic do roboty. z kolei w momencie, gdy walczylem z wiecej niz 2 przeciwnikami (+2 kompanow) to gra ostro ciela, przez slaby procesor (sempron 2.4+ pod socket A). fakt, udalo mi sie ja przejsc, ale to nie zmienia faktu, ze fpsy spadaly gdy tylko dziala sie sieka. podobnie bylo z kazda gra na unreal engine 3. wiec nie wypowiadaj sie, jesli nie wiesz, czy to co chcesz powiedziec, to prawda.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

F.E.A.R? Call of Juarez? Co to za test? Sprawdzać najnowszą kartę w grach które mają odpowiednio 3 i 2 lata?
Może się mylę, ale kto kupuje dwie x2 z myślą o 50% wzroście wydajności w F.E.A.R?

Niech przetestują tego Radeona na Crysisie czy CoD 4. Wtedy się dowiemy ile ta karta/karty są naprawdę warte.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 07.02.2008 o 06:49, player000 napisał:

tjaaa... jak długo grasz w 3Dmarka??? bo ja w sumie wcale (chyba tylko jak kupie nowy
sprzęt żeby się podjarać jak szybszy jest od poprzedniego;) liczy się wydajność w grach!!
a co technologii to mam nadzieje że będzie lepsza niż odpowiednik z SLI


Nie rouzmiesz. ATI sie chwali bo w 2 grach mozna odczuc duzy wzrost wydajnosci. w 2 grach na ile 50??? Chodzi o to ze #dmark jest bardziej wiarygodny niz takie F.E.A.R czy CALL OF JUAREZ ktore od poczatku robione bylo pod karty ATI.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

zapomnieliście o tym że to nie są jeszcze finalne sterowniki ;]

CrossFire X prawdopodobnie było dlatego testowane na grze F.E.A.R. i Call of Juarez ponieważ były robione pod karty ATI, więc dawały bardziej wiarygodne wyniki z niedopracowanymi sterownikami.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

3Dmarkiem jest różnie bo można nawet dostosować do niego sterowniki... A poza tym to większość gier pisana jest pod Nvidię

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować