Zaloguj się, aby obserwować  
Gram.pl

Radeon HD 3870 X2 przetestowany

61 postów w tym temacie

Dnia 22.01.2008 o 19:42, Lord_Atrus napisał:

Nie podniecal bym sie tymi testami,sa z dosc malo wiarygodnego zrodla. No i to ze 3DMarku jest
mocna,a w grach slabsza tez o czyms swiadczy. Bo na obecna chwile ja wole miec wydajna grafe
w grze niz 3DMarku.

Większość tytułów jest bardziej robiona pod platformę nVidii, więc w grach jak mówiłeś - może być gorzej, chociaż nie zawsze. ;P

A ciekawe co będzie kiedy to premiera dziewiątej serii nastanie i pewnie to cudeńko potanieje znacznie, aby jakoś to skontrować... :>

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.01.2008 o 20:08, kindziukxxx napisał:

> podobno ten nowy Radeon ma być tańszy O POŁOWĘ od 2900XT!!!!!!!!!!!
no i jest ale nie wersja GX2 tylko zwykła 3870 :)

No może i tak... Ale sam przyznasz, że NVidia miała by wówczas problem :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.01.2008 o 20:14, baraborek napisał:

> > podobno ten nowy Radeon ma być tańszy O POŁOWĘ od 2900XT!!!!!!!!!!!
> no i jest ale nie wersja GX2 tylko zwykła 3870 :)
No może i tak... Ale sam przyznasz, że NVidia miała by wówczas problem :)

jakby 3780 GX2 można było kupić za mniej niż 1000 zł to ATI byłoby dominatorem we wszystkich segmentach rynku, co i tak po tej karcie będzie możliwe :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ale jaka cena będzie tego sprzętu to jest chyba jedna z ważniejszych informacji mam nadzieje że nie będzie kosmiczna jak sama karta :)
Podobno ma być premiera 28 styczna więc mam nadzieje że niedługo się dowiemy :d

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ta karta bedzie chodzic u nas po jakies gora 1600 zeta nie wiecej gdyz cena w dolarach wacha sie od 400 do 450 wiec dodajac poprawke na polskich zdziercow wychodzi gora 1600 zeta .Pozatym nie patrze na wyniki testow w Bioschock i Crysis gdyz te gry sa robione glownie w oparciu o architektore kart Nvidi i jak wszyscy wiedza karty ati od zawsze w tego typu grach wypadaly cienko gdyz poprostu olewano je.Pozatym roznice sa i tak gora 2-3 klatkowe. W grach bez logo Nvidi radek polyka GF ultre bez zajakniecia ,zostawiajac daleko w tyle.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Karta bardzo szybka nie powiem, ale chyba miałbym stracha spojrzeć na rachunek za prąd po jego otrzymaniu. Najlepiej chyba byłoby sobie zostawić poprzednią kartę i podczas surfowania po necie czy grania w starsze gry korzystać właśnie z niej:P Tylko trochę roboty by było przy tym ciągłym przekładaniu;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

HAHAHA!! Wyjątkiem są gry Bioshock i Crysis, nie no to super karta jest. Za przeproszeniem dla fanów AMD-ATI, ale ile można się wykręcać niedopracowanymi sterownikami?? Jeśli ta gra jest wolniejsza w Crysisie niż Ultra, to po co ją kupować?? Żeby podwyższyć rachunek za prąd i mieć pretekst do zmiany zasilacza?

"Interesująca jest także kwestia poboru energii. Radeon HD 3870 X2 pobiera o 31 watów więcej (334 W), niż 8800 Ultra (303 W), co nie jest jakąś wielką różnicą biorąc pod uwagę przewagę wydajności oraz to, że jest to karta dwuchipowa."

3dMark już dawno przestał być jakimkolwiek wyznacznikiem wydajności, nie wiem czemu wszyscy podają wyniki uzyskane w tym benchmarku, równie dobrze mogli by pisać, że ta karta jest jeszcze droższa, niż poprzednie, hurra! Liczy się wydajność w grach, tutaj nowy Radeon jakoś nie wszędzie wymiata, a mnie jako gracza mało obchodzi ile chipów ma dana karta. Pobór mocy 334 W, co to ma być?! Trzeba inwestować w elektrownię i wiercić dziurę w obudowie, żeby ta karta w ogóle się zmieściła. Osobiście nigdy tego nie kupię, ale cieszę się, że wychodzi, bo inne karty stanieją. :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Niezła karta ale ja bardziej lubie Nvidie i zawsze miałem w kompie GeForca :)
Na pewno jak pojawi się najmocniejsza karta z serii GF 9 to będzie ona zostawiać w tyle Radeona i będzie najlepsza :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.01.2008 o 20:19, Test Drive napisał:

Ja myślę, że gdy wyjdzie dziewiąta seria nVidii to znowu zdominuje ona rynek kart graficznych



Nie zgodze się z tym ponieważ nowy geforce NA 100% będzie kosztowac ponad 2000zł.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.01.2008 o 20:35, Cherry69 napisał:

Pobór mocy 334 W, co to
ma być?! Trzeba inwestować w elektrownię i wiercić dziurę w obudowie, żeby ta karta w ogóle
się zmieściła. Osobiście nigdy tego nie kupię, ale cieszę się, że wychodzi, bo inne karty stanieją.
:P



Tak sie składa, że nowy geforce będzie pobierac jeszcze więcej mocy i będzie tak samo duży lub większy :p

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wyniki - LOL. I to oferuje karta oparta na DWÓCH rdzeniach? Wydajność miejscami gorsza od karty jedno rdzeniowej? To raz. Po drugie, porównywanie wyników tej karty do modelu sprzed prawie dwóch lat uważam za śmi8eszną manierę, wystarczy tylko poczekać jak NVidia wypości odświeżoną wersje serii 8.

Na prawdę lobie ATI, cenie karty tego producenta ale niestety prawda jest taka że obecnie nie jest ona w stanie podjąć jawnej rywalizacji z produktami nVidii w sektorze high-end.

No cóż jedyny wniosek jaki się nasuwa to że ATI na reszcie dogoniło nVidie...jeżeli chodzi o wyniki tej pierwszej firmy sprzed dwóch lat :) .

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Warto wspomnieć, że nowy Radeon wygrywa w takich grach jak Call of Juarez, Call of Duty 4, Serious Sam 2, UT3 czy F.E.A.R. W pozostałych Ultra nadal pokazuje pazur i nie odpuszcza. Różnica jest jednak taka, iż karta ATI będzie pewnie tańsza o jakieś 400zł od Ultry a to już zupełnie inny segment. Ci którzy posiadają 8800 Ultra mogą jeszcze spokojnie darować sobie przesiadkę na coś innego, nie wspominając o monstrach na 2x 8800 Ultra w SLI.

Ciekawe jak wypadną testy 3870 X2 w CrossFire, przy 4 rdzeniach będzie to zapewne killer jeśli chodzi o wyniki w 3DMarku, tylko, że to nie to samo co działanie karty w grach ...

W sprawie pobierania energii. 2 GPU i nieco ponad 300W to sprawa normalna. Nowy GF 9800 GX2 weźmie z 500W :D Akurat w tej kwestii ATI się postarało.

Jeśli chodzi o cenę to mam nadzieję, że w PL będzie rozsądna :-) Ale na starcie 1700zł jest raczej pewne. Póki co i tak premiera jest przesunięta na 28 stycznia, więc parę dni czekania zostało.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Spojzcie na to chlodzenie:/ Zamaist jednego wetylatora lepsze chlodzenie bylo by z dwoma. Moim zdaniem dobrze chlodzony bedzie pierwszy rdzenChlodne powietrze nie bedzie mialo sie ktoredy przedostac do 2 rdzenia, bedzie przechodzilo przez radiator 1 chipu tym samym ogrzewajac powietrze. Po za tym jest strasznie wielka i pobiera duzo energi ale zeby sie cieszyc dobra jakoscia trzeba zaplacic(za prad, za sama karte, zasilacz no i wieksza obudowe:P) ;D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.01.2008 o 20:50, Klinga napisał:

Po drugie, porównywanie wyników tej karty do modelu sprzed prawie
dwóch lat uważam za śmi8eszną manierę

O ile mi wiadomo to GD8800Ultra powstała w okresie Radeona HD2900XT czyli maj-czerwiec 2007 i nijak mogę się doliczyć 2 lat. Wyniki są świetne zważając, że są to wyniki na pierwszych sterownikach do tej karty, a jakby nie patrzeć NV miała ponad pół roku na dopracowanie sterowników.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dzisiaj byłem oburzony jak przeczytałem artykuł w CDA. ceny sugerowane tych nowych kart są niskie, po prostu w Polsce wobec popytu niby marża rośnie, a dużo taniej jest już chociażby w sąsiednich Czechach. Argumenty prosto z CDA:P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ehh dobrze zę ATI naprawdę kopie d.... :D. Od zawsze byłem fanem i zwolennikiem ATI tylko 2 razy miałem inną kartę (S3 i raz NVidie). Teraz mam już legendarnego X850XT PE. Ehh ta karta kosztowała 1600 zł wtedy. Do dzisiaj jestem z niej zadowolony szkoda tylko że nowych shaderów nie obsługuje. Nowa karta rządzi i w końcu nie bede słyszał od kumpli że Nvidia jest lepsza bo to bo tamto:D. Szkoda tylko że pobiera taaaaaką moc:/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować