Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75444 postów w tym temacie

Sprzęt sprawdza się bardzo dobrze, bo w końcu był składany na tym forum :D A to, że karta po 3 latach zaczyna mieć problemy to jest naturalne i dlatego chciałbym go właśnie "doładować" na te 2-3 lata do czasu aż decyduję się wszystko wymienić.
Co do 40fps to pewnie by mi to wystarczyło, bo jak gram w Wiedźmina 3 z blokadą na 30 to jest ok, ważne żeby było stabilnie, a nie skakało z 50 do 20 :D Tylko problem widzę w tym, że już teraz mógłbym liczyć na te 40, a jednak po premierze nowych konsol lub zwyczajnie po roku zaczęłoby się to zbliżać niebezpiecznie do poniżej 30. Jeśli udałoby się na 1060/480 wyciągnąć 40 z "wszystko na max" to raczej bez problemu, bo po roku jak przejdę na "prawie wszystko na max" to będę dalej zadowolony.
Jeszcze co do tego monitora to kiedy masz zamiar go zmienić? I jaką rozdzielczość teraz masz?
Im dłużej o tym myślę to wydaje mi się, że najlepszym wyjściem z racjonalnego punktu widzenia to kupić 480 i siedzieć dalej w tych 1920x1680, a dopiero za te 2-3 lata poszaleć i przy wymianie sprzętu wejść również w wyższą rozdzielczość. Chociaż ten wariant ma jeden minus- koszty wtedy będą ogromne i pewnie nie będę w stanie tyle wydać :D Ale kupno 1070 i kiszenie jej w FHD to faktycznie może być trochę marnowaniem potencjału zaś ryzyko, że nawet za kilka miesięcy 1060/480 + monitor w 2560x1440 to będzie słaba mieszanka jeśli chodzi o wydajność jest zbyt duże... Eh ciężka sprawa :p

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ja jednak mam nadzieję, że RX 480 da radę na tych średnich w 1440p. W to co najczęściej teraz gram nie ma zbyt dużych wymagań i nawet R9 280X sobie radzi w VSR 1440p. Różnica na plus nawet przy downsamplingu do 1080p jest widoczna - dlatego wyższa rozdzielczość kusi. Dla tych kilku wymagających gier AAA rocznie nie opłaca mi się pakować w karty za ponad 2 tys. Wolałbym przeznaczyć te pieniądze na coś innego.

Czekam na niereferenty i normalne ceny. Jak będzie trzeba kupi się sprzęt za granicą. Chyba, że GTX 1060 będzie oferował dobry stosunek wydajności do ceny.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 13:51, ziptofaf napisał:

Nie no, komfortowa płynność to 60 fps. 40 z płynnością nie ma nic wspólnego w żadnej
bardziej dynamicznie grze, nie dajmy się ogłupić konsolom (filmowa płynnośc w AC:Unity,
khe khe khe).


30fps to owszem mało, ale 40 już nie jest takie złe. W trzeciego Wiesława można przyjemnie grać przy 40fps, tak samo w większość ścigałek (z wyłączeniem ultraszybkich typu WipeOut). Owszem w strzelankach 60 klatek jest niezbędne, ale w sumie to tylko tam. Wg mnie oczywiście :)

Dnia 05.07.2016 o 13:51, ziptofaf napisał:

A do tego już trzeba GTX''a 1070. Ja głęboko wierzę że GTX1060 będzie o
10-15% szybszy od RX''a 480 bo tak twierdzi sama Nvidia ale wątpię żeby był o 50% szybszy
a tyle trzeba do pełnego 1440p.


A wiesz, przez tego 1070 ITX co niedawno go pokazano, to chyba zacznę odkładać na nowe mini pudełko do grania. Do Metisa by fajnie pasował i nawet zasilacz pasywny by się zmieścił z tą kartą. Chociaż wolałbym jakby się pojawił 1060 low-profile, to wtedy bym zrobił płaskie htpc na biurko. Ale i tak poczekam z tym wszystkim na Zeny i Kaby Lake. Ileż to się możliwości ostatniego czasu namnożyło :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 13:59, Radekl2 napisał:

Jeszcze co do tego monitora to kiedy masz zamiar go zmienić? I jaką rozdzielczość teraz
masz?


Straszną biedę mam, 5-letni Samsung T200. 1680x1050, czyli prawie 1080p :D Naa cokolwiek bym nie zmienił, to i tak będzie lepiej.

Zobaczysz po premierze 1060 jak się sprawa ma :) Tak jak piszesz GTX 1070 + monitor 1080p to marnowanie karty. A 1070 + Acer taki jak podałem wcześniej to łącznie 3700zł. Ogromny wydatek jak "na raz". Chociaż można najpierw kupić grafę, a za kilka m-cy monitor :) A na takim 1060 to myślę, że wszystko będzie śmigać w absolutnie maksymalnych detalach w 1080p. No zobaczymy, nie ma co tak gdybać.

Ogólnie to te nowe karty są albo bardzo mocne i bardzo drogie (1070), albo dosyć tanie ale nie tak mocne jak człowiek oczekiwał (480) :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 05.07.2016 o 15:53, KannX napisał:


30fps to owszem mało, ale 40 już nie jest takie złe. W trzeciego Wiesława można przyjemnie
grać przy 40fps, tak samo w większość ścigałek (z wyłączeniem ultraszybkich typu WipeOut).
Owszem w strzelankach 60 klatek jest niezbędne, ale w sumie to tylko tam. Wg mnie oczywiście
:)


Kurka, ja nawet nie wiem czy w jakiejkolwiek strzelance miałem te 60 kl/s ;) W "Crysis 2" miałem na GTX 570 32-49 kl/s, w trójce pewnie jeszcze mniej (na 980 jeszcze nie grałem), może nowy "Doom" zbliża się do tych 50 kl/s, bo nawet z DSR jest mega płynnie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 16:02, KannX napisał:

A na takim 1060 to myślę, że wszystko będzie śmigać w absolutnie maksymalnych detalach
w 1080p. No zobaczymy, nie ma co tak gdybać.

No to pewnie tak zrobię, że poczekam na 1060 i inne wersje 480, i zdecyduję którą z nich brać do tego mojego "starego" monitora.
Jednak po przemyśleniu wszystkiego nie zdecyduję się na kartę za 2300 i monitor za 1500, bo to zdecydowanie za dużo.

Dnia 05.07.2016 o 16:02, KannX napisał:

Ogólnie to te nowe karty są albo bardzo mocne i bardzo drogie (1070), albo dosyć tanie
ale nie tak mocne jak człowiek oczekiwał (480) :)

Nawet ja to zauważam, że zostawili straszną przepaść między taką 480 a 1070 i pewnie zapełnią to w połowie sierpnia, kiedy ja chciałbym mieć już dawno nową kartę w domu (a wtedy wydadzą pewnie np. taką 490, która będzie hitem) ;)

Jeszcze jedna sprawa- dobrze widziałem, że 480 i produkty od AMD lepiej radzą sobie z DirectX 12 i to tam mogą skutecznie rywalizować z kartami zielonych? Nie mam Windowsa 10, czyli nie mam też DirectX''a 12, więc dużo mogę na tym stracić wydajności? Wiem, że to jeszcze nie czas porównywania 1060 z 480 ale czy podczas wyboru powinienem się kierować wersją Windowsa jaką posiadam?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 16:49, Radekl2 napisał:

Nawet ja to zauważam, że zostawili straszną przepaść między taką 480 a 1070 i pewnie
zapełnią to w połowie sierpnia, kiedy ja chciałbym mieć już dawno nową kartę w domu (a
wtedy wydadzą pewnie np. taką 490, która będzie hitem) ;)


Podobnie było w poprzedniej generacji. Była ogromna dziura pomiędzy GTX 960 a 970.

Dnia 05.07.2016 o 16:49, Radekl2 napisał:

Wiem,
że to jeszcze nie czas porównywania 1060 z 480 ale czy podczas wyboru powinienem się
kierować wersją Windowsa jaką posiadam?


Obie karty mają pełne wsparcie DX12, więc kupując dowolną z nich nic nie stracisz, a przechodząc kiedyśtam na Windowsa 10 możesz tylko zyskać na wydajności :) Głupio natomiast byłoby kupować teraz GTXa 970, bo on ma ograniczone wsparcie DX12 i Radeon 480 go w tym środowisku wyprzedza.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 17:02, KannX napisał:

Podobnie było w poprzedniej generacji. Była ogromna dziura pomiędzy GTX 960 a 970.

Ale z tego co wiem to 970 była jednak znacznie tańsza i teraz zrobili tak, że 1060=970 (cenowo). Ja patrząc na moją 770 wolałbym coś z xx70, bo tak ładnie wygląda, ale nie za taką cenę :D

Dnia 05.07.2016 o 17:02, KannX napisał:

Obie karty mają pełne wsparcie DX12, więc kupując dowolną z nich nic nie stracisz, a
przechodząc kiedyśtam na Windowsa 10 możesz tylko zyskać na wydajności :) Głupio natomiast
byłoby kupować teraz GTXa 970, bo on ma ograniczone wsparcie DX12 i Radeon 480 go w tym
środowisku wyprzedza.


Czyli jeśli 1060 będzie oferowała lepszy stosunek cena/wydajność w mojej rozdzielczości, w grach korzystających z DX11 (nie wiem jak to z tym jest- taki Wiedźmin wspiera 11, 12 czy oba?) to brać ją i po przejściu na Windows 10 nie okaże się, że AMD zrobiło to lepiej i tam ich 480 zacznie wygrywać? Nie chcę tutaj wróżenia przyszłości tylko takiej informacji, czy któraś z firm nie ma przewagi w DX12 i mogli zrobić swoją kartę lepiej.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 17:14, Radekl2 napisał:

Czyli jeśli 1060 będzie oferowała lepszy stosunek cena/wydajność w mojej rozdzielczości,
w grach korzystających z DX11 (nie wiem jak to z tym jest- taki Wiedźmin wspiera 11,
12 czy oba?) to brać ją i po przejściu na Windows 10 nie okaże się, że AMD zrobiło to
lepiej i tam ich 480 zacznie wygrywać? Nie chcę tutaj wróżenia przyszłości tylko takiej
informacji, czy któraś z firm nie ma przewagi w DX12 i mogli zrobić swoją kartę lepiej.


Wszystko wyjdzie w testach po premierze :) Na razie gry pod DX12 są bodajże całe 3. Hitman, Ashes of Singularity i Rise of the Tomb Raider. Wiedźmin Trzeci jest pod DX11 i już taki pozostanie :) Po premierze będzie dokładnie wiadomo, która karta gdzie lepiej sobie radzi, ale osobiście obstawiam, że na obu polach GTX 1060 będzie wyraźnie mocniejszy od 480, ale też droższy (to już wiadomo od pewnego czasu). Wtedy będzie można obliczyć, czy warto dopłacać za dodatkową wydajność :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

No to trzeba czekać. W sumie jeśli jest szansa, że wymagania do 1920x1680 nie będą tak szybko rosły (przez 3 lata nie urosły na tyle, żebym nie mógł odpalić wszystkiego co chciałem przynajmniej na średnich na 770) to też chyba nie ma sensu wydawać dużo więcej na 1060 za jakieś 10% mocy względem 480. Przynajmniej ja tak to rozumiem.
Tylko tutaj dochodzi kolejny mój problem- zawsze miałem karty od Nvidii i teraz możliwe, że trzeba będzie zaufać komuś innemu, kto tak szczerze mało kojarzy mi się z "prawdziwym" graniem. Eh ta Nvidia i jej sponsorowanie 98% gier, w które grałem :D Ale może się przemogę i dam szansę AMD jeśli te niereferenty okażą się godne ceny jaką za nie sobie u nas zażyczą.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 17:26, KannX napisał:

Po premierze będzie dokładnie wiadomo, która karta gdzie lepiej sobie radzi,
ale osobiście obstawiam, że na obu polach GTX 1060 będzie wyraźnie mocniejszy od 480,
ale też droższy (to już wiadomo od pewnego czasu). Wtedy będzie można obliczyć, czy warto
dopłacać za dodatkową wydajność :)


W DX12 szybszy od RX 480? Powątpiewam.
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/06/gfx_radeon_rx480/charts/hitman_1920_2.png
http://puu.sh/pRdZ9/bf8439990e.png
Nawet niereferencyjny GTX980 nie da rady referencyjnemu RX480.

Z AoTS jest jeszcze gorzej - o ile GTX1060 nagle nie okaże się szybszy od 1070tki (:D) to bez szans. Ta gra faworyzuje karty AMD. Czy może raczej - nie tyle faworyzuje co po prostu korzysta z wszystkich funkcji DX12, także tych opcjonalnych jak Async Compute. A wsparcia do tego Nvidia po prostu nie ma w swoich kartach (choć jest poprawa! W GTX9xx był SPADEK wydajności przy próbie wykorzystania Async Compute a 10xx już co prawda nadal nic nie zyskują ale przynajmniej nie tracą 20% :P).

Ot, to jest właśnie pole gdzie czysta moc Radeonów, hardware''owy scheduler i Async Compute zwyczajowo wyprzedzają karty Nvidii. Różne architektury zresztą - w DX11 RX480 wyrównuje z R9 390 i zaledwie dogania 970tkę na typowych CPU. W DX12 dorównuje R9 390X. Poza Crysisem 3 - ten w DX11 po prostu działa kiepsko na nowych Polarisach (za to bardzo przyjemnie śmiga na GTX770 a nie aż tak przyjemnie na GTX960).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ale czy tak będzie we wszystkich grach wspierających DX12, czy tylko w tych bezpośrednio wspieranych przez AMD, a nie Nvidie? Bo raczej ilość produkcji porzucających DX11 na rzecz 12 powinna rosnąć, czyli nawet na dzień dzisiejszy tracąc kilkanaście % (teoretycznie) do 1060 może okazać się, że po przejściu na Win10, za jakiś rok, dwa będzie dużo lepiej z 480? Te 3 gry, które tutaj wymieniacie osobiście w ogóle mnie nie interesują, więc teraz nawet na to bym nie patrzył, ale jednak może warto myśleć chociaż trochę przyszłościowo.
Jak nad tym dłużej się zastanowić to jednak nie mogą porzucić tak nagle DX11, bo Windows 7 ma jeszcze sporo udziałów w rynku, ale może możliwe jest tworzenie gier na DX11/12 i wtedy 480 pokazywałaby swoją moc szczęśliwym posiadaczom Win10?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 18:45, ziptofaf napisał:

W DX12 szybszy od RX 480? Powątpiewam.
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/06/gfx_radeon_rx480/charts/hitman_1920_2.png
http://puu.sh/pRdZ9/bf8439990e.png
Nawet niereferencyjny GTX980 nie da rady referencyjnemu RX480.


Zarówno Hitman jak i AotS faworyzują karty AMD, a znowu Tomb Raider karty nVidii :) Ale przecież 1060 to nowsza architektura od 980-tki, więc czemu by nie miał być wyraźnie szybszy od niej (i od 480) w DX12?

Dnia 05.07.2016 o 18:45, ziptofaf napisał:

Ot, to jest właśnie pole gdzie czysta moc Radeonów, hardware''owy scheduler i Async Compute
zwyczajowo wyprzedzają karty Nvidii.


Nic mi te terminy nie mówią, a po angielsku niestety nie rozumiem, bo to zbyt trudne jak dla mnie :) Wiem tylko, że często termin tego asynca się przewija i co to ma do nowych gier?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 19:13, KannX napisał:

Zarówno Hitman jak i AotS faworyzują karty AMD, a znowu Tomb Raider karty nVidii :) Ale
przecież 1060 to nowsza architektura od 980-tki, więc czemu by nie miał być wyraźnie
szybszy od niej (i od 480) w DX12?

Z bardzo prostego powodu - bo GTX1070 nie jest. Spójrz właśnie na Hitmana i Tomb Raidera:

Hitman (DX11, 1440p): 46.8 fps
Hitman (DX12, 1440p): 47.2 fps (dane z pclaba)

Rise of Tomb Raider (DX11, 1440p): 51.7 fps
Rise of Tomb Raider (DX12, 1440p): 51.7 fps

0% zysku.

Dnia 05.07.2016 o 19:13, KannX napisał:

Nic mi te terminy nie mówią, a po angielsku niestety nie rozumiem, bo to zbyt trudne
jak dla mnie :) Wiem tylko, że często termin tego asynca się przewija i co to ma do nowych
gier?


Dobra, opiszę całą tą historię z DX12 i afery z Async możliwie łopatologicznie (choć przepraszam jeśli i tak będzie niezrozumiałe tu i tam), dlaczego Radeony z serii 7xxx, 2xx i 3xx dostały KOPA w wydajności a GeForce''y nie (a miejscami wręcz zwolniły) itd. Będzie też pokrótce o sterownikowej wojnie i grach ''sponsorowanych''. UWAGA - TO BĘDZIE DOŚĆ DŁUGIE.

A więc nasza historia sięga ostatnich paru już lat. Karty graficzne rozwijają się żwawo, procesory nie. Wykresy zaczynają wyglądać tak:
http://michaelgalloy.com/wp-content/uploads/2013/06/cpu-vs-gpu.png

Jest to dość logiczne bo pomijając już politykę Intela to karty graficzne są przykładem układów dedykowanych konkretnemu celowi składającemu się z setek/tysięcy rdzeni a procesory nie. Ot, w świecie komputerów dużo łatwiej zrobić 2000 rdzeni po 0.8 GHz każdy i wydajności rzędu 1-2 GFlops aniżeli 4 rdzeniowy układ o łącznej wydajności 200 GFlops. Co prawda wykorzystanie tego pierwszego wymaga specyficznego środowiska które bardzo łatwo dzieli się na MNÓSTWO wątków i to w sposób możliwie asynchroniczny (każda część robi swoje nie czekając na inne) ale akurat generowanie grafiki się do tej sekcji problemów zalicza.

Więc mamy sytuację gdzie karty graficzne są szybkie a procesory nie. Ale niestety - CPU nie bez powodu nazywa się Central Processing Unit. I to nie jest tak że karta graficzna może sobie sama wykonywać instrukcje. Otóż karty graficzne BARDZO różnią się między sobą. Jedna ma 2560 shaderów, inna 1200, obsługują różne dodatkowe instrukcje, mają inną wewnętrzną strukturę VRAMu itd. Bardzo dawno temu gdy producentów kart graficznych było jeszcze wielu to sporo tytułów nie działało w ogóle na produktach danej firmy a wsparcie trzeba było dodawać osobno.

I po to W OGÓLE powstał DirectX i OpenGL. Aby twórca gry nie musiał się przejmować całą tą warstwą sprzętową. Jak napisze kod ''narysuj linię'' to ma się pojawić linia a nie żeby musiał się wczytywać w dokumentację sprzętową GPU i sprawdzał gdzie toto ma rejestry.

Tylko że jak w życiu bywa - z ułatwieniami wiążą się ograniczenia. Tutaj jest nim to że po prostu tym wyższy jest koszt (w cyklach zegara procesora) wykonania danej instrukcji im łatwiej coś napisać.

W DX11 doszliśmy do etapu gdzie naprawdę do nowych gier trzeba do w miarę mocnych kart wsadzać już jakieś jednostki typu i7-6700k/5820k a chyba ŻADEN procesor na rynku, o ile nie jest podkręcony do oporu, nie pozwala wycisnąć 100% z takiej 1080tki w FullHD w prostszej graficznie grze jak CS:Go. Jednocześnie osoby ze słabszymi jednostkami są poważnie "dyskryminowane". Doskonałym przykładem jest tutaj BF4 w multiplayerze (DirectX vs Mantle):
http://pclab.pl/zdjecia/artykuly/chaostheory/2014/02/mantle/charts/bf4_mp_cpu_a10_7850k.png
i w połączeniu z i5-4670k:
http://pclab.pl/zdjecia/artykuly/chaostheory/2014/02/mantle/charts/bf4_mp_cpu_4670k.png
Różnice są po prostu kolosalne na słabszym procesorze.

DX12 to niejako powrót do korzeni. Jest w nim trudniej ale twórca ma większą kontrolę nad tym co się dzieje. Jednocześnie jednak musi swój produkt dostosować do konkretnej rodziny kart graficznych (GPU może powiedzieć jakie funkcje wspiera a ty już piszesz kod który dodaje obsługę tych funkcji zależnie od ich wsparcia).

A jak rośnie poziom trudności i spada poziom abstrakcji to i narzut na procesor spada.

I tutaj dochodzimy do tej afery z DX12 że Radeony przyspieszały jak diabli a GeForce''y na ogół spadały w szambo. Wyjaśnienie jest do bólu proste - od strony hardware''u R9 280X jest o kilkadziesiąt procent mocniejszy od GTX770 a R9 290/390 od 970tki. Dlatego zresztą żrą tyle prądu. Ot, spójrz tylko na takiego R9 390 - 5.1 Tflops (i 630 GFlops w FP64) i 2560 shaderów. W starciu z GTX''em 970 oferującym 3,5 Tflops w FP32, 100 Gflops w FP64 i 1664 shadery.

Tylko że wydajność karty graficznej = hardware * software. A nie sam hardware. Sterowniki mają niebagatelne znaczenie a te w DX11 dla Radeonów po prostu działają inaczej niż dla GeForce''ów - po prostu gorzej do zastosowań growych. I spora część tej mocy po prostu zostaje niewykorzystana.

I teraz pojawi się właśnie temat sterowników w kontekście gier sponsorowanych. Otóż te MUSZĄ istnieć i ciesz się że istnieją bo miałbyś na GTX''ie 1080 15 klatek na sekundę w DX11 a na Radeonie z 5. Ale jak to? - spytasz.
Otóż tak naprawdę jest sobie takie coś jak specyfikacja i jest takie coś jak świat rzeczywisty. Tak Nvidia jak i AMD mają sterowniki do kart konsumenckich które są po prostu wielką listą "hacków" - a to nie wyświetlają niektórych elementów, a to upraszczają inne (np. GTX1080 i 1070 w ogóle nie generowały śniegu w AoTS, skopane drivery :P). Zaś inżynierowie pracujący nad tymi kartami dobrze wiedzą że niektóre rodzaje instrukcji chociaż teoretycznie wspierane to na ich kartach wcale dobrze nie chodzą i dadzą twórcy gry jakiś fajny niskopoziomowy hack który daje ten sam rezultat (na ich karcie rzecz jasna) ale o o wiele większej wydajności.

Ujmijmy to wręcz tak - gdybym wziął kod dajmy na to Dooma 3, po prostu go sobie samemu skompilował (i zrobił to IDENTYCZNIE z oryginałem) to chodziłby 2x gorzej niż prawdziwy Doom 3 w dniu premiery. Bo te hacki to takie czarne skrzynki o których w sumie nie wiadomo jak działają o ile nie jesteś inżynierem Nvidii/AMD i są implementowane dodatkowo, już poza kodem gry często.

DirectX 12, jak pisałem, oddaje część tych przywilejów w ręce twórcy gry. Jest mniej miejsca na programowe i sprzętowe hacki od strony AMD/Nvidii. I dlatego R9 290 po prostu zeżarł GTX''a 780. Bo był po prostu (i aż) mocniejszą kartą... tylko że jakiś czas to zajęło nim ludzie uzmysłowili sobie do jakiego stopnia i można było to wykorzystać.

Ot, niska wydajność w DX11 i wysoka w DX12 = karta ma kiepskie sterowniki/wsparcie gier. Taka sama wydajność w DX11/12 (gdyby tak było w KAŻDEJ GRZE) = albo masz bardzo mocny procesor albo bardzo dobre wsparcie sterownikowe. A jeśli jakiś tytuł nie przyspiesza nigdzie po zaimplementowaniu DX12 to znaczy że to spieprzona implementacja robiona na szybko.

I teraz dochodzimy do ostatniego punktu jakim jest Async Compute. AMD wypuściło ładny filmik który wyjaśnia co to takiego:
https://www.youtube.com/watch?v=v3dUhep0rBs

W skrócie - na Radeonach są dwie osobne kolejki na polecenia obliczeniowe (co jest istotne bo jak pisałem - GPU są DUŻO szybsze od CPU i każda rzecz przerzucona na GPU to uzyskane klatki na sekundę, spójrz choćby na to że Shadowplay w ogóle nie ucina ci fps-ów a spróbuj tylko normalnie nagrywać przez CPU np. z pomocą Xsplita i nagle masz -40% wydajności) i polecenia graficzne. I na Radeonach da się skakać pomiędzy nimi bez utraty wydajności. Na GeForce''ach nie. Ale jest to różnica wynikająca z architektury kart - to nie jest i nigdy nie była nawet wymagana część specyfikacji DX12. Jest przydatna (zwłaszcza w konsolach) ale niewymagana. Tym niemniej - AMD dodało ją do swoich Radeonów już od serii 7xxx chociaż wykorzystanie było możliwe dopiero wiele lat później.

Ot, Nvidia to garnitur skrojony na miarę zaś Radeony są jak za duże buty dla rosnącego dzieciaka. Ograniczają cię początkowo ale po jakimś czasie wygrywają. Bo po prostu ich specyfikacja zapewnia większą moc obliczeniową.

I w DX12 jest o tyle prościej że o ile gra jest napisana w jakikolwiek sposób poprawnie to różnice w wydajności są widoczne od razu i widać 100% potencjału danej karty.

Powodem więc dla którego jestem nieufny co do GTX''a 1060 w DX12 jest to że dla tych kart zysk wydajności jest minimalny - czyli osiągnęły już max swojego potencjału. W przypadku Radeonów jest to niewiadoma bo w DX12 referencyjny RX480 dorównuje 980tce a w DX11 zaledwie 970tce. Więc tak coś czuję że to Radeon się lepiej będzie starzeć. Tylko że starzenie starzeniem, wydajność w ciągu pierwszych 12 miesięcy TEŻ się liczy i tu zakładam że 1060tka będzie lepsza.

Tylko lepiej żeby Nvidia się pospieszyła to zaraz ich referencyjna 1060tka będzie porównana do niereferencyjnych RX 480. Czego osobiście im nie życzę bo takie recenzje są po prostu nie fair i zakłamują rzeczywistości ale do pierwszych niereferentów RX 480 zostało ledwie 10 dni.

I pewnie dlatego na pytanie "jaką kartę kupić jeśli mam do wydania ok. 1600 zł" pozostaje w mojej głowie "używany 980Ti" - czasem i za 1750 da się dostać a tak w DX11 jak i 12 dorównuje 1070tce. Czyli RX''a 480 wyprzedza o 50% a i 1060tkę zje.

A tak swoją drogą:
http://videocardz.com/61844/nvidia-geforce-gtx-titan-based-on-pascal-to-launch-in-august

Szybko. Zastanawia mnie tylko skąd wzięli masowe ilości pamięci HBM2, sam Hynix twierdził że do sprzedaży masowej to dopiero wchodzi w czwartym kwartale. Tym niemniej najwyższa pora na jakieś naprawdę high-endowe karty a nie mid-end.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 20:46, ziptofaf napisał:

I pewnie dlatego na pytanie "jaką kartę kupić jeśli mam do wydania ok. 1600 zł" pozostaje
w mojej głowie "używany 980Ti" - czasem i za 1750 da się dostać a tak w DX11 jak i 12
dorównuje 1070tce. Czyli RX''a 480 wyprzedza o 50% a i 1060tkę zje.


Dla mnie to byłaby pewnie świetna opcja, ale przeglądając Allegro widzę, że jest jedna oferta za 1750 ale jest to licytacja, która ma trwać jeszcze 1 dzień i nie sądzę, żeby się na tym skończyło. Jednak ok. 2000 trzeba liczyć, a to już nie jest fajne 1600.
Jeszcze u mnie musiałbym pewnie zacząć martwić się o zasilacz, bo szybko sprawdziłem testy i 770 potrzebuje "nieco" mniej mocy niż 980ti.
A jak Ty obserwujesz spadki cen tej karty to jakoś pogłębia się z dnia na dzień, czy już raczej nie ma na co liczyć?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 21:23, Radekl2 napisał:

Jeszcze u mnie musiałbym pewnie zacząć martwić się o zasilacz, bo szybko sprawdziłem
testy i 770 potrzebuje "nieco" mniej mocy niż 980ti.

980Ti raczej bez markowego 550W się nie obejdzie.

Dnia 05.07.2016 o 21:23, Radekl2 napisał:

A jak Ty obserwujesz spadki cen tej karty to jakoś pogłębia się z dnia na dzień, czy
już raczej nie ma na co liczyć?

Z dnia na dzień? Nie. W Polsce jest ograniczona ilość osób które zechcą się pozbyć swojej 980tki za 60% ceny którą zapłacili pół roku temu ;P Ot, odwiedzać olx-a i allegro co jakiś czas i szukać taniego kup teraz.

W szczytowym momencie widziałem 1800 zł za podstawowy model od EVGA, jeszcze z gwarancją. Gdyby nie to że to było przed moją wypłatą to bym go kupił.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dziękuję za tak wyczerpujące dane, myślę że zrozumiałem wszystko. Takie tłumaczenie rzuca zupełnie inne światło na karty graficzne AMD. Niesamowite. W takim razie szkoda tych poprzednich kart (np. serii 2xx), że nie było jak zrobić z nich użytku w DX11.

W takim razie 1060 będzie na pewno wolniejsza od 480 w DX12, bo aby być od niego szybsza musiałaby mieć wydajność 1070 :) Niezła zagwozdka z kartami się pojawia. Czy kupić coś midendowego co jest szybkie tu i teraz (1060 DX11), czy nieco stracić na wydajności biorąc 480, ale który za powiedzmy rok może rozwinąć skrzydła (DX12). Chociaż dla mnie to akurat aktualnie obojętne, bo zostaję przy Windzie 7 :)

Czyli tak w skrócie: Karty nVidii przetwarzają strumienie danych procesora po kolei w jednej "linii". Karty AMD mogą przetwarzać jednocześnie wiele takich strumieni, dzięki czemu mniej się wszystko zapycha i działa wydajniej (w DX12).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 05.07.2016 o 21:25, ziptofaf napisał:

980Ti raczej bez markowego 550W się nie obejdzie.

SilentiumPC Deus 600W PSU 80Plus Bronze to wystarczająco markowy, czy tak średnio? :D

Dnia 05.07.2016 o 21:25, ziptofaf napisał:

Z dnia na dzień? Nie. W Polsce jest ograniczona ilość osób które zechcą się pozbyć swojej
980tki za 60% ceny którą zapłacili pół roku temu ;P Ot, odwiedzać olx-a i allegro co
jakiś czas i szukać taniego kup teraz.

Mam dwa-trzy tygodnie to mogę tyle robić :D
Tak sobie teraz patrzę na testy i widzę, że GeForce (referent?) odstaje znacznie od reszty, więc domyślam się, że jak będą fajne oferty to właśnie z nią. Strata to jakieś 10fps do topowych wersji. Powinienem mimo wszystko unikać jakiegoś konkretnego produktu z powodu częstych wad/czegoś innego? Wolę wiedzieć, żebym zastanowił się przed klikaniem "kup teraz" jak będzie jakaś "super" oferta :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się