Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 20.07.2016 o 18:34, Numenpl napisał:

A poza tym dopiero teraz wychodzą jakieś karty z częściową obsługą DX12 (seria geforce
10x0 i seria radeon 4x0) bo nadal nie ma pełnego DX12 z tego co się orientują. Co do
samych gier z DX12 wszędzie to samo średnia i maksymalna ilość FPS jest większa o 1-2
FPS, ale co z tego skoro min. FPS potrafi spaść 3-5 fps.


Arghhhh.... właśnie napisałeś tak straszne rzeczy że jako programistę to aż mnie oczy zapiekły :P I zmusisz mnie teraz do napisania ściany teksty która koryguje twoje spostrzeżenia bo są błędne gdzieś już w samym ich rdzeniu.

A więc dobra. Czym jest DirectX? Pośrednikiem pomiędzy kartą graficzną a programistą. Stworzonym w takim celu by typowy twórcy gry nie musiał sprawdzać takich bzdur jak w jaki sposób dostać się do pamięci GPU oraz jak wygenerować kreskę na ekranie. Zwłaszcza że kart graficznych na rynku to jest z tysiąc różnie reagujących na różne komendy. DirectX jest klejem który łączy część bardzo niskopoziomową (kartę graficzną) z wysokopoziomową (język programowania). Więc zamiast pisać tysiąc odrębnych implementacji programista piszę tylko jedną. A DirectX tłumaczy to karcie graficznej w sposób dla niej zrozumiały. Fakt - kosztuje to wydajność bo nie jest to komunikacja bezpośrednia. Ma też swoje wady bo nie potrafi wykorzystywać wszystkich atutów danej karty. Tym niemniej jakoś to działało.

Problem pojawił się z uwagi na drastycznie rosnącą moc GPU w stosunku do CPU. I wcześniej czy później doszłoby do sytuacji że nawet najpotężniejszy Core i7 nie dałby rady z jakąś mid-endową kartą graficzną.

Rozwiązaniem jest powrót do źródła - programowanie będzie trudniejsze bo trzeba zrobić kod który zmienia się zależnie od posiadanej karty graficznej. Jeśli wspierane są np. Async Shaders to ich użyj. O, Tier 3 Conservative Rasterization? Świetnie! Tylko Tier 1 Resource Binding? Jakoś sobie też poradzimy. Ot, adaptujemy używane technologie w naszej grze do GPU. Mamy większą kontrolę nad zasobami dzięki temu a komunikacja jest bardziej bezpośrednia.

Ale uwaga - nie ma czegoś takiego jak "pełne" wsparcie dla DX12 czy Vulkana. I prawdopodobnie nigdy nawet nie będzie. Jak pisałem - od samego początku twórcy tego API piszą iż należy sprawdzić co dana karta obsługuje i właśnie to wykorzystać. Niektóre części DX12 po prostu kłócą się ze sobą - Radeony mogą mieć Resource Binding na Tier 3 (czyli nielimitowana wręcz liczba), GeForce nie z uwagi na inną architekturę. Wątpię żeby Nvidia w ogóle planowała tutaj coś zmieniać. I odwrotnie.

I teraz co do spadającej wydajności w DX12 - a to się wiąże z czymś nie do końca etycznym. Otóż tajemnicą Poliszynela jest to że sterowniki do kart graficznych to takie wielkie i paskudne zbiory hacków. Tego nie wyświetlaj, to wyświetl w sposób uproszczony, w tej grze zignoruj ustawienia teselacji itp. To się sprawdza w DX11 bo Nvidia i AMD (z dużą przewagą tej pierwszej firmy) mogą poprzez te swoje hacki skutecznie wpływać na to co wyświetli się na ekranie. W DX12 i Vulkanie jest dużo trudniej - tutaj to twórca gry decyduje o tych elementach i sterowniki nie mogą mu się "wpieprzać". Za to efekt końcowy powinien wyglądać bardziej neutralnie, bez oszukiwania na driverach.


Różnice takie prawdziwe są najbardziej odczuwalne w stajni AMD. Ich karty od bardzo wielu już lat miały DUŻO mocniejszy hardware od GeForce''ów, tylko skopany sterownik im przeszkadzał jak kula u nogi skazańca. I dlatego Doom pod Vulkanem nagle działa na RX480 niewiele wolniej niż na GTX''ie 1070, zostawiając w tyle wszystkie karty do 2000 zł włącznie.

Dodajmy - są gry i testy niby napisane w DX12 które jednak mają tylko JEDNĄ ścieżkę wyświetlania grafiki (zamiast jej zmiany zależnie od wykorzystanej karty) mimo wyraźnego info by do tego celu używać DX11. Np. nowy 3D Mark (ponoć w celu "kompatybilności" ze starszymi kartami i żeby łatwiej porównać wyniki...) i właśnie Tomb Raider tak robią :D To jest takie oszukane DX12 żeby się pochwalić tym na pudełku. I dlatego w takiej tandecie możesz zobaczyć spadek wydajności zamiast wzrostu - w DX12 DUŻO łatwiej coś spartoczyć niż w DX11 i istotnie o wiele bardziej wierzę możliwościom Nvidii i AMD do optymalizacji w takiej sytuacji aniżeli konwersjom z konsol pisanym na kolanie.


GeForce''y wydają się słabo skalować w DX12 ale to ułuda. One mają po prostu cholernie dobrze zoptymalizowane sterowniki pod DX11, dlatego fuszerka w DX12 działa na nich gorzej. Na Radeonach odwrotnie - dowolne implementacje DX12 (poza najbardziej zwalonymi) są lepsze niż ich sterownik pod DX11. A że jeśli chodzi o czystą moc obliczeniową to są szybsze to tutaj się wydaje że karty "magicznie" przyspieszają. Najważniejszą różnicą między DX11 a DX12 jest narzut na procesor. Przy i7-6700k to i owszem, możesz zobaczyć na dajmy na to GTX''ie 980Ti SPADEK fps''ów w niektórych grach nawet przy nieźle zaimplementowanym DirectX12. Tylko że przy tym samym GPU ale np. i3-6100 to zobaczyłbyś wzrost o kilkadziesiąt procent względem jedenastki.


Zaś DOBRZE wykorzystane nowe API (na razie prym wiedzie tutaj Doom bo pokazuje absurdalne wzrosty na słabszych CPU rzędu +100% i wykorzystuje do oporu wszystkie karty jakie wyszły) jest zyskiem dla wszystkich. I tam nie będzie nigdy spadku ilości klatek (o ile rzecz jasna sterownik pod DX11 nie oszukuje nie pozwalając na wyświetlenie istotnych z punktu widzenia twórcy gry elementów).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 20.07.2016 o 19:21, ziptofaf napisał:

Zaś DOBRZE wykorzystane nowe API (na razie prym wiedzie tutaj Doom bo pokazuje absurdalne
wzrosty na słabszych CPU rzędu +100% i wykorzystuje do oporu wszystkie karty jakie wyszły)
jest zyskiem dla wszystkich. I tam nie będzie nigdy spadku ilości klatek (o ile rzecz
jasna sterownik pod DX11 nie oszukuje nie pozwalając na wyświetlenie istotnych z punktu
widzenia twórcy gry elementów).


Teraz jest podstawowe pytanie - czy twórcom gier, a właściwie programistom będzie się chciało dłużej bawić z niskopoziomowym API? Wiadomo, że DX12 będzie wymagał więcej pracy niż, moze i ograniczony, ale jednak dobrze znany DX11.

Można też postawić pytanie inaczej - czy spodziewamy się, że w ciągu najbliższego roku wykorzystanie DX12 się upowszechni? :D Czy też będzie to trwać znacznie dłużej? Co zdobędzie przewagę Vulcan? :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 20.07.2016 o 19:31, pawbuk napisał:

Można też postawić pytanie inaczej - czy spodziewamy się, że w ciągu najbliższego roku
wykorzystanie DX12 się upowszechni? :D Czy też będzie to trwać znacznie dłużej? Co zdobędzie
przewagę Vulcan? :D


Tu miał być długi ładny post ale gram mi go wciął. Więc pokrótce:

- Vulkan raczej się nie upowszechni. Jego implementacja jest trudniejsza od DX12 oraz co ważniejsze, nie idą za nim pieniądze. ID co prawda pokazało co da się w nim zrobić ale jednak Carmack jest jednym z najlepszych devów na świecie jeśli chodzi o rendering grafiki... a ID jednak od zawsze korzystało z OpenGL (swoją drogą podziwiam, tam są takie "genialnie" opisane funkcje przyjmujące argumenty nazwane kreatywnie x1, x2, x3, x4, x5... powodzenia w zgadywaniu za co który służy :D) więc przesiadka na następcę jakim jest Vulkan przychodzi do nich w sposób naturalny.
- Lwia część gier obecnie jednak powstaje na kupionych engine''ach, mało kto pisze własny. Unity i Unreal Engine oferują niezłe wsparcie dla DX12 bo to się po prostu opłaca twórcom.
- Małe studia z własnymi engine''ami raczej nie tkną DX12 bo to dowalanie sobie pracy.
- Pytaniem otwartym pozostają gry AAA z własnymi silnikami. Tutaj argumentami ZA DX12 jest zmniejszenie wymagań gier (a co za tym idzie - zwiększenie potencjalnej grupy kupujących) oraz nieco marketingowego hypu. Są oczywiście takie firmy jak Bethesda które nie zmieniały silnika od czasów Obliviona więc oni raczej się nie przesiądą na nowe API. Ale oceniając po obecnych grach i nadchodzących premierach - obstawiam że w ciągu roku-dwóch mniej więcej połowa nowo wychodzących gier od największych producentów będzie oferować jakieś wsparcie dla DX12. Z czego kolejna połowa już nie jakieś a takie które działa jak powinno.

Mogę się oczywiście nieco mylić ale jednak za DX12 idą kosmiczne pieniądze, to nie maleństwo pokroju Mantle. Dla mnie to osobiście jest debilne nieco bo i tak zwykły użytkownik w ogóle nie rozumie co to jest DX12 i nie wiem po co generować szum wokół niego ale widać nawet takie niemające sensu komentarze jakie potem można przeczytać w necie od niedoinformowanych osób jakiś cel marketingowy za sobą niosą.

Jest też jedno dodatkowe pole które ostatnio zwęszyli twórcy gier oraz twórcy sprzętu i tam bez DX12/Vulkana i niskopoziomowego dostępu ani rusz - VR. Jak oni dążą do 144-160 klatek na sekundę i laga rzędu 1ms (a to jest potwierdzone przez samo AMD) to tutaj się NIE DA inaczej niż przy wykorzystaniu możliwie bezpośredniego dostępu do sprzętu. A bohaterski Facebook obsypie złotem każdego kto wyda grę na ICH platformę więc przy okazji niejako dochodzi do szybszego rozwoju engine'ów :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 20.07.2016 o 20:29, ziptofaf napisał:

Mogę się oczywiście nieco mylić ale jednak za DX12 idą kosmiczne pieniądze, to nie maleństwo
pokroju Mantle. Dla mnie to osobiście jest debilne nieco bo i tak zwykły użytkownik w
ogóle nie rozumie co to jest DX12 i nie wiem po co generować szum wokół niego ale widać
nawet takie niemające sensu komentarze jakie potem można przeczytać w necie od niedoinformowanych
osób jakiś cel marketingowy za sobą niosą.

Powód jest prosty i ma dwa słowa -> XBOX ONE. A to wszystko po to by konsolowi fanboye mieli mięcho armatnie do walki w zmyślonej wojnie konsol gdzie wszyscy używają tej samej architektury i ludzie próbują wywołać wojnę API rodem z lat 90-tych.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ka po tych kilku godzinach z Wiedźminem w 60kl/s na 30 patrzę z lekkim wybrzydzaniem :D Jest to jednak całkowicie inny poziom płynności.

@pawbuk
Nie mam ani RoTR ani ATS, więc tego nie przetestuję :p

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

UE4 ma wbudowaną obsługę Vulcana z tego co wiem, Source 2 pewnie też będzie miał skoro jest w DOTA2. Unity kiedyś... może.

Carmack chyba już nie pracuje w ID Software.

DX12 jest po to żeby zwykły użytkownik miał powód do przesiadki na nowego Windowsa. Podejrzewam, że wiele osób wstrzymałoby się upgradem gdyby DX12 był dostępny na starszych systemach albo większość gier działałaby na Vulcanie. ;)

A tak? Prędzej czy później każdy kto che grać będzie musiał przejść na Win10, nawet Ci co teraz bronią się rękami i nogami. To jest nie mała grupa ludzi - przynajmniej kilkadziesiąt milionów użytkowników, może nawet ponad setka.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Zgadza się, że Carmack już nie pracuje w ID Software. Ale ID Tech 6 w dużej mierze używa kodu silnika napisanego przez Carmack''a dlatego jest w liście płac czwartego DOOM''a.

Szczerze nie jestem zachwycony tym windowsem 10. Niby jest on lepszy od win8/8.1 pod każdym względem ale co z tego skoro o wiele lepiej mi się siedzi na starej Viście, a o Windows 7 nie wspomnę. Choćby wył. automatycznej aktualizacji windowsa mnie do k!@#!!@# doprowadza, bo muszę wchodzić w "usługi" zamiast przez panel sterowania. Druga sprawa to te dwa Panele sterowania co za kretyn to wymyślił domyślny to nieudana podróba iOS i Androida natomiast drugi to wybrakowany klasyczny panel sterowania.

XCOM 2 i Wiedźmin 3 działają na Windows Vista więc nie muszę robić upgrade systemu + na kompie mam office który nie wymaga subskrypcji co roku odnawianej.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 16:06, ziptofaf napisał:

Ech, miał być neireferent RX480 ale że znowu je opóźnili...
http://puu.sh/q9lEw/624c64fee7.png

No cóż, w tej cenie ciężko narzekać :D


No i super :) To chyba najcichszy Fury ze wszystkich jakie wyszły. I największe :D Gdzie mają tak tanio?

A powiedz mi, czy byłby sens zmiany z karty na coś z serii Fury jeśli mam obecnie 970-tke? Bo niezłe przeceny się trafiają w Niemczech.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 20:10, KannX napisał:

No i super :) To chyba najcichszy Fury ze wszystkich jakie wyszły. I największe :D

Oj tak. Jak zobaczyłem tą cenę za nowiutkie Nitro Tri-X to się długo nie zastanawiałem. A że budę mam olbrzymią a zasilacz który przy jednej karcie tak czy siak śpi to dla mnie jej rozmiary to wręcz zaleta :D

Dnia 21.07.2016 o 20:10, KannX napisał:

A powiedz mi, czy byłby sens zmiany z karty na coś z serii Fury jeśli mam obecnie 970-tke?
Bo niezłe przeceny się trafiają w Niemczech.


Tak szczerze? W tej chwili zakres 1450-1900 zł to niestety zawsze coś za coś.
Fury jest najszybszą nową kartą jaką da się wyrwać (ba, za 1750 zł widziałem Fury X...) ale ma tylko 4GB pamięci (fakt że HBM - w praktyce realnie to nieco więcej niż 4GB w GTX''ie 980 dajmy na to bo karta może szybciej mielić dane) - więc jego skalowanie w wyższych rozdzielczościach wkrótce zniknie.

Ja osobiście spojrzałem na to z tej strony - czy RX480 nawet mając 8GB VRAMu nadaje się do 1440p? Krótka piłka - nie. Jest na to za wolny. Podobnie 1060tka. Bo dobra, wysokie detale jeszcze tak ale ultra odpadają. Zaś w 1080p obie są wolniejsze od Fury chyba w każdej grze obecnej na rynku (poza Mirror's Edge ale o nim niżej).

Więc czy Fury nadaje się do 1440p? Odpowiedź brzmi - tak. O ile nie zabraknie mu pamięci. Tutaj moc obliczeniowa jest jednak o dobre 15% wyższa od 980tki w DX11 a w Vulkanie i niektórym grom w DX12 nawet 980Ti musi się postarać by dorównać Fury (swoją drogą - Sapphire Nitro często daje się odblokować do pełnego Fury X ^_^).
Taki Mirror''s Edge w Hyper jest niegrywalny na R9 Fury. Tylko że jest podobnie niegrywalny na RX 480 i GTX1060 - bo w obu przypadkach nie dobijają one do więcej niż 45 klatek a ta gra w poniżej 60 działa jak chłam (nawet wersje konsolowe działają w 60 fps-ach...). A jak zbić do Ultra to tam już wygrywa Fury zostawiając obie pozostałe karty w tyle.

Ogółem najlepszym GPU w zakresie 1500-2000 zł są używane 980Ti. Dla mnie nie były jednak opcją bo to używki. A 295 euro (w praktyce 350 ale VAT to sobie potem wezmę z powrotem ;)) to jednak 1300 zł a nie 1800 ile bym musiał zapłacić z własnej kiesy za 980Ti. Bo tutaj jest i moc obliczeniowa, i VRAM.

I jeśli chcesz kupować coś na najbliższe parę latek i nie zależy ci koniecznie na tym by była to nowa karta to właśnie w tym kierunku bym poszedł.

Ot, brakuje na razie czegoś nowego pomiędzy 1070tką a RX480/1060tką. Ja bym chciał właśnie odpowiednik wydajności Fury z 8GB VRAMu... Ale pewnie szybko takie karty nie wyjdą bo to bardzo znikomy procent rynku (umówmy się - R9 390X pomijamy milczeniem).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 20:32, ziptofaf napisał:

Tak szczerze? W tej chwili zakres 1450-1900 zł to niestety zawsze coś za coś.
Fury jest najszybszą nową kartą jaką da się wyrwać (ba, za 1750 zł widziałem Fury X...)


Ja pierniczę... Odłożę tak z 2 tysiaki i będę raz na czas sprawdzał różne oferty, może się coś w tym typie trafi :)

Dnia 21.07.2016 o 20:32, ziptofaf napisał:

Ogółem najlepszym GPU w zakresie 1500-2000 zł są używane 980Ti. Dla mnie nie były jednak
opcją bo to używki. A 295 euro (w praktyce 350 ale VAT to sobie potem wezmę z powrotem
;)) to jednak 1300 zł a nie 1800 ile bym musiał zapłacić z własnej kiesy za 980Ti. Bo
tutaj jest i moc obliczeniowa, i VRAM.


Ten Fury to się nawet z VATem opłaca za 349€. A za 1300zł to już w ogóle zwyciężyłeś jak Aleksander Wielki :)

Dnia 21.07.2016 o 20:32, ziptofaf napisał:

Ot, brakuje na razie czegoś nowego pomiędzy 1070tką a RX480/1060tką. Ja bym chciał właśnie
odpowiednik wydajności Fury z 8GB VRAMu... Ale pewnie szybko takie karty nie wyjdą bo
to bardzo znikomy procent rynku (umówmy się - R9 390X pomijamy milczeniem).


Może 1070-tki będą taniały i nierefy za jakiś czas będzie można kupić poniżej 2000zł (1999 :D). Zrozumiawszy jak dobry jest 970, to aktualnie nie mam parcia na wymianę :) Ale jak się coś dobrego trafi to czemu nie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 20:49, KannX napisał:

Ten Fury to się nawet z VATem opłaca za 349?. A za 1300zł to już w ogóle zwyciężyłeś
jak Aleksander Wielki :)


Nie no, ja po prostu płacę ceny netto. Za 1070tkę też bym zapłacił z 1650-1700 zł. No, w sumie to zapłaciłbym normalnie ale za parę miechów mi oddadzą. W końcu high-endowa karta do gier jest WYMOGIEM w pracy :P Tylko Caseking to głupio wysyła bo z 0% VAT''em i za to masz odwrócony VAT (czyli ty jako kupujący płacisz w Polsce) - i tu już jest 23%. Więc pewnie gdzieś w urzędzie celnym mi przytrzymają kartę z tydzień. Jak kupujesz "normalnie" (czyli niepotrzebna ci faktura) to dostaniesz tylko niemiecki VAT do zapłacenia z góry w wysokości 19%. I o ile mi wiadomo to w teorii istnieje prawo które mówi że w Polsce będziesz musiał dopłacić 4% ale w praktyce ono obowiązuje dość rzadko. Tym niemniej warto o tym pamiętać gdy akurat się planuje wydać wszystkie oszczędności na sprzęt bo te 4% przy sprzęcie za 1500 zł to jednak już 60 zł "bonusowe" których na rachunku nie zobaczysz :P

No i trzeba uważać na kurs walut - najlepiej robić przelew zagraniczny ze swojego banku. Potem Visa. Na koniec PayPal. Bo znowu ze 100 zł "ekstra" zapłacisz względem oficjalnego kursu.

Dnia 21.07.2016 o 20:49, KannX napisał:

Może 1070-tki będą taniały i nierefy za jakiś czas będzie można kupić poniżej 2000zł
(1999 :D). Zrozumiawszy jak dobry jest 970, to aktualnie nie mam parcia na wymianę :)
Ale jak się coś dobrego trafi to czemu nie.


Za 2039 zł widziałem Gigabyte''a z dwoma wentylatorami. Na Allegro też śmignął dzisiaj używany przez całe 3 dni GTX1070 Gaming G1 za 2069 zł. Za poniżej 2000 zł chyba jeszcze nie ma. Wszystko i tak się o kurs złotówki do dolca rozbije.

Ostatnio wyrwałem też Bitfenixa Pandora Core Window za grosze. W sam raz na nowy domek dla mojego R9 280X. Jeszcze nie zdecydowałem co prawda co z tym PC-tem który sam mi się złoży z resztek po upgradzie zrobię ale już wiem że będzie się ładnie prezentować :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Widzę ziptofaf, że na zakupy się wybrałeś :D Ładne zabawki sobie sprawiłeś ;) Tym Fury to co zastępujesz, 280X?

A Pandora to jedna z najładniejszych bud na rynku, naprawdę cos fajnego można w niej zbudować jak sie ma jakiś dobry pomysł ;)

Jaki planujesz zestaw? ;) Pochwalisz się? ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 21:59, pawbuk napisał:

Widzę ziptofaf, że na zakupy się wybrałeś :D Ładne zabawki sobie sprawiłeś ;)
Tym Fury to co zastępujesz, 280X?

Tak. Najwyższa już pora - z tego co widziałem testy jest do +100% wzrostu w niektórych grach czyli akurat tyle by całkowicie uzasadnić wymianę. Ponad 3 lata już mam tę karciochę i naprawdę się sprawdziła (zresztą nadal działa dobrze choć jednak już Ultra w Dark Souls 3 i... Xcomie 2... okazały się ponad jej siły) więc dam AMD kolejną szansę.

Się dopiero okaże czy był to trafiony zakup ale tak czy siak patrząc z perspektywy tego co mam teraz to skok wydajności będzie bardzo wyraźny.

Dnia 21.07.2016 o 21:59, pawbuk napisał:

A Pandora to jedna z najładniejszych bud na rynku, naprawdę cos fajnego można w niej
zbudować jak sie ma jakiś dobry pomysł ;)

Na razie dobrych pomysłów brak, po prostu trafiłem na tę budę za 199 zł więc kupiłem od ręki. Dopiero teraz będę myślał CO z nią zrobię.

Dnia 21.07.2016 o 21:59, pawbuk napisał:

Jaki planujesz zestaw? ;) Pochwalisz się? ;)

Dobre pytanie, odpowiedź na nie będzie zależeć od tego komu ten PC oddam. Jeśli mojemu bratu (bo psioczy na swojego laptopa i żyć mi nie daje :P) to bez wypasu - jakiś Haswellowy Core i3 (mam w szafie Pentiuma G3220 i nawet nieźle działa ale jednak do nowych gier w połączeniu z Radeonem daje nienajlepsze efekty), Asus H81M Plus, z 8GB RAM, 1TB HDD. Ot, resztki jakie mam na stanie, nie zamierzam dopłacać do niego. Zasilacz dokupię pewnie klasy Supremo M2 albo może Antec True Power jak gdzieś dostanę w rozsądnej cenie. No i ww. R9 280X - przejdzie sobie w ten sposób na emeryturę bo brat głównie gra w Rocket League, HoTS itp a nie nowego Dooma. Ja się pozbywam elektroniki ze swojej rupieciarni, on dostaje za przysłowiowe grosze dobrze wykonanego PC-ta na którym ruszy każda gry i to w całkiem niezłych detalach.

Co innego jeśli znajdę uzasadnienie by rozbudować swoją główną maszynę (ale to nie wcześniej niż w czwartym kwartale 2016 roku - przesiadka z tego procka ma sens tylko na minimum coś o wydajności 6800k a 2000 zł to ja na procesor nie wydam, muszę zaczekać aż w serwerowniach uznają że Xeony V3 są już przestarzałe) - wtedy do środka Pandory trafi i5-5675c i jakiś odpowiednik MSI Z97 Krait pod mATX (żeby zrobić biało-czarny build - buda srebrna więc powinno się nieźle komponować).

Jest też szansa że znajomy będzie chciał komputer a ostatnio planował zakup. Wtedy wszystko będzie zależeć od jego budżetu :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 22:24, ziptofaf napisał:

Dobre pytanie, odpowiedź na nie będzie zależeć od tego komu ten PC oddam. Jeśli mojemu
bratu (bo psioczy na swojego laptopa i żyć mi nie daje :P) to bez wypasu - jakiś Haswellowy
Core i3 (mam w szafie Pentiuma G3220 i nawet nieźle działa ale jednak do nowych gier
w połączeniu z Radeonem daje nienajlepsze efekty), Asus H81M Plus, z 8GB RAM, 1TB HDD.


Największy problem z G3220 jest taki, że nawet jak nowe gry(ale i z starszymi jest to samo) co wykorzystują 4 rdzenie i dobrze działają na prockach z tylko 2 rdzeniami to prędzej czy później któraś łatka to zrujnuje. Dla przykładu Wiedźmin 3 od wersji 1.07 jest praktycznie niegrywalny jeśli CPU nie ma 4 rdzeni(nawet stary Q6600 na domyślnych taktach wystarczy byle miał 4 rdzenie) i nie ważne jaką masz kartę. Albo XCOM 2 który co prawda ma min. Core 2 Duo E4700, ale to taki gniot jeśli chodzi o optymalizację, że bania staje zwłaszcza po ostatniej łatce.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2016 o 21:23, ziptofaf napisał:

Ostatnio wyrwałem też Bitfenixa Pandora Core Window za grosze.


A widziałeś jak tam jest mało miejsca za backplatem płyty głównej? :) Kabel 8-pin płyty chyba tylko tasiemkowy się zmieści. A obudowa sama w sobie jest fantastyczna, tak jak Pawbuk pisze jedna z najładniejszych. I z racji swej smukłości jakiś "wysoki" 1070 lub 1080 też mógłby nie wejść. Chodzi mi o wystawanie pcb ponad koniec śledzia.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.07.2016 o 01:44, KannX napisał:

A widziałeś jak tam jest mało miejsca za backplatem płyty głównej? :)

Jeszcze nie, dopiero w poniedziałek do mnie dotrze. Ale liczę na to że z moim 280X nie będzie problemu.
https://images.morele.net/full/611375_0_f.jpg
System chłodzenia w tej wersji jeszcze nie był kosmicznie rozbudowany.

Tym niemniej - to jednak mATX a nie miniITX więc nie powinno być źle.

Tak swoją drogą - zapowiedziano nowego Titana:
https://www.reddit.com/r/buildapc/comments/4u0sfd/new_titan_x_pascal_announced

"Fajna" cena :D Jakieś 6000-7000 zł wyjdzie ^_^ Karta graficzna w cenie dwóch komputerów... i tylko 2TFLOPs więcej od 1080tki.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 22.07.2016 o 08:13, ziptofaf napisał:

"Fajna" cena :D Jakieś 6000-7000 zł wyjdzie ^_^ Karta graficzna w cenie dwóch komputerów...
i tylko 2TFLOPs więcej od 1080tki.

Mała korekta 3TFLOPs więcej od 1080tki, ale co tam bardziej mnie śmieszy jedyny nowy feature to obsługa dx12.1 jeśli dobrze odczytałem specyfikację na stronie nvidia

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się