Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 27.07.2015 o 14:21, leven napisał:

Zgadza się, Green będzie najlepszy do przechowywania danych.

p.s.. witam żołnierza Mrosi !!


Znamy się z GG :)


Si. :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 14:22, ziptofaf napisał:

2960 zł za Fury X. Już nie przesadzajmy że za 3600 ^_^ Ta karta kosztuje tyle ile miała
kosztować. I tak łatwiej znaleźć Fury X po cenie rynkowej dzisiaj niż R9 280X w 2013,
pamiętam jak półtora tygodnia czekałem na to żeby mi jakieś zdobyli :P


Faktycznie. Patrzyłem poprzez linki na Ceneo. Taka cena jest jak najbardziej słuszna, szczególnie za kartę z ciekłym chłodzeniem. Może z czasem Fury bez X stanieją do poziomu 2200-2300zł, wtedy będzie uczciwie :)

Zasiałeś ziarno niepewności w mym sercu, pisząc o tak wielkim zjeździe cenowym w Q1 2016... Bo jakby nie patrzeć aktualne produkty od AMD to dopiero początek HBM (wysokie koszta produkcji) i całej reszty (niezbyt się na tym znam), ktoś już o tym wspominał. Bo ja w sumie w nic super-mega nowego nie grywam aktualnie.

Trzeba poczekać na Nano i zobaczę jaki będzie stosunek cena/wydajność. Nie mam co teraz gdybać, premiera niedługo i się zobaczy. Ale ustaliłem sobie, że więcej jak 1800zł nie dam :)

Gratuluję zakupu procka, płyta główna się ucieszy i będzie ładnie współpracować :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Rzecz dotyczy upgrade laptopa Acer Aspire 7552g - mam nadzieję, że nie umieszczam posta w złym temacie.
Chcę mu dokupić ramu, oryginalnie są 2 kości po 2GB DDR3 1066 MHz. Do trzeciego slotu chciałbym wsadzić kość 2 albo 4GB. Nie mogę się doszukać wspieranych częstotliwości ramu.

1. Czy jeśli dołożona kość będzie taktowana 1333 lub 1600, to czy ograniczy się ona do 1066 i wszystko będzie śmigało? Może lepiej poszukać kostki 1066?
2. Jak sprawa wygląda względem pracy w dual channel przy trzech kostkach, biorąc też pod uwagę ewentualne różne częstotliwości/pojemności kości?

Model komputra to dokładnie AS7552G-X924G64Mnkk .

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 18:50, Sztywny_pl napisał:

1. Czy jeśli dołożona kość będzie taktowana 1333 lub 1600, to czy ograniczy się ona do
1066 i wszystko będzie śmigało? Może lepiej poszukać kostki 1066?
2. Jak sprawa wygląda względem pracy w dual channel przy trzech kostkach, biorąc też
pod uwagę ewentualne różne częstotliwości/pojemności kości?

Model komputra to dokładnie AS7552G-X924G64Mnkk .


Kości, bez względu na ich taktowania, będą pracować z prędkością najniżej taktowanej pamięci. DD3 były, o ile mnie pamięć nie myli, z najniższym taktowaniem 1066MHz. Kup 1333MHz i będzie OK. Dla wydajności i tak nie będzie miało znaczenia. :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 20:20, mrosi napisał:


Mam tylko nadzieję, że wydajność nie spadnie jeśli coś nie będzie współgrało i się wyłączy Dual Channel...

Edit:
A, i jak jeszcze ma się do całości przepustowość pamięci? Te obecne mają wszystkie 8500 MB/s.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 21:21, Sztywny_pl napisał:

>
Mam tylko nadzieję, że wydajność nie spadnie jeśli coś nie będzie współgrało i się wyłączy
Dual Channel...

Edit:
A, i jak jeszcze ma się do całości przepustowość pamięci? Te obecne mają wszystkie 8500
MB/s.


Za przepustowość odpowiada szyna, nie kości. To i tak nie ma znaczenia w normalnym użytkowaniu. Jeśli podkręcasz procesor i pamięci żeby zdobyć kilka punktów w 3DMark więcej, i owszem. W codziennym użytkowaniu nie odczujesz różnicy.
Co do pracy dwukanałowej. Różnica między single a dual nie przekracza 5%. W dodatku mówimy o sprzęcie bardzo wydajnym. Przy Twoim notebooku, to może mieć znaczenie jedynie dla lepszego samopoczucia. :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 15:39, KannX napisał:

Może z czasem Fury bez X stanieją do poziomu 2200-2300zł, wtedy będzie uczciwie :)

Spora szansa że po prostu nie zdążą. Wszyscy zainteresowani wiedzą co wychodzi w 2016 roku. AMD miało zbyt duże opóźnienia, ich najmocniejsze GPU co prawda schodzą jak ciepłe bułeczki (co skądinąd przeszkadza w obniżaniu cen) ale ma ich też po prostu niewiele. Śmiem twierdzić że Fury, o ile jego cena nie zdąży zjechać jakimś cudem o 200 zł w dół w przeciągu 2 miesięcy stanie się martwym GPU. Nie miało czasu na wygenerowanie sobie renomy a wydajność nieco wyższa niż GTX980 to za mało gdy już wszyscy zainteresowani mają 970/980.

Arctic Islands za to mają się pokazać przed Pascalami to sytuacja się może odwrócić, jeśli zobaczysz +70% wydajności względem tego co masz za dopłatą 600 zł to pójdzie na to każdy i nawet nie ma co czekać na ruch konkurencji (vide GTX970) :P

Dnia 27.07.2015 o 15:39, KannX napisał:

Zasiałeś ziarno niepewności w mym sercu, pisząc o tak wielkim zjeździe cenowym w Q1 2016...
Bo jakby nie patrzeć aktualne produkty od AMD to dopiero początek HBM (wysokie koszta
produkcji) i całej reszty (niezbyt się na tym znam), ktoś już o tym wspominał. Bo ja
w sumie w nic super-mega nowego nie grywam aktualnie.


Powiem tak - w samej tylko przestrzeni różnica między 28nm a 14nm to jak Nehalemy typu i5-750 (no dobra, to było 32 nm ale Intel nie robił 28 nm) vs najnowszy Skylake.

Logicznie rzecz biorąc oznacza to że po tych samych kosztach co obecnie (no dobra, nieco wyższych bo proces trudniejszy do opanowania) robisz układy które jedzą o połowę mniej prądu i są prawie 4x mniejsze (nie 2x bo chipy są mniej więcej kwadratowe, 28 nm x 28 nm to 4x tyle co 14 nm x 14 nm).

Innymi słowy, na rynku GPU oznacza to olbrzymią przepaść. Z tego samego procesu 28nm korzystały wszystkie karty od HD7970 wydanego w 2012 roku wzwyż.

Ot, da się w tej samej cenie wsadzić 2x tyle ile można obecnie teraz. Do tego wreszcie dojdzie pełne wsparcie DX12 (nie, żadna obecna karta tego nie ma).

Dlatego samemu wolę sobie odpuścić obecną generację ostatecznie. Na rynku GPU jednak istnieje konkurencja i to widać, Nvidia nie pozwoli AMD wypuścić czegoś o połowę szybszego od ich produktów ani odwrotnie. Więc obie firmy w zasadzie będą zmuszone wypuścić GPU korzystające ze wszystkich dostępnych technologii (zwłaszcza że mają spooooro do nadrobienia). Ja chętnie bym przywitał wydajność Fury w okolicach 1300 zł :) Albo jej dwukrotność za 2500-2700 bo to >wreszcie< będzie dość do 4k@60fps bez żadnych sztuczek. Do czego zresztą obie firmy zdają się dążyć - zrozumieli że cel jakim jest płynność w FullHD został osiągnięty i takie AMD przecież na lewo i prawo mówi że teraz tylko 4k się liczy :P

Dnia 27.07.2015 o 15:39, KannX napisał:

Gratuluję zakupu procka, płyta główna się ucieszy i będzie ładnie współpracować :)

Co ty, ta płyta główna strzeliła mi fochem na samą próbę aktualizacji BIOS''u. Poważnie. Niby wystarczy go sobie pobrać i można skorzystać z ichnego windowsowego narzędzia, Ez Update ( http://puu.sh/jf47u/abcb6367c4.png) i tyle, zaczekać z 2 minuty i zrestartować komputer. I w tym momencie wita nas śliczny komunikat "enter the device with the selected bios version to continue" (czy coś w tym stylu). Fakt faktem - pominąć się tego nie da, masz niesprawny komputer do momentu gdy na pendrivie (bądź innym nośniku sformatowanym jako Fat32) znajdzie się dopiero-co-zainstalowany-BIOS. W moim przypadku oznaczało to że po prostu zrobiłem to na PC-cie #2. I wtedy proces instalacji BIOS''u przebiega raz jeszcze, już z poziomu UEFI. I dopiero potem już wszystko działa. Dodajmy, o tym że będzie to wymagane nie ma żadnej wzmianki.

Jutro za to powinien CPU do mnie dotrzeć to będę mógł wreszcie się pobawić. Na razie bez OC (bo i po co, żeby mi słupki w benchmarkach wzrosły?) ale zobaczę jak dobry jest rzeczywiście ten procesor. Nawet już znalazłem kozła ofiarnego z i5-4690K, 280X i Gigabyte Z97X-Gaming 5 którego wykorzystam do porównania, byle RAMy podobnie poustawiać na obu maszynach i test powinien wyjść uczciwie. Choć moja procedura testowa to np. raid bossowie w WoW-ie, 2v2 w Starcrafcie i parę innych rzeczy (choć postaram się o jakąś powtarzalność) więc tak dokładne jak z profesjonalnych portali jeszcze nie będą. Dość powiedzieć że mam nawet test którego za cholerę nie przechodzi mi i7-4790K a i5 już tak - ten pierwszy się po prostu przegrzeje :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Przeczytałem wszystko. Mam jednak kilka pytań :)

Dlaczego AMD w ogóle wypuszczało karty Fury? Wszak od premiery ich kart, a do premiery nowszych układów (zarówno AMD jak i nVidii) dzieli ich niecały rok. Rozumiem, że wypuścili bo musieli coś zarobić? Bo rewolucji nie było, chociaż miniaturyzacja Fury X i nadchodzącego Nano jest wspaniała. Sam HBM dał sporo nawet w połączeniu ze starym procesem.

I kolejne przemyślenia. Obecny rozwój gier pod względem grafiki został zastopowany przez konsole (nie napiszę next gen, bo to kłamstwo ;)). Zamierzam grać w 1920x1080 (mały pokój, małe biurko, 24" jak znalazł). Wiadomo na jak długo zostaną ''zastopowane'' wymagania sprzętowe najnowszych gier?

Z drugiej strony zakup jakiejś potężnej karty w 2016 z HBM2 (nawet 4gb by wystarczyło do FHD) dałby mi spokój na kilka lat (jak u Ciebie z 280).

A płyta strzeliła focha, bo to wszak kobieta :) Ja przy obecnej płycie nie aktualizowałem biosu z poziomu systemu (jakoś nie mam do tego zaufania, chociaż chyba w jednej płycie MSI się udało) i od razu zgrałem nowego biosa na palucha i przy restarcie zaktualizowałem. Czekam na testy, fajnie że porównasz go ze znanym i kochanym 4690K :)

I jeszcze na koniec.

Obudowę Raven 2 już znasz: http://www.silverstonetek.com/raven/products/index.php?model=RVZ02&area=en&top=C
Ale jako, że panowie z Silverstone''a są mądrzy i byli świadomi, że nie każdemu taki design musi się podobać, to wypuścili Milo 08 - taka sama funkcjonalność i genialność konstrukcji w bardziej stonowanym wydaniu (szpetny uchwyt jest zdejmowany)
http://www.silverstonetek.com/product.php?pid=607&area=en

Arcydzieło. Jego głównym konkurentem jest Fractal Node 202, ale ona nie ma miejsca na napęd optyczny
http://www.fractal-design.com/home/product/cases/node-series/node-202

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.07.2015 o 23:31, KannX napisał:

Dlaczego AMD w ogóle wypuszczało karty Fury? Wszak od premiery ich kart, a do premiery
nowszych układów (zarówno AMD jak i nVidii) dzieli ich niecały rok. Rozumiem, że wypuścili
bo musieli coś zarobić? Bo rewolucji nie było, chociaż miniaturyzacja Fury X i nadchodzącego
Nano jest wspaniała. Sam HBM dał sporo nawet w połączeniu ze starym procesem.


W wielkim skrócie - AMD nie planowało dobrze tej generacji. Pokładali mnóstwo nadziei w procesie 20 nm a w ostatniej chwili okazało się że się nie da, producent chipów ostatecznie się nie zgodził. Co zostawia ci dwie opcje - albo czekać do 14-16 nm (i pozwolić by Nvidia przejęła cały rynek na ponad 12 miesięcy) albo dostosować Fury do starszego procesu, popodkręcać wszystkie pozostałe układy i próbować coś sprzedać. Bo lepsze 15% rynku z nowo sprzedanych kart niż 0%.

Poza tym Fury jest koniecznym eksperymentem przed przejściem dalej. Nawet Intel nigdy nie odważył się jednocześnie wprowadzać nowego procesu i architektury (choć AMD przy okazji Zena będzie jednocześnie wprowadzać nowe płyty główne, nową architekturę, nowy proces technologiczny i nowy typ RAM''u... co dobrze pokazuje różnice w budżecie obu firm). Dobrze pokazuje możliwości tej technologii oraz jej limity, raz zaprojektowane systemy chłodzenia zostaną w końcu też wykorzystane ponownie. I przy okazji daje fanom czerwonych, co prawda nieco spóźnioną, ale odpowiedź na high-endowe karty Nvidii.

Dnia 27.07.2015 o 23:31, KannX napisał:

I kolejne przemyślenia. Obecny rozwój gier pod względem grafiki został zastopowany przez
konsole (nie napiszę next gen, bo to kłamstwo ;)). Zamierzam grać w 1920x1080 (mały pokój,
małe biurko, 24" jak znalazł). Wiadomo na jak długo zostaną ''zastopowane'' wymagania
sprzętowe najnowszych gier?

Hm, zależy. Przede wszystkim tak czy siak dobijamy do zupełnie innego, niesprzętowego limitu - budżetu. Gry klasy AAA kosztują majątek. Ich engine''y graficzne idą w dziesiątki miliony $. Im lepsza grafika tym więcej trzeba w nie włożyć pieniędzy. Co sprawia że to się po prostu przestanie ci zaraz zwracać. Jak skalujesz w dół do poziomu PS4 to i na Xboxa czy PC-ta wydasz dany tytuł. Bum, dużo dodatkowej kasy, większa amortyzacja ryzyka.

Ot, to się po prostu nie opłaca na chwilę obecną. Ta kozacka grafika w końcu skądś musi się brać. Kto ci zaprojektuje modele postaci z jakiejś chorej ilośći poligonów, ilość bugów graficznych zacznie rosnąć lawinowo... I robi się nieciekawie.

Więc nie ma co nadmiernie winić konsol o to że gry są jakie są. Przeskok do kolejnego poziomu grafiki wymaga na dzień dzisiejszy niemożliwych nakładów, o wiele bardziej ogarniętych programistów (taki DX12 oferuje mnóstwo nowych funkcji ale jak spojrzałem pobieżnie na poziom trudności wdrożenia niektórych z nich... ło matko. Wsparcia dla Hybrid MultiGPU to żadna gra nie będzie mieć) i developerów oraz bardziej dojrzałych narzędzi.

Limity sprzętowe również istnieją ale te działają nieco inaczej. Chcesz 5x większego pola widzenia? Da się zrobić. Braku doczytywania? Spoko. Lepszego oświetlenia? Żaden problem. Ale najbardziej widoczne dla nas elementy wiążą się z mnóstwem dodatkowych kosztów w $$$.
W sumie w grach nawet czegoś takiego jeszcze nie widziałem:
http://9gag.com/gag/a8jYYEV/the-future-of-cloth-physics
A to już w pierwszej wersji CUDA było, w 2007 chyba :P

Dnia 27.07.2015 o 23:31, KannX napisał:

Z drugiej strony zakup jakiejś potężnej karty w 2016 z HBM2 (nawet 4gb by wystarczyło
do FHD) dałby mi spokój na kilka lat (jak u Ciebie z 280).

280X to jeden z najbardziej nieśmiertelnych układów na rynku. W końcu to HD7970 :P

Dnia 27.07.2015 o 23:31, KannX napisał:

A płyta strzeliła focha, bo to wszak kobieta :) Ja przy obecnej płycie nie aktualizowałem
biosu z poziomu systemu (jakoś nie mam do tego zaufania, chociaż chyba w jednej płycie
MSI się udało) i od razu zgrałem nowego biosa na palucha i przy restarcie zaktualizowałem.
Czekam na testy, fajnie że porównasz go ze znanym i kochanym 4690K :)

Będą będą. Fakt że na razie bez OC :P Już wykosztowałem się na maksa i przekroczyłem budżet o kilka stów (i teraz liczę na to że uda mi się dokonać zwrotu VATu bez nadmiernych komplikacji :P) więc nawet na Grandisa mi nie starczy. Zresztą testy po OC to miałyby tak czy siak sens dopiero na Fury/980tce. Planem jest G3220 + R9 280X/Intel HD, i5 4690K + 280X/Intel HD4600, i5 5675C + 280X/Intel Iris Pro. Nie widziałem od dawna niczego rzetelnego dot. limitowania GPU przez CPU, ciekawe czy znajdę sytuację gdzie Iris Pro zmasakruje R9 280X + G3220 :P

Dnia 27.07.2015 o 23:31, KannX napisał:

Ale jako, że panowie z Silverstone''a są mądrzy i byli świadomi, że nie każdemu taki
design musi się podobać, to wypuścili Milo 08 - taka sama funkcjonalność i genialność
konstrukcji w bardziej stonowanym wydaniu (szpetny uchwyt jest zdejmowany)
http://www.silverstonetek.com/product.php?pid=607&area=en


Hm, nie mój typ obudów. Jakoś zawsze wolałem kostki aniżeli ciasne prostokąty :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 00:50, ziptofaf napisał:

Bo lepsze 15% rynku z
nowo sprzedanych kart niż 0%.


To ma sens, bo interes się musi kręcić, nieważne że słabo ale musi. A co do budżetu AMD, to czy jest większy od Intela? Skoro wraz z Zenem chcą wprowadzać ''wszystko na raz''.

Właściwie to może przesadzam z tym ograniczaniem grafiki przez konsole. Najnowszy Uncharted wygląda pięknie, tak samo Project Cars i nieco starszy CoD z Kevinem Spaceym :) A z limitem budżetu przy tworzeniu gier to faktycznie nie pomyślałem.

Dnia 28.07.2015 o 00:50, ziptofaf napisał:

Planem jest G3220 + R9 280X/Intel HD, i5 4690K
+ 280X/Intel HD4600, i5 5675C + 280X/Intel Iris Pro. Nie widziałem od dawna niczego rzetelnego
dot. limitowania GPU przez CPU, ciekawe czy znajdę sytuację gdzie Iris Pro zmasakruje
R9 280X + G3220 :P


Jesteś posiadaczem najszybszej integry :) Też jestem ciekaw. To Idealny procesor do malutkiego HTPC, wszystkie filmy odpalisz, a nawet w coś zagrać można.

Dnia 28.07.2015 o 00:50, ziptofaf napisał:

Hm, nie mój typ obudów. Jakoś zawsze wolałem kostki aniżeli ciasne prostokąty :P


Masz Q50 więc wolisz kostki ;) Ale swoją drogą nie ma lepszej kostki od Metisa/Q50. No poprostu nie ma.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Siema, krótka piłka, najlepsza karta graficzna do 1000. Przez 2, 3 miesiące będzie współpracowała z leciwym Phenomem 965. Myślałem nad GTX960 od MSI z dwoma wentylatorami (ponoć AMD wymaga adekwatnego procesora do kartki, do tego zieloną łatwiej sprzedać). Panowie, Wiesiek nie może już dłużej czekać. Pomóżcie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Używany R9 290, jedyna karta którą z gwarancją dostaniesz na Allegro w okolicach 900-950 zł. Zjada te 960tki oferując o kilkadziesiąt procent wyższą wydajność. Bardzo ciężko polecić coś nowego >do< 1000 bo za 1200-1300 jest już przepaść wydajnościowa.

Ewentualnie, jeśli koniecznie karta fabrycznie nowa to albo R9 380 albo właśnie GTX 960:
http://www.purepc.pl/karty_graficzne/test_amd_radeon_r9_380_konkurencja_dla_geforce_gtx_960?page=0,15
^ Wydajność w Wiedźminie 3.
Ten pierwszy jest nieco szybszy, ta druga je mniej prądu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 20:35, ziptofaf napisał:

/.../

Używany R9 290, jedyna karta którą z gwarancją dostaniesz na Allegro w okolicach 900-950
zł. Zjada te 960tki oferując o kilkadziesiąt procent wyższą wydajność. Bardzo ciężko
polecić coś nowego >do< 1000 bo za 1200-1300 jest już przepaść wydajnościowa.


Ewentualnie, jeśli koniecznie karta fabrycznie nowa to albo R9 380 albo właśnie
GTX 960:
http://www.purepc.pl/karty_graficzne/test_amd_radeon_r9_380_konkurencja_dla_geforce_gtx_960?page=0,15
^ Wydajność w Wiedźminie 3.
Ten pierwszy jest nieco szybszy, ta druga je mniej prądu.


I o to chodziło, właśnie zamówiłem R9 290. Dzięki wielkie za pomoc:)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 15:49, KannX napisał:

To ma sens, bo interes się musi kręcić, nieważne że słabo ale musi. A co do budżetu AMD,
to czy jest większy od Intela? Skoro wraz z Zenem chcą wprowadzać ''wszystko na raz''.

Nie jest. Intel kwartalnie wydaje 2x więcej na samo R&D niż AMD ma kasy W OGÓLE. Z nim się nie konkuruje, nie ta kategoria :P Choć faktem jest że Intel ma też o wiele więcej wydatków - produkuje procki na urządzenia mobilne, ma własne fabryki półprzewodników, produkują SSD''ki, procesory, chipy graficzne (Intel HD jest zgodnie z danymi Steama najpopularniejszym układem w ogóle), karty sieciowe (i to naprawdę dobre, Intelowska karta sieciowa to produkt o klasę lepszy niż wszelkiej maści Killery), od cholery i trochę oprogramowania.

AMD od lat nie miało możliwości konkurowania z Intelem. Nie gdy okazało się że 5 lat spędzone na projektowaniu Bulldozerów będzie zmarnowane. Ten jeden błąd kosztował ich po prostu zbyt wiele. To procesory które pod sam koniec życia okazują się o wiele lepsze niż oceniano je w dniu ich premiery (w Wiedźminie 3 choćby spójrz na wyniki FX''ów, one naprawdę nie są niskie! http://pclab.pl/art63116-47.html) ale ich budowa okazała się prawie że gwoździem do trumny dla AMD - gry nigdy nie były stworzone z myślą o wielordzeniowości. Więc musieli projektować układ od nowa a to nie jest coś co można zrobić w rok czy dwa (koszta tworzenia tego procka prawdopodobnie poszły w miliardy dolców). A w międzyczasie Intel wypuszczał tylko kolejne generacje Core. Cóż, efekty ich pracy poznamy w ciągu najbliższych 6-12 miesięcy.

Ot, to nie jest tak że AMD zdecydowało "nie róbmy desktopowego procesora przez najbliższe 6 lat a pobawmy się w AM1 i FM2+!" a po prostu nie było ich na to stać. Zamiast płynnej ewolucji jak Intel który generacje zmienia jak rękawiczki AMD może wykrzesać z siebie 1-2 nowe rodziny GPU co 2-3 lata i 1 rodzinę procesorów co 4-5.

Cóż, oby im wypaliło. Bo to co oferują na papierze prezentuje się zachęcająco. Skądinąd ostatnio wypuścili nowy slajd który pokazuje co dostaniemy w 2016, w ogólnych zarysach:
http://www.kitguru.net/wp-content/uploads/2015/07/amd_graphics_leadership_1.png
"2x Performance-per-Watt Efficiency". I to jest w odniesieniu do Fury ;P

Nie powiem, jeśli Zen im wyjdzie i naprawdę dostanę w ludzkiej cenie 8-rdzeniowe monstrum (a niech sobie pojedynczy rdzeń nawet będzie o 10% wolniejszy niż Skylake, to mam gdzieś) to bez wahania sprzedam wszystko co mam i kupię ich platformę w dniu premiery :P

Skądinąd:
http://wccftech.com/amd-allegedly-preparing-apu-sixteen-zen-cores-greenland-hbm-graphics/
Jakby wydali TAKIE COŚ to też by było fajnie :P

Dnia 28.07.2015 o 15:49, KannX napisał:

Jesteś posiadaczem najszybszej integry :) Też jestem ciekaw. To Idealny procesor do malutkiego
HTPC, wszystkie filmy odpalisz, a nawet w coś zagrać można.

Nie wszystkie filmy. YouTube ostatnio 6k testował, gdzieś mieli też film w pełnym 360" 3D :P Żeby to mi płynnie ruszyło to musiałbym chyba Xeona E5-2670v3 mieć.

Dnia 28.07.2015 o 15:49, KannX napisał:

Masz Q50 więc wolisz kostki ;) Ale swoją drogą nie ma lepszej kostki od Metisa/Q50. No
po prostu nie ma.

Jak się poszuka to się znajdzie - Xigmatek Nebula jest bardzo ładny moim zdaniem :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 21:17, ziptofaf napisał:

Nie jest. Intel kwartalnie wydaje 2x więcej na samo R&D niż AMD ma kasy W OGÓLE. Z nim
się nie konkuruje, nie ta kategoria :P Choć faktem jest że Intel ma też o wiele więcej
wydatków - produkuje procki na urządzenia mobilne, ma własne fabryki półprzewodników,
produkują SSD''ki, procesory, chipy graficzne (Intel HD jest zgodnie z danymi Steama
najpopularniejszym układem w ogóle), karty sieciowe (i to naprawdę dobre, Intelowska
karta sieciowa to produkt o klasę lepszy niż wszelkiej maści Killery), od cholery i trochę
oprogramowania.


A to jest bardzo ciekawe.

[duże ciach]

Dnia 28.07.2015 o 21:17, ziptofaf napisał:

Cóż, oby im wypaliło. Bo to co oferują na papierze prezentuje się zachęcająco. Skądinąd
ostatnio wypuścili nowy slajd który pokazuje co dostaniemy w 2016, w ogólnych zarysach:
http://www.kitguru.net/wp-content/uploads/2015/07/amd_graphics_leadership_1.png
"2x Performance-per-Watt Efficiency". I to jest w odniesieniu do Fury ;P


To faktycznie, 2016 to rok morderczego wzrostu wydajności :)

Dnia 28.07.2015 o 21:17, ziptofaf napisał:

Skądinąd:
http://wccftech.com/amd-allegedly-preparing-apu-sixteen-zen-cores-greenland-hbm-graphics/
Jakby wydali TAKIE COŚ to też by było fajnie :P


Ech niezbyt rozumiem. To będzie miało obsługę DDR4 + własna pamięc HBM2?

Dnia 28.07.2015 o 21:17, ziptofaf napisał:

Nie wszystkie filmy. YouTube ostatnio 6k testował, gdzieś mieli też film w pełnym 360"
3D :P Żeby to mi płynnie ruszyło to musiałbym chyba Xeona E5-2670v3 mieć.


Pisałem o ''normalnych'' filmach w jakości Bluray :)

Dnia 28.07.2015 o 21:17, ziptofaf napisał:

Jak się poszuka to się znajdzie - Xigmatek Nebula jest bardzo ładny moim zdaniem :P


Zasilacz niefajnie umiejscowiony, marnotrawstwo przestrzeni. Ale fakt, jest bardzi ładna :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 21:49, KannX napisał:

Ech niezbyt rozumiem. To będzie miało obsługę DDR4 + własna pamięc HBM2?

Nie ma w tym nic niezwykłego - Iris Pro ma już 128MB własnej pamięci, resztę dobiera z RAM''u. Logicznym następstwem jest pamięć w pełni dedykowana w układzie graficznym. Wsadzić z 1-2GB i tyle.

Dnia 28.07.2015 o 21:49, KannX napisał:

Pisałem o ''normalnych'' filmach w jakości Bluray :)

Do tego to nie potrzebujesz Irisa :P Nawet iGPU w Pentiumie G ładnie sobie radzi z blurayami.

Dnia 28.07.2015 o 21:49, KannX napisał:

Zasilacz niefajnie umiejscowiony, marnotrawstwo przestrzeni. Ale fakt, jest bardzo ładna
:)

Ja tam lubię szczyptę marnotrawstwa przestrzeni. Wciąż pamiętam jak wciskałem podzespoły do swojej Q50... MiniITX ma sporo zalet ale składanie kompa to piekło :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 23:14, Hommicide napisał:

najlepiej brać Cruciala 250GB, czy może jest on gorszego wykonania niż Kingston?


Prędzej na odwrót - Kingston produkuje jedne z najgorszych SSDków i ma naprawdę sporo wtop. BX100 zaś jest jednym z najczęściej polecanych modeli w segmencie budżetowym.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Myślałem, że skoro Crucial jest tańszy i na dodatek ma nieco wolniejsze transfery, to haczyk tkwi w wykonaniu, albo czymś innym. Ale skoro nic takiego nie ma, to dzięki za informację, biorę cruciala bez zastanowienia.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2015 o 23:33, Hommicide napisał:

Myślałem, że skoro Crucial jest tańszy i na dodatek ma nieco wolniejsze transfery

Że co proszę? :P
To jest antyczny już V300, realne prędkości tutaj:
http://pclab.pl/art53970-30.html
519 MB/s odczytu i 268MB/s zapisu. I okolice 40-60k operacji na sekundę.
BX100:
http://pclab.pl/art61668.html
528 MB/s odczytu, 324 MB/s zapisu, powyżej 70000 operacji na sekundę :P

W przypadku dysków SSD pierwszym "parametrem" na jaki wypada zwracać uwagę jest data produkcji. Dyski SSD z 2015 roku miażdżą produkty z 2013.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się