Zaloguj się, aby obserwować  
Gram.pl

Far Cry 4 - znamy wymagania sprzętowe w wersji na PC

34 postów w tym temacie

Dnia 05.11.2014 o 18:05, vegost napisał:

Trochę tak, ale taki sprzęt był sprzedawany już wcześniej w częściach.

Nie był i nie będzie.

To, że jest tam x86 i Radeon nie oznacza, że te części odpowiadają PCtowym.

Besides, FC4 to cross-gen, na innym silniku, bez takiej ilości NPCów na ekranie i ze znacznie mniejszym światem. Jak to mówią, jabłka i pomarańcze.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach


> To, że jest tam x86 i Radeon nie oznacza, że te części odpowiadają PCtowym.
>

Co nie zmienia faktu, że są oparte na nie najnowszej już technologii, a w dodatku technologii która nigdy nie była wymierzona w high-end. Zresztą pod względem wydajności możemy swobodnie porównywać konsole z konfiguracjami PC.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

A ja mam pytanie z innej beczki - pośrednio związane z tematem - kupilem karte graficzną (będzie u mnie jutro), do której dodadzą kod na jedną z gier Ubi - zamierzam go wykorzystać by zdobyć Far Cry 4. I tu nie wiem - czy gry dodawane zwykle do kart są w wersji polskiej, czy tylko "in inglish"? Bo na stronie Ubi nie widzę, żeby była taka adnotacja przy produkcie właściwym. Kupuję w polskim sklepie. Ktoś już tak zdobył grę (jako kod promocyjny ze sprzętem)? Czy będę mógł wybrać rodzimą wersję językową?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 06.11.2014 o 18:36, fenr1r napisał:

Co nie zmienia faktu, że są oparte na nie najnowszej już technologii, a w
dodatku technologii

Nie najnowszej? W momencie premiery nic nowszego niż Jaguary i GCN nie było na rynku. APU W obu konsolach to najwygodniejsze APU zrobione przez AMD. A zunifikowana przestrzeń adresowa w PC jeszcze długo nie będzie standardem.

Dnia 06.11.2014 o 18:36, fenr1r napisał:

która nigdy nie była wymierzona w high-end.

High end jest drogi i bierze masakrycznie dużo prądu. GPU biorące po 250W nie są dla konsol. Pamiętasz padające PS3/X360? No właśnie.

Dnia 06.11.2014 o 18:36, fenr1r napisał:

Zresztą pod względem wydajności możemy swobodnie
porównywać konsole z konfiguracjami PC.

Co nie oznacza, że konsole są zacofane technologicznie, bo nie są. Prosty przykład: laptopowy GeForce 670m jest wydajniejszy od 660m, ale to ten drugi jest w nowszej architekturze niż pierwszy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 06.11.2014 o 21:25, Henrar napisał:

Nie najnowszej? W momencie premiery nic nowszego niż Jaguary i GCN nie było na rynku.
APU W obu konsolach to najwygodniejsze APU zrobione przez AMD.


Zgoda, gdyby tylko AMD nie miało konkurencji. Nie znam się na tym za bardzo, ale jak dotąd niewiele wynika z HSA, a pod względem wydajności energetycznej i mocy jednego rdzenia produkty AMD nie są w tej chwili w czołówce. Jedyne co ratuje układy czerwonych to stosunkowo wysokie taktowanie, oraz wykorzystanie wszystkich rdzeni w aplikacjach.

Dnia 06.11.2014 o 21:25, Henrar napisał:

A zunifikowana przestrzeń
adresowa w PC jeszcze długo nie będzie standardem.


Może to i lepiej patrząc na wydajność APU względem produktów Intela.

Dnia 06.11.2014 o 21:25, Henrar napisał:

High end jest drogi i bierze masakrycznie dużo prądu. GPU biorące po 250W nie są dla
konsol. Pamiętasz padające PS3/X360? No właśnie.


Z tego co pamiętam to w momencie premiery PS2 na rynku nie było nic co oferowałoby podobną wydajność w grach. PS3 i Xbox360 celowały w high end.

Dnia 06.11.2014 o 21:25, Henrar napisał:

Co nie oznacza, że konsole są zacofane technologicznie, bo nie są. Prosty przykład: laptopowy
GeForce 670m jest wydajniejszy od 660m, ale to ten drugi jest w nowszej architekturze
niż pierwszy.


Tego nie twierdzę, natomiast obawiam się, że przepaść w wydajności pomiędzy konsolami a PC może zwiększyć się bardzo szybko w najbliższych latach, o ile HSA faktycznie nie przełoży się na znaczny wzrost wydajności. Wydaje mi się jednak, że to nie nastąpi a uwierz mi bardzo bym tego chciał ze względu na pozytywne skutki dla rynku PC.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 07.11.2014 o 11:24, fenr1r napisał:

Zgoda, gdyby tylko AMD nie miało konkurencji. Nie znam się na tym za bardzo, ale jak
dotąd niewiele wynika z HSA, a pod względem wydajności energetycznej i mocy jednego rdzenia
produkty AMD nie są w tej chwili w czołówce.

Moc jednego rdzenia już dawno powinna przestać mieć znaczenie. I w przypadku konsol już dawno przestała mieć. Jeszcze na PC programiści ratują się zwaleniem wszystkiego na jeden rdzeń (Ubisoft Kiev).

Dnia 07.11.2014 o 11:24, fenr1r napisał:

Jedyne co ratuje układy czerwonych to stosunkowo
wysokie taktowanie, oraz wykorzystanie wszystkich rdzeni w aplikacjach.

To nic nie znaczy, w sensie - nie oznacza to, że słaby wątek oznacza "nieświeżą" technologię.
A tak poza tym, AMD w konsolach nie miało ŻADNEJ konkurencji. IBM "sprzedało" (czyt. zapłaciło) za ich dział półprzewodników, bo nikt nie chciał tego kupić. Intel ma za słabe GPU w procesorach i dodatkowo swoich układów do konsol nie daje. nVidii nikt nie chciał po pierwszym Xboksie i PS3 i dodatkowo nie mają oni procesora w wydajnej architekturze - ARM jest po prostu za słaby.

Dnia 07.11.2014 o 11:24, fenr1r napisał:

Może to i lepiej patrząc na wydajność APU względem produktów Intela.

A co to ma do rzeczy? Zunifikowana przestrzeń adresowa ma się nijak do wydajności procesora. To ułatwienie dla programistów i dla producentów elektroniki, bo nie ma dwóch oddzielnych banków pamięci (w przykładzie komunikacji CPU-GPU), jest jeden. Nie ma dodatkowych połączeń, nie ma dodatkowych operacji kopiowania między pamięciami.

Dnia 07.11.2014 o 11:24, fenr1r napisał:

Z tego co pamiętam to w momencie premiery PS2 na rynku nie było nic co oferowałoby podobną
wydajność w grach. PS3 i Xbox360 celowały w high end.

Bo high-end wtedy nie miał takiego poboru mocy. Poza tym, zarówno PS3 jak i X360 miały masakrycznie mało RAMu, ich GPU też raczej nie grzeszyły wydajnością w porównaniu do PCtowych układów, które już wtedy były na rynku. A PS2? Na PS2 w okolicach premiery grało się w rozdzielczości 640x480 (albo niższej, bo zmniejszanie rozdzielczości renderowania to trik tak stary, jak konsole) w FFX czy MGS2 a na PC można było odpalić sobie Shoguna w 1600x1200, który był o wiele bardziej skomplikowaną grą niż cokolwiek co na PS2 się pojawiło.
A to celowanie w high-end w przypadku PS3/X360 skończyło się padającymi konsolami, miliardami dolarów strat i podobnymi problemami.

Dnia 07.11.2014 o 11:24, fenr1r napisał:

Tego nie twierdzę, natomiast obawiam się, że przepaść w wydajności pomiędzy konsolami
a PC może zwiększyć się bardzo szybko w najbliższych latach, o ile HSA faktycznie nie
przełoży się na znaczny wzrost wydajności. Wydaje mi się jednak, że to nie nastąpi a
uwierz mi bardzo bym tego chciał ze względu na pozytywne skutki dla rynku PC.

W czasach końca poprzedniej generacji różnica była o wiele większa niż jest teraz. O wiele, wiele większa.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Żenada. Wisi ten news na głównej, błąd był zgłoszony na samym początku przeze mnie i Kamila950 i nikt się nie zainteresował. Profesjonalizm pełną gębą.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 07.11.2014 o 11:49, Henrar napisał:

Moc jednego rdzenia już dawno powinna przestać mieć znaczenie. I w przypadku konsol już
dawno przestała mieć. Jeszcze na PC programiści ratują się zwaleniem wszystkiego na jeden
rdzeń (Ubisoft Kiev).


Tak się składa, że najbardziej wydajnymi układami w grach obecnie są Intelowskie i5 i i7 (nie wliczając Xeona) a nie A10 od AMD. Zresztą trudno mi uwierzyć w Twoje stwierdzenie, bo np. taki 2-rdzeniowy Atom okazywał się bardziej wydajny od 4-rdzeniowych ARMów.

Dnia 07.11.2014 o 11:49, Henrar napisał:

To nic nie znaczy, w sensie - nie oznacza to, że słaby wątek oznacza "nieświeżą" technologię.
A tak poza tym, AMD w konsolach nie miało ŻADNEJ konkurencji. IBM "sprzedało" (czyt.
zapłaciło) za ich dział półprzewodników, bo nikt nie chciał tego kupić. Intel ma za słabe
GPU w procesorach i dodatkowo swoich układów do konsol nie daje. nVidii nikt nie chciał
po pierwszym Xboksie i PS3 i dodatkowo nie mają oni procesora w wydajnej architekturze
- ARM jest po prostu za słaby.


Czy byłoby by takie dziwne, gdyby MS albo Sony zmontowało konsole na podstawie technologii udostępnionej przez Intel i Nvidia? Widzę korzyści wynikające z pozycji AMD, ale nie zmienia to faktu, że ani wtedy ani teraz nie są liderem w dziedzinie projektowania i produkcji procesorów.

Dnia 07.11.2014 o 11:49, Henrar napisał:

A co to ma do rzeczy? Zunifikowana przestrzeń adresowa ma się nijak do wydajności procesora.
To ułatwienie dla programistów i dla producentów elektroniki, bo nie ma dwóch oddzielnych
banków pamięci (w przykładzie komunikacji CPU-GPU), jest jeden. Nie ma dodatkowych połączeń,
nie ma dodatkowych operacji kopiowania między pamięciami.


Super, tylko co z tego ma wynikać dla mnie jako konsumenta?

Dnia 07.11.2014 o 11:49, Henrar napisał:

> Z tego co pamiętam to w momencie premiery PS2 na rynku nie było nic co oferowałoby
podobną
> wydajność w grach. PS3 i Xbox360 celowały w high end.
Bo high-end wtedy nie miał takiego poboru mocy. Poza tym, zarówno PS3 jak i X360 miały
masakrycznie mało RAMu, ich GPU też raczej nie grzeszyły wydajnością w porównaniu do
PCtowych układów, które już wtedy były na rynku. A PS2? Na PS2 w okolicach premiery grało
się w rozdzielczości 640x480 (albo niższej, bo zmniejszanie rozdzielczości renderowania
to trik tak stary, jak konsole) w FFX czy MGS2 a na PC można było odpalić sobie Shoguna
w 1600x1200, który był o wiele bardziej skomplikowaną grą niż cokolwiek co na PS2 się
pojawiło.
A to celowanie w high-end w przypadku PS3/X360 skończyło się padającymi konsolami, miliardami
dolarów strat i podobnymi problemami.


W przypadku PS2 grubo się pomyliłem.

Dnia 07.11.2014 o 11:49, Henrar napisał:

W czasach końca poprzedniej generacji różnica była o wiele większa niż jest teraz. O
wiele, wiele większa.


Nie wyobrażam sobie jak będzie wyglądać różnica między PC a obecną generacją za 5-6 lat, bo chyba w tym kontekście należy na to patrzeć. Już teraz mamy obsługę standardu DDR4, procki w 14nm, a Intel zapowiedział zejście do 10nm w architekturze Skylake.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 11.11.2014 o 20:58, fenr1r napisał:

Tak się składa, że najbardziej wydajnymi układami w grach obecnie są Intelowskie i5 i
i7 (nie wliczając Xeona) a nie A10 od AMD. Zresztą trudno mi uwierzyć w Twoje stwierdzenie,
bo np. taki 2-rdzeniowy Atom okazywał się bardziej wydajny od 4-rdzeniowych ARMów.

Bo tak jest robiony do tej pory software. Nowe instrukcje, więcej rdzeni - to wszystko musi być wykorzystane. Reszta to czysty brute-force.

Dnia 11.11.2014 o 20:58, fenr1r napisał:

Czy byłoby by takie dziwne, gdyby MS albo Sony zmontowało konsole na podstawie technologii
udostępnionej przez Intel i Nvidia? Widzę korzyści wynikające z pozycji AMD, ale nie
zmienia to faktu, że ani wtedy ani teraz nie są liderem w dziedzinie projektowania i
produkcji procesorów.

Intel nie sprzedaje układów do konsol od czasu pierwszego Xboksa. Z nVidią w swoim czasie były same problemy. Sony przez nVidię do tej pory nie produkuje PS3 w mniejszej niż 45nm litografii. Dodaj do tego fakt, że dwa osobne układy (od Intela i nVidii) oznaczają dodatkowe skomplikowanie płyty głównej (połączenia, prawdopodobnie też dwie osobne pule pamięci dla CPU i GPU), dodatkowe skomplikowanie układu chłodzenia, itp. AMD miało gotowe rozwiązanie, byli najlepsi w tych aspektach, które twórcy konsol poszukiwali.

Dnia 11.11.2014 o 20:58, fenr1r napisał:

Super, tylko co z tego ma wynikać dla mnie jako konsumenta?

Tańsza elektronika, gry powstające szybciej i z mniejszą liczbą błędów, bo kod jest mniej skomplikowany niż wcześniej.

Dnia 11.11.2014 o 20:58, fenr1r napisał:

Nie wyobrażam sobie jak będzie wyglądać różnica między PC a obecną generacją za 5-6 lat,
bo chyba w tym kontekście należy na to patrzeć. Już teraz mamy obsługę standardu DDR4,
procki w 14nm, a Intel zapowiedział zejście do 10nm w architekturze Skylake.

Gdzie masz te procki w 14nm? Intel ma na razie z nimi same problemy, ich koszt jest masakrycznie wysoki. DDR4? Przepustowość pamięci w obu konsolach jest szybsza niż ten standard.
Zresztą - ta przepaść to w tej branży nic nowego. Tak było wcześniej, tak będzie i teraz.

Zresztą, idąc tokiem twojego rozumowania - te wszystkie Skylake''i ktoś musi wykorzystać. W grach i tak wiele wydajniejsze od jakiegoś 2600k nie będą, bo gry nie korzystają z nowych instrukcji wprowadzanych przez te procesory.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 11.11.2014 o 21:29, Henrar napisał:


Bo tak jest robiony do tej pory software. Nowe instrukcje, więcej rdzeni - to wszystko
musi być wykorzystane. Reszta to czysty brute-force.


Zobaczymy, ale jak do tej pory tego nie widać. 8-rdzeniowy A10 wypada w porównaniach gorzej niż 2-rdzeniowy i3, a Haswell-E deklasuje wszystko co AMD ma w ofercie. Co więcej, 8-rdzeniowy FX-9590 wypada gorzej od 4-rdzeniowych i5.

Dnia 11.11.2014 o 21:29, Henrar napisał:

Gdzie masz te procki w 14nm? Intel ma na razie z nimi same problemy, ich koszt jest masakrycznie
wysoki.


Broadwell już trafił do producentów, a pierwsze produkty z tym procesorem mają być dostępne w sprzedaży do końca roku.

Dnia 11.11.2014 o 21:29, Henrar napisał:

Zresztą, idąc tokiem twojego rozumowania - te wszystkie Skylake''i ktoś musi wykorzystać.
W grach i tak wiele wydajniejsze od jakiegoś 2600k nie będą, bo gry nie korzystają z
nowych instrukcji wprowadzanych przez te procesory.


Zobaczymy, np. w Crysis 3 Haswelle potrafią być wydajniejsze od 2600k o 10 FPS, a Haswell-E o ponad 20. Mało, dużo? Trudno ocenić, wydajność jest jednak większa.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować