Zaloguj się, aby obserwować  
RobeN

Kart Graficznych Kącik (informacje, porównania)

30553 postów w tym temacie

Dnia 26.09.2014 o 15:11, ziptofaf napisał:

> /.../ Fakt że to zastosowania profesjonalne
ale gry kiedyś też dobiją do tego progu.
/.../

Tak, na pewno dobiją, ale wtedy każdy (no, powiedzmy co drugi) będzie miał monitor 4k. Bo jeśli teraz ktoś byłby na tyle szalony, żeby wypuścić grę tak wymagającą, to mógłby to zrobić raz. Najdalej po dwóch zostałby bankrutem. Tak, jak ja to widzę, nie powinno być gry, która zajechałaby komputer z Core i7 i grafiką , której nie podoła GTX 770. A jeśli jest taka gra, no to po co ją kupować? Dla mnie bezsens i będę głosował portfelem za wyeliminowaniem takich produkcji.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Witam,
własnie zmieniam kompa, na razie karta graficzna zostaje po straremu (cała platforma świezutka, oparta o Intela i mobo z Z97). Przeinstalowuję Windowsa 7 64bit...
pytanie jest nastepujące: mam GF9800GT 512MB od ASUSa, jaka będzie najlepsza wejrsja sterowników (oraz ewentualnie aplikacja do podkręcania jesli oddzielnie).
Nie zawsze te najnowsze są najlepsze...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

9800gt to karta oparta o 6 letni układ. nVidiia już kilka lat temu przestała zmieniać sterownik obsługujący ten chip. Prawdopodobnie dowolna wersja z ostatnich 3-4 a może więcej lat będzie działać identycznie, więc nie ma powodu, żeby instalować coś innego niż najnowszy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.09.2014 o 21:05, bVarador napisał:

(...) Prawdopodobnie dowolna wersja z ostatnich 3-4 a może
więcej lat będzie działać identycznie, więc nie ma powodu, żeby instalować coś innego
niż najnowszy.


So be it!

Więc ściągam ostatnią stabilną wersję oficjalnych sterów Nvidi :)

THX

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Crysis, pierwszy Unreal, Doom 3. Te gry łączyło jedno - w dniu premiery na maksymalnych detalach mogło sobie pozwolić naprawdę niewielkie grono graczy. O to chodzi w tzw. "future proofing".

W grach na PC nie chodzi o to, by każdy mógł grać na maksymalnych detalach w dniu premiery. Od tego jest suwak detali, by sobie je ustawić pod swój sprzęt. Jak będziesz miał mocny komputer, to pograsz na wyższych za parę lat. Nie o to chodziło wszystkim, którzy mówili, żeby gry PCtowe przestały być ograniczane przez konsole? To jest postęp a on kosztuje.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.09.2014 o 21:03, Henrar napisał:

Crysis, pierwszy Unreal, Doom 3. Te gry łączyło jedno - w dniu premiery na maksymalnych
detalach mogło sobie pozwolić naprawdę niewielkie grono graczy. O to chodzi w tzw. "future
proofing".
/.../

Wszystko to prawda, ale w rozdzielczości monitorów mamy zastój - 1920x1080, bo taki mamy standard telewizyjny. Monitory o wyższej rozdzielczości to rzadkość, a monitory 4k dopiero za kilka lat staną się powszechne - tak jak teraz te 1920x1080. A jakie cuda graficzne można wymyśleć dla tej jednej rozdzielczości? Wiedźmin 2 ma piękną grafikę, lepszej nie potrzeba, a GTX 460 daje sobie swobodnie radę i to z procesorem Core 2 Duo 3,0. Chyba, że optymalizacja danej gry jest niechlujna, to wymagania sprzętowe rosną w postępie geometrycznym. Ale takie gry olewam, bo nie będę płacił za niedokończony produkt. Do monitorów 4k dzisiejsze procesory i dzisiejsze karty graficzne są nieco za słabe, chociaż przy bardzo dobrej optymalizacji już teraz dałoby się grać w pełnej rozdzielczości. A jeśli się nie da - to zawsze można obniżyć wymagania i grać.
Dwurdzeniowe procesory ma mniej więcej połowa graczy, karty graficzne, wcale nie najmocniejsze, rzędu GTX 760-770 ma też połowa i jeśli im gra nie pójdzie, to wydawca na nich nie zarobi tyle, ile by zarobił optymalizując grę. Paru wydawców już się na tym przejechało. A konkurencja w branży gier jest dość ostra.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 27.09.2014 o 21:03, Henrar napisał:


W grach na PC nie chodzi o to, by każdy mógł grać na maksymalnych detalach w dniu premiery.
Od tego jest suwak detali, by sobie je ustawić pod swój sprzęt. Jak będziesz miał mocny
komputer, to pograsz na wyższych za parę lat.


Ok, ale jak pisze ziptofaf, te 6GB Vram to zbyt wiele na pojedynczą kartę graficzną i tu trzeba dwóch GTX 780 lub nowych 980, a tego nawet za x lat nie będzie posiadać nawet 5% dzisiejszych graczy, więc wątpię w to, że za parę lat pogramy na full - chyba, że nastąpi drastyczny skok wydajności w pojedynczych kartach, ale to musiałoby się chyba wiązać z nową technologią produkcji.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.09.2014 o 22:38, lis_23 napisał:

Ok, ale jak pisze ziptofaf, te 6GB Vram to zbyt wiele na pojedynczą kartę graficzną
i tu trzeba dwóch GTX 780 lub nowych 980, a tego nawet za x lat nie będzie posiadać nawet
5% dzisiejszych graczy, więc wątpię w to, że za parę lat pogramy na full - chyba, że
nastąpi drastyczny skok wydajności w pojedynczych kartach, ale to musiałoby się chyba
wiązać z nową technologią produkcji.


Ależ w tym akurat nie będzie nic niezwykłego. GTX970 za 1400 zł wyprzedza GTX780Ti, kartę do niedawna kosztującą 2300. Za dwie generacje zobaczysz że prawdopodobnie standardem w kompie do grania będą sześciordzeniowce w technologii następującej Skylake, średnia wydajność GPU też powinna się poprawić przynajmniej dwukrotnie. Metro 2033 w momencie premiery ścinało na wszystkim włącznie z konfiguracjami z 2-3 GPU a teraz taki R9 280X starcza w nim do max. detali ze wszystkimi bajerami.

Podobnie GTX 980 jest o ponad 100% szybszy w niektórych tytułach od GTX680, zwłaszcza w rozdzielczościach powyżej FullHD. Ot, za 3 lata raczej nie będzie nic niezwykłego w pojedynczej karcie wyprzedzającej podwójnego GTX980. A w przypadku mid-endu znajdzie się karta przynajmniej dorównująca takiej 980tce wydajnością.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.09.2014 o 22:38, lis_23 napisał:

Ok, ale jak pisze ziptofaf, te 6GB Vram to zbyt wiele na pojedynczą kartę graficzną
i tu trzeba dwóch GTX 780 lub nowych 980, a tego nawet za x lat nie będzie posiadać nawet
5% dzisiejszych graczy, więc wątpię w to, że za parę lat pogramy na full - chyba, że
nastąpi drastyczny skok wydajności w pojedynczych kartach, ale to musiałoby się chyba
wiązać z nową technologią produkcji.


W zdecydowaną większość współczesnych gier da się grać komfortowo nawet na kartach, które 3 lata temu były średnią lub średnią-niższą półką.
A komfortowo dla mnie to znaczy rozdzielczość FHD i przynajmniej średnie ustawienia graficzne. Trzeba tylko wiedzieć jakie efekty wyłączać, żeby obniżyć wymagania z jak najmniejszą szkodą dla jakości grafiki. Bo nie mam wątpliwości, że niektóre gry przy w włączonych na maksa wszystkich efektach potrafiłyby zagiąć każdą kartę graficzną dostępną na rynku :D
Za 2 lata średnia połka będzie mocniejsza niż obecnie najmocniejsze karty graficzne, to jest nieuniknione :D
Tegoroczny GTX970 przebija GTX780 Ti, a kosztuje zdecydowanie mniej.
Za 3 lata pewnie z połowa graczy będzie posiadała karty graficzne wydajniejsze niż GTX780 :D

EDIT: ziptofaf , chyba mamy podobne spostrzeżenia :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Nie jestem aż takim optymistą ...
pamiętajmy, że wielu graczy siedzi jeszcze na monitorach z " dupą " i gra w rozdzielczości 1280x1080 ( sam w FHD gram od czterech lat ) a wielu z nich ma jeszcze win XP. Technologia rozwija się trochę zbyt szybko jak dla mnie, gdy FHD nie jest jeszcze standardem dla wszystkich to już się myśli o 4K UHD.
Mam jednak nadzieję, że będzie tak jak piszecie, i że pojedyncze karty graficzne będą coraz mocniejsze i coraz tańsze. Ja teraz nie wiem, kiedy zmienię sprzęt, pytałem w sierpniu, czy warto zmienić płytę główną, procek i pamięć, ziptofaf stwierdził, że nie, więc wpakowałem wszystko w PS4 ( konsola, drugi pad, PS+ i cztery gry ) i gram z siostrą w DIII. ;)

pawbuk, przydałby się taki poradnik na forum, które opcje graficzne można wyłączyć bez szkody dla jakości oprawy graficznej.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

Wszystko to prawda, ale w rozdzielczości monitorów mamy zastój - 1920x1080, bo taki mamy
standard telewizyjny. Monitory o wyższej rozdzielczości to rzadkość, a monitory 4k dopiero
za kilka lat staną się powszechne - tak jak teraz te 1920x1080. A jakie cuda graficzne
można wymyśleć dla tej jednej rozdzielczości?

Można bardzo dużo. Do fotorealizmu brakuje nam naprawdę wiele. Zresztą nie chodzi tu tylko o grafikę pod postacią tesktur. Chodzi jeszcze o efekty, animacje, liczba poligonów, fizyka (liczona na GPU, bo procesory do tego są słabe), zwiększenie LoD ( http://pl.wikipedia.org/wiki/Level_of_detail) i inne. Można wymieniać godzinami.

Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

Wiedźmin 2 ma piękną grafikę,

Owszem, ma. Ale jednocześnie może mieć lepszą (choćby ten nieszczęsny LoD).

Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

lepszej nie potrzeba,

To słyszę co kilka lat i jest to bzdura.

Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

a GTX 460 daje sobie swobodnie radę i to z procesorem Core 2 Duo 3,0. Chyba,
że optymalizacja danej gry jest niechlujna, to wymagania sprzętowe rosną w postępie geometrycznym.

http://www.neogaf.com/forum/showthread.php?t=885444
Twórca DSFix - to jego opinia na ten temat. W wielkim skrócie - ocenianie optymalizacji biorąc pod uwagę tylko maksymalne detale to głupota. Od tego są maksymalne detale, by obciążać sprzęt w największy możliwy sposób. To, że ktoś kupił grzałę za 3 kafle nie oznacza, że twórcy przez dwa lata będą robić gry tak, by gracz z takim GPU mógł grać przez ten czas na Ultra.

Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

Ale takie gry olewam, bo nie będę płacił za niedokończony produkt.

Patrz wyżej. I przeczytaj moje komentarze - po to są suwaki detali na PC, by je ustawiać. Skoro duża część ludzi narzeka na jakieś ograniczenia gier, to teraz ma pokaz tego, co się dzieje, gdy twórcy nie mają takowych ograniczeń. Czyli delikatny powrót do końca lat 90 ubiegłego wieku. Tam też high-endowa karta nie gwarantowała, że pograsz we wszystko na max. I ludzie jakoś nie narzekali.
I w ogóle, skąd w ogóle opinia, że jak gra nie chodzi na Twoim sprzęcie na maks, to znaczy, że jest niedokończona/niezoptymalizowana? Zauważyłem, że ostatnio duża część graczy PCtowych ma takie podejście. Chyba ostatnie parę lat za bardzo ich rozpieściło.

Dnia 27.09.2014 o 21:26, KrzysztofMarek napisał:

Do monitorów 4k dzisiejsze
procesory i dzisiejsze karty graficzne są nieco za słabe, chociaż przy bardzo dobrej
optymalizacji już teraz dałoby się grać w pełnej rozdzielczości. A jeśli się nie da -
to zawsze można obniżyć wymagania i grać.
Dwurdzeniowe procesory ma mniej więcej połowa graczy, karty graficzne, wcale nie najmocniejsze,
rzędu GTX 760-770 ma też połowa i jeśli im gra nie pójdzie, to wydawca na nich nie zarobi
tyle, ile by zarobił optymalizując grę. Paru wydawców już się na tym przejechało. A konkurencja
w branży gier jest dość ostra.

Ale kto powiedział, że im nie pójdzie dana gra? 6GB VRAMu w Shadow of Mordor to wymagania na Ultra a nie minimalne. Masz słabszy komputer? Przesuwasz suwak detali w lewo. To samo Evil Within (wytłumaczenie, dlaczego gra zużywa tyle RAMu napisałem w temacie o wymaganiach gry - po krótce: id Tech 5 tak jest skonstruowany, że pożre cały VRAM, jaki masz na karcie - i będziesz miał płynniejszy streaming tekstur i lepsze ich detale).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 11:23, Henrar napisał:

Twórca DSFix - to jego opinia na ten temat. W wielkim skrócie - ocenianie optymalizacji
biorąc pod uwagę tylko maksymalne detale to głupota. Od tego są maksymalne detale, by
obciążać sprzęt w największy możliwy sposób. To, że ktoś kupił grzałę za 3 kafle nie
oznacza, że twórcy przez dwa lata będą robić gry tak, by gracz z takim GPU mógł grać
przez ten czas na Ultra.

Raczej czym jest "optymalizacja" i czym jest "ultra".

Dnia 28.09.2014 o 11:23, Henrar napisał:

Patrz wyżej. I przeczytaj moje komentarze - po to są suwaki detali na PC, by je ustawiać.
Skoro duża część ludzi narzeka na jakieś ograniczenia gier, to teraz ma pokaz tego, co
się dzieje, gdy twórcy nie mają takowych ograniczeń. Czyli delikatny powrót do końca
lat 90 ubiegłego wieku. Tam też high-endowa karta nie gwarantowała, że pograsz we wszystko
na max. I ludzie jakoś nie narzekali.

Zaczęli narzekać wraz z pojawieniem się Doom''a 3 i HL2. Crysis 1 trochę doprawił (w końcu na niższych detalach wygląda niczego sobie i na słabszym sprzęcie da sie grać; ale każdy pamięta Ultra i 8800 GTX).
HL 2 stał się tym przykładem dobrej optymalizacji, a D3 tym nie. Wszystko sprowadzając do tego czy chodzi jakoś na złomie z padacznym GeForce 2/4 MX. Zamiast do tego co ja mam i za ile "flopsów". [co stoi za low, medium, high, v.high, ultra].

Odnosząc się do cytatu Durante.
"Of course, gamers are not to blame for this exclusively. Review sites got into the habit of benchmarking only "max" settings, especially during the latter part of the PS360 generation, simply because GPUs wouldn''t be challenged at all in the vast majority of games otherwise.".

IMHO problem wynika w tym co ja oceniam przez "benchmark".
Dzisiaj bardziej testuje się karty i procki niżeli ustawienia samych gier.
Czyli co potrzeba do grania w Ultra/high przy FHD/2k+/4k. Ale nie przywiązuje się uwagi dlaczego gra sama w sobie ciągnie sama z siebie.

Z jednej strony ja rozumiem, że wygląd=wymagania sprzętowe. Ale co ja właściwie porównuję zmieniając detale z Ultra na High i odwrotnie? Niby porównam jaki jest spadek fps z kolejnymi detalami. Niby zrobi mi screeny i teoretycznie pokaże mi jakieś różnice w grafice i fpsie.
Ale jak się ma to samo w sobie ma to samej do oceny "optymalizacji" i oceny tego co dostaje za kolejne zajęte "flopsy"? Jak dla mnie zmiana ustawień benchmarka przez recenzentów nie zmieni specjalnie nic (szczególnie, że u nas jeszcze testują w High). Bo problem leży gdzie indziej.

Dajmy na to przykładowo jak w Crysis 2 zaimplementowana jest teselacja, dlaczego DA 2 tak ssie w DX11,jakie są w istocie i różnice miedzy High i V.High w Crysis 1, albo dlaczego Watch_Dogs ma takie dropy fps. No dlaczego Saint's Row 2 chodzi jak wygląda ;p
Prosty benchmark na to mi nie odpowie, bo odpowie mi tylko "kup sobie lepszy komputer" ;p

http://techreport.com/review/21404/crysis-2-tessellation-too-much-of-a-good-thing/2

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 15:09, Zgreed66 napisał:

> /.../> Z jednej strony ja rozumiem, że wygląd=wymagania sprzętowe. /.../

Zgoda, ale tylko do pewnej granicy. Ta granicą jest obsłużenie 2073600 pikseli 30 razy na sekundę. Bo czy na monitorze wyświetli się 30 klatek na sekundę, czy 300, tego już nie jesteśmy w stanie zauważyć, a ilość szczegółów, jaka można wyświetlić na ekranie, też zamyka się w liczbie pikseli, która standardowo zamyka się w liczbie (1920x1080) 2073600. Zatem mamy jasną granicę, do której współczesne komputery doszły i której przekraczanie nic nie daje. Następnym etapem będzie zapewne obsłużenie monitorów 4k, ale tam też osiągnie się granicę, której przekroczenie będzie sztuką dla sztuki.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 16:17, KrzysztofMarek napisał:

Zgoda, ale tylko do pewnej granicy. Ta granicą jest obsłużenie 2073600 pikseli 30 razy
na sekundę. Bo czy na monitorze wyświetli się 30 klatek na sekundę, czy 300, tego już
nie jesteśmy w stanie zauważyć,

Jak najbardziej się da. To, że oko widzi maksymalnie 30 klatek na sekundę to mit.

Dnia 28.09.2014 o 16:17, KrzysztofMarek napisał:

a ilość szczegółów, jaka można wyświetlić na ekranie,
też zamyka się w liczbie pikseli, która standardowo zamyka się w liczbie (1920x1080)
2073600. Zatem mamy jasną granicę, do której współczesne komputery doszły i której przekraczanie
nic nie daje. Następnym etapem będzie zapewne obsłużenie monitorów 4k, ale tam też osiągnie
się granicę, której przekroczenie będzie sztuką dla sztuki.

Jak najbardziej zwiększenie szczegółów przy FullHD nam da nowe efekty widoczne gołym okiem. Prosty przykład:
http://i.imgur.com/raTPz.jpg - Half Life Episode Two z 2007 roku w rozdzielczości FullHD.
http://www.dsogaming.com/wp-content/uploads/2013/03/crysis3_2013_03_01_00_29_52_857.jpg - Crysis 3
Obie gry są w FullHD. Przeskok między obiema grami - ogromny. I może być jeszcze lepiej, co pokazuje chociażby Ryse. Rozdzielczość jest niewielkim wyznacznikiem jakości grafiki.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 16:37, Henrar napisał:

> /.../. Rozdzielczość jest niewielkim wyznacznikiem jakości grafiki.

Cokolwiek byś nie robił i tak nie pokażesz więcej szczegółów, niż pozwala na to rozdzielczość. Jeśli chcesz pokazać siatkę, to maksymalnie będzie miała 960x540 linii. Ani jedną więcej, zarówno w pionie, jak i poziomie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 16:49, KrzysztofMarek napisał:

> > /.../. Rozdzielczość jest niewielkim wyznacznikiem jakości grafiki.
Cokolwiek byś nie robił i tak nie pokażesz więcej szczegółów, niż pozwala na to rozdzielczość.
Jeśli chcesz pokazać siatkę, to maksymalnie będzie miała 960x540 linii. Ani jedną więcej,
zarówno w pionie, jak i poziomie.


Gdyby to były płaskie obrazy 2D bym się z tobą zgodził, ale karta graficzna najpierw musi obrobić całą scenę w trzech wymiarach. Określić położenie wszystkich elementów względem siebie w dowolnej odległości (ograniczonej ścianami, końcem planszy itp). Określić które z tych elementów są widoczne, a które nie nałożyć na nie tekstury, dodać efekty oświetlenia i cieni, w przypadku elementów półprzezroczystych załamujących światło dodać odpowiednie zniekształcenia. Dopiero tak przygotowaną scenę przełożyć na dwuwymiarowy obraz wyświetlany na monitorze w zadanej rozdzielczości. Fakt że nie zwiększysz liczby pikseli nie znaczy że scena nie może być bardziej szczegółowa, możesz dodać więcej liści na drzewach jako generowane elementy 3D, więcej ździebeł trawy zamiast ich skupisk, bardziej uszczegółowić fakturę ścian. Poza tym jeszcze krawędzie wygładzić. Karta graficzna ma co robić i wraz ze wzrostem jej mocy twórcy będą dodawali kolejne elementy, którymi będzie mogła się zająć.
A jeśli chodzi o 30 klatek to raczej jest to już źle interpretowane twierdzenie mówiące że już 25fpsów wystarczy aby człowiek zmieniające się statyczne obrazy zaczął postrzegać jako ruch. Wraz ze wzrostem liczby kletek na sekundę poczucie płynności ruchu się poprawia. Jak grasz w 30 fpsach komfortowo to uważasz 60 za jakąś fanaberię, ale jakbyś grał w 60 przez jakiś czas to potem trudno by było Ci się przesiąść spowrotem na 30.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wszystko zostało wytłumaczone przez Nufiko.

Anyway, mylnie zakładasz, że to, co widzisz na ekranie jest generowane ot tak i każdy piksel jest liczony jakby leżał w przestrzeni dwuwymiarowej. To tak nie działa.

I jak najbardziej pokażesz więcej szczegółów przy tej samej rozdzielczości.
http://media.psu.com/media/uncharted_comp_04.jpg - różnice między Uncharted 1 a 2 (ta sama rozdzielczość, w dodatku na tym samym sprzęcie).

Co do samej siatki - owszem, nie wyrenderujesz więcej linii. Ale gdybyś np. chciał wyrenderować podobną siatkę na skosie, to bardzo szybko okazałoby się, że ekran FullHD to za mało, by ta siatka nie miała poszarpanych krawędzi (aliasing).

Innymi słowy, jesteś w błędzie. Grafikę nawet przy rozdzielczości można poprawić i to znacznie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 22:51, Henrar napisał:

/.../> > Innymi słowy, jesteś w błędzie. Grafikę nawet przy rozdzielczości można poprawić i to
znacznie.

Kiedy dwóch mówi to samo, niekoniecznie znaczy to samo.
Można poprawić grafikę, ale granicy 1920x1080 nie przeskoczysz i więcej szczegółów na monitorze o takiej rozdzielczości nie zmieścisz, choćbyś pękł. Zmieścisz tylko tyle, ile się w tej rozdzielczości zmieści. Jest to fizyczne ograniczenie i o tym piszę.
Rozdzielczość 1920x1080 mamy od paru lat i dzisiejsze karty graficzne z górnej półki nic więcej na niej nie zrobią nad to, na co ta rozdzielczość pozwala. Chcesz więcej - musisz mieć monitor o większej rozdzielczości. Monitory 4k są już dostępne dla zwykłego śmiertelnika, można je kupić nie tylko za 8000 zł, ale już za 2400 zł. Tyle, że w tej rozdzielczości jeszcze sobie nie pograsz, bo do tej rozdzielczości karty nie są jeszcze dostatecznie wydajne. Innymi słowy, nie jestem w błędzie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

W rozdzielczości FullHD spokojnie możesz pokazać fotorealistyczną grafikę, a do tego nam jeszcze niestety daleko :D Więc spokojnie można w tej rozdzielczości jeszcze zostać, zwlaszcza, że sporo osob gra na znacznie niższych rozdzielczościach ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.09.2014 o 23:19, pawbuk napisał:

W rozdzielczości FullHD spokojnie możesz pokazać fotorealistyczną grafikę, a do tego
nam jeszcze niestety daleko :D Więc spokojnie można w tej rozdzielczości jeszcze zostać,
zwlaszcza, że sporo osob gra na znacznie niższych rozdzielczościach ;)

>
Chciałbym, żebyśmy się dobrze zrozumieli: zatem uważasz, że dzisiejsze karty graficzne nie są zdolne pokazać fotorealistycznej grafiki w grach?
Czy może gry nie są do tego przystosowane (nie są dobrze zoptymalizowane)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się
Zaloguj się, aby obserwować