Zaloguj się, aby obserwować  
Gram.pl

Sweeney z Epic - "Fotorealizm w grach dopiero za 10-15 lat"

45 postów w tym temacie

Dnia 26.05.2009 o 14:32, Niflheim napisał:


Pogoń za fotorealistyczną grafiką w grach jest, moim zdaniem, absolutnie bezsensowna.
Praktycznie we wszystkich przypadkach olewane zostają NAPRAWDĘ ważne elementy rozgrywki.
Obecnie oprawa (audio)wizualna nie idzie w parze z grywalnością - ambitne tytuły takie
jak Mount&Blade, Age of Decadence, inne przygodówki/cRPG''i w "starym stylu", czy choćby
Diablo III i StarCraft II ze stajni Blizz''a zauważalnie odstają od standardów jakie
wyznaczyły gry takie jak Crysis, czy Gears of War. I chwała za to ich producentom! Dość
mam już pustych ciekawostek przyrodniczych pokroju Far Cry 2, Killzone 2, Oblivion, etc.
Gry są moją pewnego rodzaju odskocznią od rzeczywistości - odwzorowywanie jej mija się
z celem (można ją co najwyżej stosować w grach ją symulujących, vide seria "Enemy Engaged"
/ "Flight Simulator").


Ale pamiętaj, że pogoń "za czymś" musi być. W końcu każde studio wyznacza sobie cele, które zrealizuje sobie w ciągu 3 - 5 lat, oraz te które zrealizuje w nieokreślonej bliżej przyszłości. Już teraz widzimy np. pogoń za coraz bardziej dokładną grafiką. Niektóre studia szukają nowych rozwiązań, które urozmaicą rozgrywkę do wysłużonych już typów gier...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ja chcę gry w których jest fabuła a nie tylko grafika, ale to i tak marzenie ściętej głowy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.05.2009 o 12:25, Namaru napisał:

Polecam przeczytać: http://pl.wikipedia.org/wiki/Prawo_Moora
Pytanie oczywiście kiedy dojdziemy do granicy obowiązywania prawa Moora.


Wedle pana Raymonda Kurzweila koniec rządów prawa Moore''a jest już bardzo blisko, bowiem technologia pędzi do przodu i wciąż przyspiesza. Poza tym wkrótce dojdziemy do granicy, w której układ scalony nie będzie w stanie wykrzesać z siebie więcej. Powinien nastąpić przełom, który następuje co kilkanaście lat - jak wtedy, kiedy tranzystory zastąpiły lampy elektronowe. Optymistyczna wersja zakłada, że do roku 2050 komputer będzie kilkaset razy bardziej wydajny niż ludzki mózg (który nota bene mógłby być znacznie szybszy, niestety informacje przekazywane pomiędzy jednym neuronem a drugim działają z niską prędkością rzędu ~200 obliczeń na sekundę przy tysiącu połączeń (między jednym neuronem a drugim)).
Pytanie tylko: jak to ma się do gier? Ano prawda, superkomputery do komercyjnego użytku nie zostaną wprowadzone zbyt szybko, stawiałbym prędzej na eksperyment w formie filmu animowanego.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

... no a jak już będzie fotografika w grach, to będziemy czekać kolejne 15 lat na "kask" na głowę - zakładasz, grasz i giniesz w wyobraźni ;). Grafikę będzie ograniczać jedynie nasza wyobraźnia... i uniwersum gry ;P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.05.2009 o 15:10, Woo-Cash napisał:

... no a jak już będzie fotografika w grach, to będziemy czekać kolejne 15 lat na "kask"
na głowę - zakładasz, grasz i giniesz w wyobraźni ;). Grafikę będzie ograniczać jedynie
nasza wyobraźnia... i uniwersum gry ;P



hehe fotografika już była dawno temu w grach 2D i pseudo 3D przygodówkach ;]

Zresztą 10 lat temu też mówili, że za 10 lat grafa będzie taka jak w filmie, że gały z orbit wylecą

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.05.2009 o 14:59, Merovingian napisał:

> Polecam przeczytać: http://pl.wikipedia.org/wiki/Prawo_Moora
> Pytanie oczywiście kiedy dojdziemy do granicy obowiązywania prawa Moora.

Wedle pana Raymonda Kurzweila koniec rządów prawa Moore''a jest już bardzo blisko, bowiem
technologia pędzi do przodu i wciąż przyspiesza. Poza tym wkrótce dojdziemy do granicy,
w której układ scalony nie będzie w stanie wykrzesać z siebie więcej. Powinien nastąpić
przełom, który następuje co kilkanaście lat - jak wtedy, kiedy tranzystory zastąpiły
lampy elektronowe. Optymistyczna wersja zakłada, że do roku 2050 komputer będzie kilkaset
razy bardziej wydajny niż ludzki mózg (który nota bene mógłby być znacznie szybszy, niestety
informacje przekazywane pomiędzy jednym neuronem a drugim działają z niską prędkością
rzędu ~200 obliczeń na sekundę przy tysiącu połączeń (między jednym neuronem a drugim)).
Pytanie tylko: jak to ma się do gier? Ano prawda, superkomputery do komercyjnego użytku
nie zostaną wprowadzone zbyt szybko, stawiałbym prędzej na eksperyment w formie filmu
animowanego.


True, jeszcze trochę i tranzystory staną się tak małe (składające się z kilku atomów), że nie będzie możliwości dalszego rozwoju klasycznych procesorów. Potrzebna będzie zupełnie nowa technologia.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Z tym że razem z fotorealistyczną grafiką powinna iść w parze złożoność wirtualnych światów, interakcja z otoczeniem, rozbudowana fabuła, lepsza AI itd. a jaki jest koń każdy widzi.
Moim zdaniem obecne gry są coraz ładniejsze (to oczywiście rzecz względna) natomiast kuleją wszystkie wyż.wym. elementy i niestety zmienia się to na gorsze.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Tak samo mówili 20 lat temu. Grafika to nie wszystko, śmiem twierdzić, że nic szczególnego, gra może się obronić i bez tego elementu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jest jeszcze jedno zagadnienie.
Producenci kart graficznych, przeciez musza robic co raz lepsze karty, bo gry maja coraz lepsza grafikę, a jak zostanie osiagniete apogeum. To bedzie wystarczało kupić jedną, im sie to nie opłaca.
Swoją drogą, nie mógłbym grać w gry z fotorealistyczną grafiką.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

No, 10-15 lat, ale to w przypadku UnrealEngine i tych silników, które są strasznie plastikowe i maskują wszystko blurem, a do tego są robione tak by działały na wszystkim łącznie z tosterem, do tego ograniczone możliwościami konsol (bez urazy, ale to one są targetem, a równa się do najsłabszego.. jak to jest że Crysis dwa lata po premierze ciągle jest praktycznie nie do pobicia?) i te 2-3 ich generacje trzeba będzie przeczekać, nie wspominając o tym że przede wszystkim są pisane jak najprościej, by każdy programista się w nich połapał, bo UE to przede wszystkim towar eksportowy.

Ale w sumie dla mnie lepiej, co prawda wszystkie gry są na jedno kopyto <niezłe tekstury plus tyle bluru ile się da> ale przynajmniej mój prawie dwuletni już GF8800GT dalej ciągnie wszystko bez najmniejszych problemów na maksymalnych detalach.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

No, to czeka mnie granie. Po to w gry gram, aby się troszkę od otaczającego mnie świata oderwać. Chociaż nie powiem - Pewnie i tak pogram za te paręnaście lat.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dla krzemu granica to bodaj coś koło 20-22nm (teraz mamy 35nm), później pewnie będzie węgiel. Co do samej częstotliwości elektrony dają radę chyba do 300GHz, czy coś koło tego... a później pewnie będzie zabawa fotonami :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Gdy gry będą zbyt realistyczne, ludzie będą cierpieć z tego powodu - chociażby wymiotować i miewać nudności po zabiciu wirtualnej postaci.
Tak poza tym, to przy każdej kolejnej generacji gier tłumnie określa się wszystkie mianem fotorealistycznych - tak było w przypadku Crysisa, DOOM-a 3, FarCry''a, wcześniejszych, jak chociażby Soldier of Fortune, a nawet przy okazji Wolfensteina 3D, co obecnie wydaje się być niedorzeczne. Ale takie są fakty...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.05.2009 o 18:38, Thompson napisał:

Gdy gry będą zbyt realistyczne, ludzie będą cierpieć z tego powodu - chociażby wymiotować
i miewać nudności po zabiciu wirtualnej postaci.
Tak poza tym, to przy każdej kolejnej generacji gier tłumnie określa się wszystkie mianem
fotorealistycznych - tak było w przypadku Crysisa, DOOM-a 3, FarCry''a, wcześniejszych,
jak chociażby Soldier of Fortune, a nawet przy okazji Wolfensteina 3D, co obecnie wydaje
się być niedorzeczne. Ale takie są fakty...

A w Driver to nawet użyli zdjeć do teksturowania żeby pochwalić sie fotorealizmem ;]

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Tak sobie myślę, że skoro ludzki mózg ma moc obliczeniową o wiele większą niż najlepsze procesory na świecie, to nie długo wymyślą sposób na podłączenie się do niego. Już widzę te posty na forach: "mój mózg pracuje na 120GHz", "a mój na 140GHz", "a ja swój podkręciłem na 160GHz i założyłem dodatkowe chłodzenie bo temp przekraczała 42st, lol, omg"...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Sterowanie komputerami myślami (to już rzeczywistość, większość wciąż w labolatoriach, jednak już jest. Podłączanie komputera do mózgu także się wykonuje, np. aby niewidomy widział cokolwiek.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.05.2009 o 19:46, Galder_Grasfiord napisał:

Sterowanie komputerami myślami (to już rzeczywistość, większość wciąż w labolatoriach,
jednak już jest. Podłączanie komputera do mózgu także się wykonuje, np. aby niewidomy
widział cokolwiek.

Wiem, ale chodzi mi o to, że załóżmy, że mamy za słaby procesor w kompie, żeby pociągnął daną grę, to wtedy podłączamy kompa do mózgu i nasz mózg robi za procesor o wiele szybszy niż ten w kompie i gramy bez problemu we wszystko na maxa :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować