Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 27.02.2013 o 17:00, Zgreed66 napisał:

/.../ > Jakoś nie chce mi się wierzyć, że procek nie zatnie 7970, przez co kupno odblokowanego
i5 (oraz jego OC) będzie musem./.../.

A skąd będziesz wiedział, ze to procesor dławi kartę, a nie odwrotnie? Jesteś pewien, że podkręcenie procesora to wykaże? A co by było, gdybyś podkręcił kartę, a potem i kartę i procesor?
Sprawa jest stosunkowo prosta, jak masz np. procesor dwurdzeniowy, a w wymaganiach gra preferuje czterodzeniowy. Albo inaczej: bez wodki nie razbierosz ;-D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 17:16, pawbuk napisał:

W Crysisie procek nie będzie tak obciążony jak karta, a wynika to ze specyfikacji gry
- nacisk przede wszystkim na piękne, idealnie wycieniowane krajobrazy, a tym głównie
zajmuje się karta graficzna :)

Do tego kosmiczna odległość LOD. Czyli chyba będzie renderował kompletnie wszystko, nawet to czego nie będę widział ;p

Dnia 27.02.2013 o 17:16, pawbuk napisał:

Procek może być ograniczeniem w tych momentach, gdzie walczymy z wieloma przeciwnikami,
no ale trzeba by to przetestować :)

To sobie potestuje :P

Dnia 27.02.2013 o 17:16, pawbuk napisał:

Wątpię, czy Crysis 1 będzie w stanie zadusić i5 3350P - może jedynie ekstremalnie zmodowany Crysis :)

No tak, ale będzie w praktyce będzie miał dostępne 2rdzenie po 3,1ghz i radeona który przerabia +3x więcej klatek od mojego 4870

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Można sprawdzić zawsze użycie procesora i użycie karty graficznej :) Na takich wykresach wyraźnie widać, w których momentach gry odpoczywa karta, a w których procek :)
Oczywiście, przy mocnym procku i mocnej karcie może to nie być zbytnio widoczne - najłatwiej to zauważyć, kiedy testuje się w danej grze kilkanaście kart graficznych i mimo znacznej różnicy w ich teoretycznej mocy obliczeniowej (w zasadzie w ten sposób można porównywać karty graficzne o podobnej budowie) wyświetlają tyle samo klatek/s. Blokowanie procesora przez kartę graficzną widać w testach procesorów, kiedy procki o różnym taktowaniu, ale dokładnie takiej samej budowie wyświetlają tyle samo kl/s.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 17:19, KrzysztofMarek napisał:

A skąd będziesz wiedział, ze to procesor dławi kartę, a nie odwrotnie?

Odtaktowanie powoduje spadek wydajności, nie? ;p
Zmiana rozdzielczości generuje klatki(względnie obniża) na karcie, ale nie na procu jak pamiętam.

Dnia 27.02.2013 o 17:19, KrzysztofMarek napisał:

Jesteś pewien, że podkręcenie procesora to wykaże?

>A co by było, gdybyś podkręcił kartę, a potem i kartę i procesor?
Jak podkręcę kartę to teoretycznie powinien być wzrost fps. Jak procek blokuje to go nie będzie ;p

Dnia 27.02.2013 o 17:19, KrzysztofMarek napisał:

Sprawa jest stosunkowo prosta, jak masz np. procesor dwurdzeniowy, a w wymaganiach gra
preferuje czterodzeniowy. Albo inaczej: bez wodki nie razbierosz ;-D

O tyle proste jest w C1, ze możesz i mieć 4rdzenie jak ja mam teraz. To i tak menedżer zadań nie pokaże więcej jak 50-60% ;p (tak przynajmniej jest u mnie).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 16:38, KrzysztofMarek napisał:

> /.../ > Wtedy ograniczeniem nie jest procek? Crysis 1 używa 2rdzeni, więc straszna
lipa dziś
> jest.
Widzisz, z tego, co czytałem, sprawa nie jest aż tak bardzo jednoznaczna. Są gry, w których
procesor ogranicza kartę graficzną i są gry, w których karta graficzna nie jest w stanie
wykorzystać mocy procesora. to jest trochę tak, jak stały wyścig miedzy mieczem i tarczą
- raz wygrywa miecz, później tarcza, a jeszcze później odwrotnie i tak do u...śmiechniętej
śmierci.
Ja tymczasem zastanawiam się, czy nie byłoby jakimś rozwiązaniem (dla bogatych, oczywiście)
kupno płyty dwuprocesorowej i dwóch kart graficznych. Może dwa procesory zlikwidowałyby
mikroprzycięcia, które występują zwykle przy użyciu dwóch kart graficznych?
Samemu tego nie sprawdzę (noooo, chyba, ze wygram w Lotto!), ale może ktoś to wie?


Odpowiedź na to pytanie brzmi: na 99.9% nie. Bo dodatkowy procesor to tak naprawdę nic innego jak więcej rdzeni. Już teraz możesz sobie kupić 6-8 rdzeniowca Intela (Core i7, Xeon, Opteron ) i tak naprawdę będzie to to samo co 2x 3 rdzenie czy 2x4. Zresztą to często nawet nie jest jakieś wybitnie drogie:
http://shop.amd.com/us/All/Detail/Processor/OS3280OLW8KGU?SearchFacets=category%3AProcessor#Details - 8 rdzeniowy Opteron, 250$. Jednak to że masz tyle rdzeni po pierwsze nie sprawia że gra je wykorzysta (po dziś dzień rzadko mówimy o porządnym użyciu 4). Po drugie zaś, Microstuttering bierze się z innego powodu - Alternate Frame Rendering wykorzystywany w konfiguracjach z wieloma kartami graficznymi działa tak że jedną klatkę generuje jedna kartą, druga druga. Ta metoda jest nieoptymalna bo trzeba na przemian wysyłać informacje z RAM-u i procka do kart graficznych, różny bywa też czas wygenerowania klatki... i mamy ściny.

Gdyby wykorzystać Scissors albo Checker Board zamiast AFR to problem by nie istniał - w tym momencie obie karty jednocześnie pracują nad każdą klatką, nie ma tego "skoku" z jednej do drugiej. Jednocześnie jednak sprawiłoby to że wsadzenie drugiej karty graficznej zamiast dawać 60-100% więcej wydajności dawałoby z 30-40% bo jednak nie ma gwarancji że w górnej połowie ekranu dzieje się tyle samo co w dolnej (a tak działa Scissors - 50% ekranu dla jednej karty, 50% dla drugiej). Aby dogonić AFR (bo to też jest możliwe) należałoby z kolei drastycznie zwiększyć zapotrzebowanie na moc procesora w niektórych przypadkach - możliwe jest policzenie jaki dokładnie fragment ekranu musi obrobić jedna karta a jaki druga żeby było równo 50% pracy dla każdej z nich. Tylko że takie obliczenia musiałyby być wykonywane w czasie rzeczywistym przez CPU co w połączeniu z niechęcią producentów do implementacji rozwiązań wielordzeniowych wydaje mi się wątpliwe, zwłaszcza że z takiego rozwiązania skorzysta z 1% graczy bo reszta zadowala się jedną kartą graficzną.

Więc ze stutteringiem na razie nie da się wygrać w warunkach domowych. Zwykłe procesory i tak są już kilkudziesięciokrotnie razy wolniejsze od kart graficznych (GTX680 może być traktowany jako 1536 RDZENIOWY PROCESOR, trololo. Tak, 1536 rdzeni taktowanych 1 GHz, właśnie tyle mocy idzie żeby pograć w Crysisa 3 w max detalach), dokładanie im dodatkowej pracy nie jest najlepszym pomysłem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 18:14, lord0 napisał:

A czy mikro przycięcia występują również przy kartach dwuprocesorowych ?


Karta dwuprocesorowa = wsadzić dwie karty w jedną obudowę. Problem nadal pozostaje dokładnie ten sam.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 17:47, ziptofaf napisał:

/.../ > Odpowiedź na to pytanie brzmi: na 99.9% nie. Bo dodatkowy procesor to tak naprawdę nic
innego jak więcej rdzeni. /.../

Przyjmuję Twoją odpowiedź za w 99,80% słuszną. Dlaczego tylko tyle? Bo system operacyjny "dla ludzi" , począwszy od bodaj Win2000 jest przystosowany do pracy z dwoma procesorami (mam WinXP Pro i Win 7 Ultimate). Jeśli droższa wersja Windowsa daje możliwość pracy z dwoma procesorami, to może jednak coś w tym jest? Ale sprawdzę to osobiście, jak tylko wygram w Lotto. Jeśli nie wygram, wezmę Twoje zdanie pod uwagę ;-D, w końcu masz o tym lepsze pojęcie niż ja.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Takich rzeczy się po prostu nie wsadzało do tańszego systemu... bo i po co? Początkowo w Windows XP nie było nawet wsparcia dla 4 rdzeniowców. Wcześniej z kolei w ogóle nie było takich układów POZA właśnie profesjonalnymi płytami głównymi oferującymi dwa złącza na procesor a zawodowcy mogli sobie pozwolić na droższy system.

Ale na chwilę obecną nie ma w tym już nic niezwykłego a to czy masz czterordzeniowy procesor czy dwa dwurdzeniowce niewiele znaczy (choć nadal dla użytku konsumenckiego oczywiście łatwiej i lepiej mieć czterordzeniowca niż 2x2 - mniejsze problemy z poborem energii, potrzeba też fizycznie mniejszej i mniej skomplikowanej płyty głównej, poza tym dobrze zbudowany czterordzeniowiec będzie nieco szybszy niż dwa dwurdzeniowce, to kiedyś było tak że Core 2 Quad = wsadzanie dwóch procesorów do jednej obudowy, teraz jest łączona pamięć i inne bajery ułatwiające rdzeniom komunikację) więc i Windowsy zaczęły oferować dla tych rozwiązań wsparcie w systemach konsumenckich. Microsoft tak samo w swoim czasie ograniczał (i nadal to zresztą robi) ilość pamięci w Windows 7 do 8-128GB zależnie od wersji mimo tego że fizycznym limitem jest dokładnie... 18 446 744 073 709 GB. Ale jako że teraz normalką jest już 8 GB montowanej pamięci to Windows 8 ma co najmniej 128GB limitu, aż do 512 w przypadku Professional.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 19:04, ziptofaf napisał:

/.../ . Ale jako
że teraz normalką jest już 8 GB montowanej pamięci to Windows 8 ma co najmniej 128GB
limitu, aż do 512 w przypadku Professional.

OK. Kupię sobie jakieś 16-32 GD RAM ;-D Za to będzie szybki.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

@Ziptofaf i KrzysztofMarek

Chyba teoretycznym limitem jest te 2^64 bajtow, nie jestem pewien czy sprawdzali u siebie w laboratorium takie cos..
W win7 od Pro wzwyz obsluguje to 192GB RAMu. W win8 jest to juz 0.5TB.

Win xp starter obsluguje tylko do 512MB RAMu (wersja byla przeznaczona glownie na kraje 3-go swiata)

Ale nie tylko iloscia RAMu sie zyje:
http://en.wikipedia.org/wiki/Random-access_memory#Memory_wall
http://en.wikipedia.org/wiki/Von_Neumann_architecture#Von_Neumann_bottleneck

Tez sie zgodze z tym, ze lepiej, zeby bylo mniej fizycznych CPU, plyty glowne nie bez powodu czesto sa zaprojektowane w ''''niewygodny'''' sposob, ze czesto brakuje miejsca, albo nie da sie podlaczyc kilku duzych urzadzen bez PCI(e) bez extenderow - kazda odleglosc ma znaczenie i wplyw na opoznienia.
Jedynie w serwerach/stacjach roboczych gdzie dziala jednoczesnie niezaleznie od siebie duzo roznych aplikacji np. instancji maszyn wirtualnych widzialbym sens takiego rozwiazania.

Co do GPU to zastanawia mnie czemu checker board rendering nie mialby dzialac dobrze, nie zglebialem tematu, ale z tego co slyszlame klatka dzielona jest na kwadraty o boku 32px, wiec duzych roznic nie powinno byc w skali calego ekranu jak to np. przy Scissors..

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 20:23, kuba9876543210 napisał:

@Ziptofaf i KrzysztofMarek

Chyba teoretycznym limitem jest te 2^64 bajtow, nie jestem pewien czy sprawdzali u siebie
w laboratorium takie cos..

Ehem, takiej ilości pamięci nie ma nawet Titan, to jest NIESPRAWDZALNE xD Ale jednocześnie raczej potwierdzone - systemy 16 bitowe miały takie i takie limity, 32 bitowe takie i takie, 64 bitowa architektura z kolei takie. Matematyka i fizyka raczej nie kłamie ^^

Dnia 27.02.2013 o 20:23, kuba9876543210 napisał:

Co do GPU to zastanawia mnie czemu checker board rendering nie mialby dzialac dobrze,
nie zglebialem tematu, ale z tego co slyszlame klatka dzielona jest na kwadraty o boku
32px, wiec duzych roznic nie powinno byc w skali calego ekranu jak to np. przy Scissors..


Włącz sobie Cinebench i zobacz w jaki sposób jest tam generowany obraz, jest to coś bardzo podobnego do Checker Board. Istota problemu leży w nieco innym miejscu - te fragmenty są właśnie ZA małe.
http://oktan.fm.interia.pl/proces.htm
Wiele etapów procesu renderingu polega na obliczeniu gdzie mają wylądować duże i skomplikowane obiekty, poprawianiu elementów perspektywy itd... niektóre z tych efektów bardzo ciężko nałożyć "fragmentarycznie". W tym przypadku tak małe fragmenty ci to utrudniają bo równie dobrze nie zejdą się krawędzie tam gdzie powinny z powodu źle nałożonego AA itd. Takie puzelki się trudno nakłada i powodują spadek wydajności bo musisz wysyłać wszystkie dane do jednej i do drugiej karty graficznej a one muszą z kolei przetwarzać tylko część z nich... i robi się taki miszmasz. Ogólnie traci się moc na synchronizację. Obecnie stosowane rozwiązanie jest najprostsze i najszybsze bo tej synchronizacji w zasadzie nie ma. Scissors z kolei, będąc prostszym od Checker Board, generuje błędy z powodu nierównomiernego rozłożenia mocy kart. Na razie mamy wybór między młotem i kowadłem.

Tak na moje niewprawne programistyczne oko to optymalnym rozwiązaniem byłoby ulepszenie Scissors o obliczenia wydajnościowe i wyrównywanie zużycia GPU w locie ale do zaimplementowania czegoś takiego potrzeba grupy programistów i czasu... a to wiąże się z kosztami. Które to koszta na pewno się nie zwrócą. Konsole mają jedno GPU, im to nie potrzebne. Większość graczy PC-towych też. A ci co mają multi-GPU i tak zazwyczaj łączą ze sobą najmocniejsze układy na rynku i równie dobrze mogą grać na jednej karcie i mieć płynnie. A nawet jeśli nie to cóż, stanowią z 1% rynku? Problem z gatunku rozwiązywalnych ale nieopłacalnych.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

O, nie wiedzialem, ze liczenie tego jest jednak trudniejsze. Konfiguracje multi-gpu nie sa mi obce, ale nie jako do renderowania/liczenia gfx, dzieki tez za linka, kiedys w cdaction pamietam publikowali czasami ciekawe arty o grafice, ale to bylo przed 2007 (pomyslec, ze kiedys pisali m.in. poradniki c++...).

tu cos jeszcze znalazlem, ale nie mam dostepu (choc nie o gry a o symulacje monte carlo chodzi):
http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6427564&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D6427564

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 27.02.2013 o 20:54, kuba9876543210 napisał:

tu cos jeszcze znalazlem, ale nie mam dostepu (choc nie o gry a o symulacje monte carlo
chodzi):
http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6427564&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D6427564


Obawiam się że moja obecna wiedza w dziedzinie matematyki jest zbyt ograniczona żeby pojąć jak wygląda optymalizacja wielowymiarowych macierzy rzadkich przy wykorzystaniu GPU a o tym chyba mówi ten artykuł xD Na renderingu znam się w stopniu dość podstawowym - wiem jak się używa Blendera i Maya, wiem jakie kroki są w tym niezbędne... ale poziom tego typu artykułów wymaga doktoratu z matematyki czyli czegoś co mnie "lekko" przerasta, ja to mogę co najwyżej całkować czy obliczać trajektorie w 2D - w 3D mózg mi już wysiada jak mam coś programować i korzystam z gotowców zazwyczaj, samemu się już gubię w takiej matematyce. A jeszcze optymalizować to... w życiu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Odpowiedź dla Ciebie i dla Kuby9876543210 razem.
Rozeznałem, jak mi się wydaje całkiem sensownie, wśród ludzi, którzy(podobnie jak Wy) mają o komputerach znacznie wiekszą wiedzę niż ja i przyznaję:
1. Sprawienie sobie płyty dwuprocesorowej i dwóch kart graficznych mogłoby być sensownym posunięciem, ale tylko wtedy, gdybym, jako główne zajęcie, posługiwał się aplikacjami profesjonalnymi. Aplikacje typowo profesjonalne szybciej i lepiej bywają dostosowane do wykorzystania całej mocy komputera. Ale ja z takich nie korzystałem, nie korzystam i nie zamierzam korzystać.
2. Dla człowieka takiego jak ja, czyli takiego, któremu zwiększona moc duetu procesor+karta graficzna jest najbardziej potrzebna do gier, a inne zastosowania komputera tylko od przypadku do przypadku, inwestycja w płytę dwuprocesorową jest, w najlepszym razie, ekstrawagancą. Nie będę w stanie jej wykorzystać.
3. Wyjdą nowe procesory Intela, kupię nową płytę pod nowe procesory, do tego odpowiednią ilość szybkiej (16-32 GB pamieci RAM) i mam nadzieję, że starczy to już nie na 5 (jak teraz!), ale na 7-8 lat grania.
4. Waunkiem wzgędnie bezproblemowego korzystania z komputera są twarde dyski. Powinny być to dyski serwerowe (mam akurat taki, chodzą 5 rok bez problemów, a mają zwykle 5-7 lat gwarancji).
5. Za mnie więcej pół roku napiszę, jaki sobie komputer sprawiłem. Będziecie mi zazdrościć ;-D
6. Wszystkim dziękuję za bezinteresowne (i użyteczne!) rady, na pewno zobaczycie, ze wziąłem je pod uwagę (chyba, ze w miedzyczasie zmieni się oferta producentów).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jak długa jest żywotność zasilacza?
mój będzie miał już pięć lat, jest to Cieftec 750 Vat, czy taki zasilacz wystarczy na przyszłość? - lepsza grafika i podkręcony procesor/
jeżeli nie, to jaki zasilacz powinienem zakupić przy wymianie części / koniec roku ? i ile by on kosztował?.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.03.2013 o 00:18, lis_23 napisał:

Jak długa jest żywotność zasilacza?
mój będzie miał już pięć lat, jest to Cieftec 750 Vat, czy taki zasilacz wystarczy na
przyszłość? - lepsza grafika i podkręcony procesor/
jeżeli nie, to jaki zasilacz powinienem zakupić przy wymianie części / koniec roku ?
i ile by on kosztował?.


Jest ok.

Na jaka grafe / CPU chcesz zmieniac? I do ile O/C? Przy 750W masz duuuzo zapasu do O/C w zasadzie dowolnych konfiguracji 1-GPU.

Dla pewnosci mozesz pozyczyc jakis lepszy miernik i sprawdzic napiecia bez obciazenia i z obciazeniem (przede wszystkim linia 12V).

Zywotnosc teoretycznie podaje czesto producent, mozesz poszukac; moze byc np. 50k godz. MTBF (sredni czas pracy bezawaryjnej), ale sa to wartosci okreslone na podstawie symulacji lub testow ( badz ekstrapolacji posiadanych danych, albo testow w nienaturalnych warunkach typu wysokie temp. etc.

Mozesz przeczyscic z kurzu (otworzyc jesli jest go duzo), bedzie wtedy chlodniejszy, wysoka temperatura skraca zywotnosc. Nie chce Ci niczego obiecywac, ale mysle ze drugie tyle powinien pochodzic jesli nie bedziesz go katowal obciazeniami 90-100% 24/7 (wiecej GPU musialbys miec).

@KrzysztofMarek

Serwerowe moga miec dluzsza zywotnosc (wieksze MTBF*, jak w przypadku serwerowych PSU czesto, nie mowiac o sprawnosci), ale trzeba niektore moga szybciej zuzywac sie w przypadku czestego wlaczania komputera (ale nie wszystkie; serwery sa nastawione bardziej na praca ciagla niz PeCety).

*tak naprawde sens patrzenia na te wartosc zaczyna sie pojawiac jak ktos potrzebuje duzych ilosci (100, 1000) ;)

@Ziptofaf

Wyzsza matma jest trudna (choc dla mojej prof wszystko to absolutne podstawy...), ale bardziej chodzilo mi o to jako forme ciekawostki, czesto mozna sie czegos nauczyc (gdyby tylko czas wolniej uplywal).
A z programowaniem to rozumiem i popieram - po co wynajdywac kolo od nowa? Jak mozna zaoszczedzic czas to b.db

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Będę dzisiaj instalował Windows 7 Home Premium x64 i chciałem zapytać czy ta wersja systemu potrafi wykryć i wykorzystać 16gb ram? Tzn. czy nie będzie pokazywało tylko 14GB ramu zamiast 16?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.03.2013 o 13:53, TerrorHurtz napisał:

Będę dzisiaj instalował Windows 7 Home Premium x64 i chciałem zapytać czy ta wersja systemu
potrafi wykryć i wykorzystać 16gb ram? Tzn. czy nie będzie pokazywało tylko 14GB ramu
zamiast 16?

a dlaczego miało by 14gb pokazywać ? Wersja x32 obsługuje do 4gb, x64 nie wiem do ilu ale sporo :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.03.2013 o 13:53, TerrorHurtz napisał:

Będę dzisiaj instalował Windows 7 Home Premium x64 i chciałem zapytać czy ta wersja systemu
potrafi wykryć i wykorzystać 16gb ram? Tzn. czy nie będzie pokazywało tylko 14GB ramu
zamiast 16?


Maksymalnie 16 czyli odlicz od tego pamięć karty graficznej, L2 i L3 procesora itp. Teoretycznie przynajmniej bo to ograniczenie sztucznie narzucone przez Microsoft (specjalnie wczoraj podpytałem profesora jak to rzeczywiście z tym jest - obecne 64-bitowe procesory są tak naprawdę 42-, 48- bitowe ale to nadal jest 4096-262144 GB realnego limitu a nie jakieś 16-512 jak Microsoft próbuje wmówić użytkownikom) i w praktyce może być nieco lepiej. Możliwe też że, podobnie jak z innymi systemami, poprawnie WYKRYJE 16B pamięci ale nie będzie jej w całości wykorzystywać. Więc będziesz musiał to sprawdzić w czymś ekstremalnie pamięciożernym (ja osobiście wykorzystałbym np. Sketchup w wersji Free i jako model bierzesz np. Wrought Iron Mansios with incredible interior - u mnie zeżarło 7.5GB pamięci, ewentualnie 3DS Max 2013 w wersji trialowej i darmowy plugin Ghost Town który generuje całe miasto w 3D... przy odpowiednim ustawieniu go zabija nawet komputery mające po 20GB pamięci więc powinien wykorzystać wszystko co tylko się da w twoim komputerze).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się