BlindObserver

Gramowicz(ka)
  • Zawartość

    211
  • Dołączył

  • Ostatnio

Wszystko napisane przez BlindObserver

  1. @Tenebrael Kolego, przeczytałem wszystkie Twoje posty w tym temacie i niestety na zależnościach związanych ze sprzętem, systemem i DirectX nie masz bladego pojęcia. Microsoft WYMUSZA na twórcach kompatybilność gier w obrębie jednej, dużej odsłony DirectX. DX11.2 jest pododsłoną, więc w grze będzie tylko dodatkiem, z którego skorzystają właściciele Windows 8.1, ale na Windows 7 gra będzie działać, bo system posiada wsparcie dla DX11. Oczywiście, jeśli w ogóle mają zaimplementować DX11.2, to po pierwsze. Jeśli zaimplementują sytuacja będzie analogiczna z BF4, gdzie niewielki wzrost wydajności (teoretycznie) powinni zaobserwować właściciele Win8.1, ale reszta też grę uruchomi, tyle że już bez tych kilku "fjuczerów".
  2. > Skąd będziecie ściągać ;) Oho, legalni konsolowcy, a obraz na X360 od kilku dni w sieci. Wali hipokryzją na kilometr.
  3. > Brytyjska okładka z dwoma piłkarzami hiszpańskich klubów. Niezłe. Mogli go już chociaż > dać w koszulce reprezentacji jak Lewego u nas. Walijska reprezentacja raczej dobrze pod względem marketingowym nie stoi :)
  4. BlindObserver

    Weekendowe AMA z Adrianem Chmielarzem

    1. Jak to się stało, że przeciwnik PC-tów tworzy obecnie grę właśnie na komputery PC? 2. Co Pan Adrian sądzi o sprzedaży Bulletstorma? Czy nie odniósł wrażenia, że posiadacze Xboxa 360 kupowali jego grę przede wszystkim dla bety Gears of War 3? 3. Pan Adrian napisał na swoim blogu, że odrzucając propozycję Microsoftu i naciskając na pozostawienie obecnego modelu dystrybucji straciliśmy szansę na tańsze gry. Jak według niego w sytuacji monopolu w sprzedaży cyfrowych wersji gier na Xboxa/PlayStation gry mogłyby w ogóle potanieć i dlaczego ktoś miałby w ogóle podejmować decyzją o cięciu cen w przypadku braku konkurencji na danej platformie? 4. Czy uważa Pan, że zamówiona w przedsprzedaży gra w sytuacji gdy posiada masę błędów utrudniających lub uniemożliwiających rozgrywkę powinna podlegać zwrotowi?
  5. > Online passy to pieśń przeszłości. Yhm, i dlatego w moim pudełku z The Last of Us jest przepustka sieciowa...
  6. Konferencję EA obejrzałem tylko dla ME2 i cieszę się, że znowu pokieruję Faith. To jedyna gra w portfolio Elektroników, na którą jeszcze czekam, cała reszta mi powiewa.
  7. I to piękne zażenowanie fanów gdy znowu pokażą "taktyczną" walkę jak w DA2 :)
  8. > Każde podkręcenie podzespołu elektronicznego = krótsza żywotność. Zrób to samo na "zwykłej" > płycie, ze zwykłymi kondziorami i tranzystorami, gównianymi cewkami, to zobaczysz różnicę, > szczególnie jak będziesz procka podkręcał często o ponad 60%. A płyta jest w środka i > tak jej nikt nie widzi (nie my overclockingu z tuningiem). Wolę dołożyć kilkaset złotych > i mieć coś, co mi podziała ładnych kilka lat (+ wydajność) niż po roku ma mi paść 3/4 > kompa, bo jakiś gówniany element doprowadził do spalenia zasilacza a ten pociągnął za > sobą większość bebechów (z życia wzięte). Wtedy wydatek będzie ZNACZNIE większy. Jak ktoś kupuje płytę główną na 10 lat to może zauważy tą krótszą żywotność... Przy OC proców Intela pobór energii nie skacze jakoś znacznie, więc ta różnica to zwykła bzdura powielana przez osoby, które wmawiają sobie, że dobrze zrobiły kupując płytę za 1k zł. Wszystkie te udogodnienia przydadzą się głównie na OC na LN2 czy suchym lodzie. Dla zwykłego użytkownika nie mają żadnego znaczenia. 20-fazowa sekcja, tyle że z podwójnym dławikowaniem na fazę (marketing wciska co chce). OC do 4,5 GHz na każdym nowym procesorze Intela (powiedzmy od Sandy Bridge) to proces bezproblemowy na każdej płycie, która pozwala kręcić przez dzielnik. Czy ona kosztuje 300 czy 1000 zł różnic zwykle nie ma, a jak są to niewielkie (przy takim taktowaniu różnica 100 MHz nie ma znaczenia, szczególnie, że wydajność powyżej 4-4,2 GHz się już nie skaluje tak jak wcześniej). A wydajność samej płyty to już jest całkowita abstrakcja. Co do zasilacza - widocznie miałeś gówniany zasilacz, że pociągnął 3/4 komponentów. :)
  9. BlindObserver

    Rozkmina na weekend: Xbox One czy PlayStation 4?

    Wspólna przestrzeń adresowa nie sprawi, że PS4 będzie tak wybitnie wydajne. Wystarczy zobaczyć jak wygląda UE4 na PS4 i jak wygląda ten sam silnik na PC. DX11.1 Titan może i nie obsługuje, ale każdy Radeon już tak (zresztą w PS4 jest Radeon). Nie wspominając, że ta jedynka nic nie wnosi, tak jak nic nie wnosiła jedynka przy DX10. Taki tam mały szczegół... Na nowej generacji nie będzie takiego "szoku graficznego" jaki był przy PS3, bo po prostu bebechy zarówno PS4 jak i X1 są słabe. Mamy osiem słabych rdzeni Jaguar, takie sobie Radeony 7850 i 7770, które do mocarnych kart nie należą i zależnie od konsoli sporo pamięci GDDR5/DDR3. Mamy też optymalizację, ale trzeba być niezłym optymistą, żeby uważać, że multiplatformy będą wyglądać na konsolach lepiej czy choćby porównywalnie dobrze jak na PC. Konsolę (konkretnie PS3) mam tylko do exów i kolejną będzie PS4, bo po prostu exy na konsole Sony bardziej do mnie przemawiają. Po roku obecności na rynku o mitycznej wydajności konsol już nikt nie będzie mówi - pojawi się Maxwell, pojawią się karty z rodziny Sea Island (z wybranymi funkcjami HSA, czyli również dzielenie pamięci operacyjnej i lepsza współpraca z procesorem). Potem to już z górki - Volta i pozamiatane. Zawsze dochodzimy do pytania czy kogoś na PC stać czy nie - mnie stać i na mocnego peceta i na konsolę. Ludzie niestety patrzą na rynek PC przez pryzmat allegrowego złomu z komunii. Nie przeczę, na kartach pokroju GeForce GTS 250 może się grać słabo, bo to... złom :)
  10. Na Metro 2033, gdzie tess jest zrobiona SŁABO gry się nie kończą. Wrzucanie wszystkich produkcji do jednego worka, jest hmm, dziecinne? :)
  11. > Myślisz, że teselacja to rzecz, którą da się tak łatwo wychwycić? Jeżeli tak, to polecam > UniEngine a nie gry. Tam gdzie tess jest dobrze zrobiona (a kilka takich gier jest i to dużych hitów) trzeba być ślepym, żeby tego nie zauważyć... Więc sądzę, że jednak łatwo wychwycić.
  12. BlindObserver

    Konferencja Microsoftu – relacja na żywo!

    Nie dziwi mnie, że nowy Xbox jest bardziej centrum domowej rozrywki niż konsolą, ale ile z tego, co pokazali w ogóle będzie dostępne w Polsce? Nie sądzę, żebyśmy mieli dostęp do tych wszystkich kanałów. To była trochę zapowiedź tunera TV niż sprzętu do grania. Sony jednak pokazało dużo więcej.
  13. > a co bedzie z wersja ? mam nadzieje ze 2 rozne beda (osobno PC i osobno PS), bo jeszcze > tego brakowalo zeby na PC czekac na glupie certyfikacje i inne takie pierdoly... a tak > to cierpliwie czekam na 1.0.8 robiac sobie przerwe od mordowania. W konsolowej przypadkiem nie ma być jakichś większych zmian m.in. w loocie (przez brak AH)? Jeśli tak (i z kilku innych względów) patche raczej nie będą wychodziły równolegle.
  14. Ciekawe ludzie mają priorytety - zapłacić więcej za kolekcjonerkę, w której znajdowały się naprawdę fajne, namacalne rzeczy, i płakać, że reszta dostała wirtualne pierdoły. Ten świat zmierza w złym kierunku najwidoczniej...
  15. > Wisi mi to, gier od ea nie kupuje i kupowac nie zamierzam. Dobrze, że o tym napisałeś. Pewnie kogoś urzeknie Twoja historia :)
  16. BlindObserver

    Unreal Engine 4 nie dla Wii U

    To w co tam się będzie grało? To ma być konsola tylko do ZombieU, Bayonetty i Zeldy? Dziwne...
  17. Wiesz, na high to pewnie tak, ale ten Crysis na konsole zbyt wiele z tym pierwszym wspólnego nie ma. Co więcej na konsolach nie ma nawet medium z PC, a cały silnik został specjalnie przeprojektowany. Przy niskich rozdzielczościach ilość pamięci się nie liczy, szczególnie gdy nie ma się włączonego wysokiego AF (to na konsoli praktycznie nie występuje, bo nie generuje się obrazu, który pokazuje zbyt wiele w oddali). Widzę filmy gdzie 7800GTX leci w Crysis w 30 FPS na medium bez wygładzania (czyli tak jak na konsoli), z dużo większym DOV. I to w 1280x1024 co jest dużo większą powierzchnią niż 720p (które to na konsoli różni się od tego z PC - w przypadku Crysis wynosi tam 1024x720, czyli ucięło w poziomie 176 pikseli względem PC). W tak niskiej nie ma bata, żeby nie było 30 FPS na 7800GTX i czymś pokroju Atholona X3/X4 (zakładam biedną wersję CPU). W next-genach nie ma żadnych zaawansowanych technologii. Wykorzystują karty zgodne z DX11.1, HSA jest znane od 2 lat, użycie GDDR5 nie jest niczym niezwykłym, bardziej niezwykła jest ilość, wydajność Jaguara to mit podobny do ukrytej mocy procesorów modułowych. PS3 był bardzo mocny na starcie, ale wtedy Sony mogło dokładać do interesu. Teraz nie może, więc bebechy są słabe. Co do eco-friendly - są na rynku zdecydowanie bardziej eco procesory, ten jest eco tylko dlatego, że taktowanie obniżyli. I też nie mówię, że Sony stoi na straconej pozycji, bo jestem pierwszy do kupna tej konsoli. Ale nie twórzmy mitów, jakie to jest tam wspaniałe - każdy, kto choć trochę interesuje się sprzętem i czyta co nieco powie to samo co mówi Nvidia - PS4 to low-endowy PC, tyle że ze świetną optymalizacją.
  18. > @Lucas, > > Pisz po prostu "architektura zbliżona do PC". Konsolowcom nie ubędzie od tego, naprawdę, > a obrońcy Częstochowy i jedynie słusznej platformy przynajmniej nie dostaną zawału widząc > to "high end PC" i porównując dwa różne sprzęty "zegar w zegar" ;-) > > Architektura PC, a nie zbliżona do PC - Jaguar to następca w prostej linii Bobcata. Model HSA to każdy procesor APU od AMD. Jedyną różnicą jest wrzucenie pamięci GDDR5, których przepustowość jakoś niezbyt szokuje (odpowiednie taktowane DDR3 dałyby taki sam efekt). Dziwne, żeby nie porównywać procesora zegar w zegar, skoro taki sam pojawi się na rynku PC (bez ARM, który i tak nie bierze udziału w obliczeniach w grach). Każdy nieco bardziej rozgarnięty człowiek wie, że o ile w przypadku architektury Cella i nastawienia na zupełnie inny typ obliczeń nie bardzo można było przełożyć na x86, to w przypadku dwóch procesorów x86 różnicy w specyfice obliczeń nie będzie. A co do obrony jedynie słusznej platformy - ciekawe kto tu broni PC w ogóle. Raczej wytyka się błędy w tekście autora.
  19. Obecnie konsola jest bardziej PC niż kiedykolwiek wcześniej (no może poza pierwszym klockiem). Chciałbym jedynie przypomnieć, że w czasach wypuszczenia na rynek PS3, karta graficzna od NV była bardzo mocna, high end. Teraz na starcie dostajemy średnio niską półkę + low endowy procesor, do tego nisko taktowany. HSA fajne na papierze, ale z tą mocą obliczeniową to wypada blado. Cell bił P4 jak chciał, Jaguar to bije, ale Bobcata co najwyżej. Ciężko BF3 odpalić na takiej karcie, skoro BF3 nie bangla na kartach z DX9 :) W konsolowej rozdzielczości na low z dx9 z jakimś quad core CPU poszłoby. @hans_olo A o które to funkcje w przypadku C2 chodzi? C1 z C2 można porównać tylko na DX10 (bo jedynka oczywiście DX11 nie obsługuje). Dziwne, żeby się nie dało tego uruchomić, skoro technologicznie engine pierwszego Crysisa był o wiele bardziej zaawansowanych niż C2 (do DX10 oczywiście). Do tego silnik C2 był rozpisany o wiele lepiej, bo obsługa CPU nie ograniczała się do dwóch jajek na w C1 (powstający jeszcze w erze jednordzeniowców). C2 dało się uruchomić bez radykalnych zmian w płynności bo to silnik multiplatformowy, poobcinany.
  20. > > Yhm, polecam sprawdzić obciążenie karty graficznej podczas rozgrywki i może jeszcze > raz > > przemyśleć swoje stanowisko :) Gra nie wykorzystuje mocy, gdy wykorzystanie GPU > jest > > mniejsze niż 80% - na rynku jest pełno gier, które wykorzystują kartę bardziej. > > Proponuję zapoznać się trochę z teorią programowania i optymalizacji. Nie wystarczy zamordować > kompa kiepsko napisanym programem, żeby można było powiedzieć, że wykorzystał on całą > moc obliczeniową sprzętu. A wystarczy jedna pętla by zaciągnąć do niekończącej się pracy > na ekstremalnym obciążeniu. > Nie widzę, by gry z serii Crysis (poza jedynką i Warheadem) były źle zoptymalizowane - wręcz przeciwnie. Jeśli gra dobrze skaluje się wraz ze wzrostem ilości rdzeni (tak w CPU jak i procesorów strumieniowych w GPU) tzn jest dobrze zoptymalizowana. Te, które mordują kompa zwykle "siedzą" na CPU, jak choćby słynne GTA IV czy ostatnio "jednordzeniowe" SimCity. Przetestowałem w życiu wiele kart graficznych i mogę powiedzieć, że nie ma na rynku produkcji, która wykorzystując większość dostępnych zasobów udostępnianych przez GPU byłaby źle zoptymalizowana. Ewentualnie czekam na wymienienie mi takiej pozycji.
  21. > "W każdym razie jest to bardziej logiczne, niż płacenie Microsoftowi za Direct3D". > Od kiedy to trzeba płacić MS za robienie gier pd DX? > I jak ktoś słusznie zauważył, OpenGL jest także dostępne na Windowsie, i co ciekawe, > to zawsze Radeon miał problemy ze sterownikami pod to API, a nie GeForce. > I znowu, procesor to low-end AMD, karta - aktualna średnia półka, tylko ewentualnie szybka > pamięć nadrabia. Cała nadzieja w optymalizacji gier. Właśnie, OpenGL czasem znajduje się nawet w nowych grach AAA, żeby nie szukać daleko - RAGE. Żeby było śmieszniej, na moim Radosławie ta gra wyglądała na premierę tak szpetnie, że żal to było oglądać.
  22. > Ale MOCY OBLICZENIOWEJ nie zużywa. Cały czas się odnoszę do tego, bo na temat innych > detali ATI jeszcze milczy. Tyle, nie próbuj rozwijać mojej wypowiedzi poza kontekst :) Yhm, polecam sprawdzić obciążenie karty graficznej podczas rozgrywki i może jeszcze raz przemyśleć swoje stanowisko :) Gra nie wykorzystuje mocy, gdy wykorzystanie GPU jest mniejsze niż 80% - na rynku jest pełno gier, które wykorzystują kartę bardziej. Co do wspomnienia o Jaguarze - to procesor low-endowy, następca tak samo low-endowego Bobcata. Tekst o karcie graficznej i nazwanie jej potworem to już nieśmieszny żart - polecam sprawdzić jak sprawują się karty Radeon HD 7790 (rdzeń Bonaire), które mają praktycznie identyczną moc i które zapewne będą wykorzystane w PS4. Taki z tego potwór jak z Kuby potęga gospodarcza. PS4 będzie nadrabiało jedynie przepustowością szyny, ale nigdy nie będzie to generowało takiej grafiki, jak na obecnych kartach ze średniej półki, od HD7850 wzwyż.
  23. BlindObserver

    John Riccitiello odchodzi z Electronic Arts!

    W każdej normalnej firmie, która kilka lat z rzędu jest pod kreską są zwolnienia na szczeblach kierowniczych. Jak zaczną stawiać na jakość, a nie na ilość czy odgrzewanie kotletów to zaczną zarabiać. Nie ma go co żałować, zarobił przez te 6 lat tyle, ile większość z nas przez całe życie nie zobaczy.
  24. Już hejt, a gość powiedział coś najbardziej logicznego w świecie. Teraz PC to najwyższa wydajność i najlepsza grafika, ale też optymalizacja na poziomie kamienia. Choć jestem pctowcem to powiedzmy sobie szczerze - nawet pomimo średniawej konfiguracji sprzętowej nextgenów to optymalizacja będzie czynić cuda. Ubi robi Watch Dogs w oparciu o PC, ale jak tylko lepiej ogarną nextgeny, będzie odwrotnie. Naturalna kolej rzeczy. @ZubenPL Wprowadźmy wymóg stałego połączenia z internetem w wersji PC i miejmy takie problemy jak przez pierwszy miesiąc w D3 czy przez kilka ostatnich dni z SimCity. Ewentualnie miejmy taką sytuację jak w Assassin''s Creed 2...
  25. BlindObserver

    Ładniejsza fryzura Lary dzięki AMD TressFX

    > Technologia przygotowana została w oparciu Graphics Core Next, w związku z czym realistycznie > wyglądającymi włosami bez dramatycznych spadków liczby klatek na sekundę cieszyć oczy > będą mogli posiadacze kart graficznych z serii Radeon HD 7000 > > ^^ Typowe zagranie na rynku PC aby zagonić konsumentów do sklepu, po nową karcioszkę, > "bo stara już nie wyrabia" ;-). Nic nowego, nawet oburzony nie jestem, raczej przyzwyczajony > do tego - Intel, AMD, Nvidia - typowe brudne zagrywki i próba wmówienia konsumentom, > że na "słabszym sprzecie się nie da". Akurat w tym wypadku (zresztą w kilku innych też) > kłamstwo wychodzi szybko na jaw - filmik Nvidii z podobnym efektem (ktoś tam napisał, > że sprzed trzech lat) na kartach (o ile dobrze wyczytalem) z serii GF200, czyli już dość > starawych. Film, z podobnym efektem - brak implementacji w jakiejkolwiek grze. Co więcej - opierający się na całkowicie innym algorytmie i liczony w inny sposób. Nie rozumiesz w ogóle problemu od strony programistycznej, ale zarzucasz im wciskanie kitu. > Także nie dramatyzowalbym jeśli ktoś musi to > wyłączyć, bo klatki dramatycznie spadają (pewnie prikaz dla Nixxes był jasny - "ma to > być płynne na Radkach 7xxx, ni mniej ni więcej chłopaki - zróbcie jak trzeba, a forsa > popłynie wartkim strumieniem ;-)) Nie masz na ten temat potrzebnej wiedzy - TressFX napisane jest pod architekturę GCN, a że z niej korzystają Radeony obecne i te, które znajdą się w konsolach, to nie dziwne, że na nich działa to dobrze. Ogólnie jednak nic nie stoi na przeszkodzie, żeby to odpalić na każdej karcie ze wsparciem DirectCompute. Tyle, że większość starszych kart (i nowszych w przypadku Nvidii) jest słaba w GPGPU, więc chodzi to jak chodzi. Twoja "pseudo" wnikliwa analiza niewiele ma więc wspólnego z rzeczywistością.