Zaloguj się, aby obserwować  
Gram.pl

Wiedźmin 3: Dziki Gon otrzyma nową wersję zwiastunu Elder Blood

100 postów w tym temacie

Zabawne jest że można wypuścić kilka albo kilkanaście całkiem fajnych trailerów/gameplayów a i tak ludzie zapamiętaj tylko jeden i na podstawie tego wydają opinie - ten gdzie zauważą gorsze tekstury :)

Ja tam poczekam te kilka miesięcy na grę i przekonam się na własne oczy jak wygląda. Aczkolwiek ja nie zamierzam robić żadnych porównań graficznych. Dla mnie albo gra albo jest fajna i gra się przyjemnie albo nie. Proste jak włos mongoła.
Współczuje ludziom którzy zamiast grać będą robić screeny nagrywać filmiki i szukać dziury w całym :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 08.12.2014 o 13:08, wolverine napisał:

Ja tam poczekam te kilka miesięcy na grę i przekonam się na własne oczy jak wygląda.


To chyba efekt ciągłego wciskania nam kitu przez różne firmy także CDPR więc ludzie są przewrażliwieni, cieżko im się dziwić.

Dnia 08.12.2014 o 13:08, wolverine napisał:

Aczkolwiek ja nie zamierzam robić żadnych porównań graficznych. Dla mnie albo gra albo
jest fajna i gra się przyjemnie albo nie. Proste jak włos mongoła.


Owszem, może to łysi tego nie rozumieją w tkaim razie;P chociaż swoją drogą też nie zamierzam robić żadnych porównań lecz gdy mi się reklamuje grę lepszą grafiką a dostaje gorszą to pewien niesmak jest. Broń boże to nie powinno wpływać na ocenę gry ale na ocenę developera/wydawcy to już tak.

Dnia 08.12.2014 o 13:08, wolverine napisał:

Współczuje ludziom którzy zamiast grać będą robić screeny nagrywać filmiki i szukać dziury
w całym :)


Też im współczuje. Zresztą to samo jest z rozdziałką, znam gości co dla nich wachania 50-60klatek to jest produkt niegodny grania i się nie da ;/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Po pierwsze: Co się stało z twarzą Yennefer?
Po drugie: Wolałbym aby nie zaniżali jakości grafiki w wersji pecetowej na rzecz konsolowych, a widzę, że idzie to w tą stronę. Przypomnijcie sobie Watch Dogs i Dark Souls 2 - tu będzie to samo. Szczerze? Wolałbym by wersja pecetowa była jak najładniejsza i gdybym miał problemy z płynnością to po prostu wrzuciłbym drugiego R9 290 do tandemu cieszył się zakończeniem trylogii Białego Wilka w godnych wizualiach.

PS. Grałem w Wiedźmina 2 na kompie z c2d@3GHz, 3GB DDR2, Radeon 4870 i chyba na średnich, 1366x728 przez większość czasu była płynna ale podczas walk w Vergen miałem 17fps i ciężko było w to grać. Mam tylko nadzieję, że Redzi nie pójdą drogą AC Unity i nie zrobią gry brzydkiej, a zarazem o wymaganiach z kosmosu. Niech będzie pięknie i z chorymi wymogami (jak za czasów Crysis 1) albo brzydko ale przystępnie. Wolałbym opcję nr 1.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 08.12.2014 o 13:05, lis_23 napisał:

Z testów kart graficznych wynika, że u mnie jest ok. 48 Ffps:


Nie mam uwag. Oceniać wydajność komputera na podstawie testu kart graficznych. O czym my tu w ogóle rozmawiamy człowieku...

Dnia 08.12.2014 o 13:05, lis_23 napisał:

Nie pisałem o ubliżaniu mojej osobie, tylko twórcą gier.


Czyli z cyklu "co prezes Kaczyński miał na myśli".
Nie rozumiem tez jak można komukolwiek [nawet twórcom gier] ubliżyć podsumowując fakt, że wydali marny technicznie produkt [czyli w skrócie crap optymalizacyjny].
Rozumiem natomiast, że w 21 wieku, dobie internetu, nie ma już wcale krytyki jest tylko hejt i fanbojstwo a jak ktoś operuje normalnymi argumentami ale nieprzychylnymi dla danego studia to z miejsca najlepiej okrzyknąć go chamem i hejterem. Po raz wtóry - nie mam uwag na tak mizerny poziom merytorycznej dyskusji [ale wiadomo, że gdzie kończy się siła argumentu tam zaczyna się argument siły]

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 07.12.2014 o 22:49, Leos8 napisał:

Wierzam, od dawna widzę, że gracze stają się coraz bardziej rozwydrzeni i bezmyślni w
swym rozwydrzeniu. Na szczęście są osoby, które przywracają wiarę.


i w drugą stronę, ignoranci coraz bardziej brną w ignorancję, do poziomu gdy ich absurdy przestają być śmieszne a zwyczajnie budzą zażenowanie. Zwłaszcza, jak (i tu przy okazji uwaga dla heheśmieszka Dareda) myli się dwie zupełnie różne kwestie, downgrade z wymaganiami a wymagania z jakością grafiki. W maksymalnym skrócie - ludziom nie przeszkadza, że wymagania są z kosmosu, jeśli tylko grafika jest obłędna a podany sprzęt faktycznie pozwala ją utrzymać. Ludziom przeszkadza, jeśli powyższy ciąg jest zaburzony - np. wymagania są z kosmosu, a gra wygląda jakby miała cztery lata. Albo jak w przypadku unity, nawet mimo przekroczenia wymagań ledwo utrzymuje płynność. Albo jak w przypadku watch dogs, nie dośc że jest taka saobie graficznie i ma problemy z płynnością, to jeszcze wygląda wyraźnie gorzej niż na trailerach prezentujących rzekomo grę w ruchu. A teraz dodaj do tego jeszcze, że dostajesz port z konsoli która jest technicznie kilka razy słabsza (doprawdy, przy całej mojej sympatii do AMD nie porównujmy APU jaguara wspartego ~5GB ram do topowego intela z dwoma topowymi GTXami 980 i 16 GB RAM; jasne, można się zasłaniać optymalizacją, ale tego AC nie uruchamiasz przez emulator, żeby faktycznie przy takiej różnicy mocy obliczeniowej wymagania różniły się aż tak drastycznie, jeśli graficznie większych różnic nie ma) a i tak wygląda i działa tak sobie.

tl;dr to nie jest rozwydrzenie, ludzie po prostu nie lubią być dymani. Tylko nie wiem czemu muszę tłumaczyć rzeczy oczywiste :|

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Co przy okazji wypowiedzi pewnego na temat jednej gry co ma wymagania z kosmosu nie współmierne do grafiki prezentowanej.

https://www.youtube.com/watch?v=6L3jwNQ4BEc

Angry joe i Dying light na x360 i szczerze to co ostatnio techland pokazał jak grę na next geny to śmiech na sali.

A co do CDP i W3 raczej gry nie kupię bo jak robią downgrade graficzny to znaczy że coś spier!@#!#@!!

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 15:03, dark_master napisał:

i w drugą stronę, ignoranci coraz bardziej brną w ignorancję, do poziomu gdy ich absurdy
przestają być śmieszne a zwyczajnie budzą zażenowanie. Zwłaszcza, jak (i tu przy okazji
uwaga dla heheśmieszka Dareda: ciach!


No właśnie - jak zdefiniować tę obłędną grafikę, która będzie proporcjonalna do podanych wymagań? Jeśli ta z Wiedźmina nie jest obłędna, to nie wiem w takim razie jaka powinna być obłędna. Wersja trailera jest z XOne, który monstrum wydajności nie jest, więc nie dziwota, że wygląda gorzej niż wersja ultra-max na PCty - na dodatek to jest sandbox, wiele rzeczy do renderowania, zasięg wzroku, dodatkowe mechanizmy, które muszą być cały czas obliczane jak zachowanie tłumu albo generowane losowo wydarzenia - czemu gracze nagle zapominają o tym wszystkim i jedyne, co są w stanie widzieć to "O BOŻE TE PIKSELE NIE SĄ W 7200P!?". To jest rozwydrzenie - niezdolność do patrzenia na szersze spektrum powodów i zjawisk, a tylko na czubek góry lodowej. Poza tym czy nextgenowość opiera się tylko na lepszej grafice czy także na fizyce, symulacji zachowania tłumów, lepszym gameplayu, większej mocy i możliwości robienia większych gier, jednak w ramach możliwości sprzętowych, gdzie trzeba czasem iść na ustępstwa, by firma dalej mogła sprzedać produkt? Nie zrozum mnie źle - za wciskanie kitu i mydlenie oczu należy się niektórym firmom dać po łapach. Ale gracze też powinni czasem ujrzeć szerszy obraz; grafika to nie jest wszystko, to ledwie powierzchnia tego, co się dzieje pod płaszczem wizualnym.

>Ludziom przeszkadza, jeśli powyższy ciąg jest zaburzony - np. wymagania są

Dnia 08.12.2014 o 15:03, dark_master napisał:

z kosmosu, a gra wygląda jakby miała cztery lata. Albo jak w przypadku unity, nawet mimo
przekroczenia wymagań ledwo utrzymuje płynność. Albo jak w przypadku watch dogs, nie
dośc że jest taka saobie graficznie i ma problemy z płynnością, to jeszcze wygląda wyraźnie
gorzej niż na trailerach prezentujących rzekomo grę w ruchu. A teraz dodaj do tego jeszcze,
że dostajesz port z konsoli która jest technicznie kilka razy słabsza (doprawdy, przy
całej mojej sympatii do AMD nie porównujmy APU jaguara wspartego ~5GB ram do topowego ...


I tutaj się zgodzę - jeśli gra nie spełnia wymogów graficznych i grywalnościowych (?dobre słowo?), wtedy gracze mają prawo czuć się rozczarowani. Jeśli gra nie jest zoptymalizowana należycie (Unity to chyba sztandarowy przykład) wtedy też mają prawo okazywać niezadowolenie i zwyczajnie się dopominać swojego. Jeśli jednak po trailerze ludzie zaczynają krzyczeć, że downgrade, oszukanie i mistyfikacje (a nie patrzę nawet, że to CDP), zaś sam trailer prezentuje kompresję z XOne, to dla mnie coś jest nie tak. A mowa o cofaniu pre-orderów i hasła o oszukiwaniu? No proszę, to jest przesada.

Suma sumarum: Rozumiem rozczarowania i podejrzenia ludzi, ale to też zakrawa na paranoję. Zdrową podejrzliwość lubię, ale opluwanie firmy i gry za sam trailer z XOne to też przesada. Gracze mają prawa wymagać, bo są klientami, ale bądźmy ludźmi i miejmy rozsądek.

PS. Jeszcze jedna sprawa jest to, że ludziom wydaje się, że next-gen przyniesie jakiś kolosalny skok jakości, jak to było z Xboxem360. Next-gen niekoniecznie oznacza (Zwłaszcza ten, który i tak już został w tyle za PC na starcie), że nagle grafika, grywalność i symulacja pójdą do przodu, na to potrzebna jest ewolucja i czasem, niestety, metoda prób i błędów.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 15:03, dark_master napisał:

całej mojej sympatii do AMD nie porównujmy APU jaguara wspartego ~5GB ram do topowego
intela z dwoma topowymi GTXami 980 i 16 GB RAM; jasne, można się zasłaniać optymalizacją,
ale tego AC nie uruchamiasz przez emulator, żeby faktycznie przy takiej różnicy mocy
obliczeniowej wymagania różniły się aż tak drastycznie, jeśli graficznie większych różnic
nie ma) a i tak wygląda i działa tak sobie.

Problem w tym, że gość co ma topowego intela, 2x GTX 980 i 16 gb ram nie odpala Unity w ustawieniach konsolowych. 7870 wysiada już na low. A taki PCtowiec dowali w ujHD, MSAA, każdy śmieć od NV.
Więc jeżeli 980 ma na low 65fps, a 7870 20fps. To ile fps będzie mieć 7870 na Ultra?
No, niby nie porównujmy, ale jednak... a różnice są. Tak szczerze to nawet nie wiem jak Unity reaguje na SLI.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 15:09, Pietro87 napisał:

Amen.
Tego posta się powinno niektórym cytować jak mantrę. Może by do nich coś wtedy dotarło.

Napisał to gość, co miesza DRM od wydawcy z właściwą optymalizacją gry.
Seems legit.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 08.12.2014 o 16:38, Zgreed66 napisał:

Napisał to gość, co miesza DRM od wydawcy z właściwą optymalizacją gry.
Seems legit.


W przypadku W2 i wielu innych gier DRM był nie raz przyczyną gównianej wydajności. To jest fakt niezaprzeczalny. Tak samo jak często bronione przez samych twórców gier [tak twórców nie wydawców] DRMy i wciskanie nam kitu, że to wszystko nasza wina bo nie mamy kolejnej kostki z 8GB ram.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 16:41, Pietro87 napisał:

W przypadku W2 i wielu innych gier DRM był nie raz przyczyną gównianej wydajności. To
jest fakt niezaprzeczalny.

Ja temu nie przeczę. Ale to są 2 różne problemy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

>Wersja trailera jest z XOne, który monstrum wydajności nie jest, więc nie

Dnia 08.12.2014 o 16:29, Leos8 napisał:

dziwota, że wygląda gorzej niż wersja ultra-max na PCty - na dodatek to jest sandbox,


Naprawdę? Podaj źródło i wypowiedź Redów że trailer jest z XOne. Czytam forum wiedźmina i jakoś nikt nie wie na czym odpalony był ten trailer. No chyba że coś przeoczyłem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 08.12.2014 o 16:43, Zgreed66 napisał:

Ja temu nie przeczę. Ale to są 2 różne problemy.


No nie specjalnie to są dwa różne problemy, jeśli dany twórca gier zgadza się na DRM który dosłownie zajedzie wydajność to coś tu jest nie tak. Dla mnie to tak samo spartolony element optymalizacji jak źle załatany silnik który ma "wycieki pamięci". To zespół odpowiedzialny za grę jest jak sama nazwa wskazuje - odpowiedzialny. Głównie za to co dostanie konsument który to ma dać im zarobić na swoim produkcie. Kiedyś już napisałem, ze próbuje nam się wciskać kawałek gówna zawinięty w papierek po cukierku i wmawiać, że to pyszna trufla, niestety ten trend się dalej utrzymuje.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 14:06, Pietro87 napisał:

Nie mam uwag. Oceniać wydajność komputera na podstawie testu kart graficznych. O czym
my tu w ogóle rozmawiamy człowieku...


Czyli, co? Testy są zakłamane? Nie odzwierciedlają prawdy? Niby czemu mam im nie wierzyć?
Ważne, że mnie gra się dobrze i że nie czuję żadnego chrupania, cięcia się, itp. jeżeli ja jestem zadowolony to nikt mi nie wmówi, że jest inaczej. Ja nie potrzebuję tych 60 czy 120 kl/s, na szczęście nie gram w strzelanki przez neta, gdzie taka płynność jest konieczna.

Pietro, przez lata uważałem Cię za jednego z rozsądniejszych forumowiczów ale teraz wychodzi z Ciebie taki typowy hejter na których nie mogę już po prostu patrzeć .... Gram, GOL, Filmweb, itp.
Jak można oceniać optymalizację gry, która jeszcze się nie ukazała? Możecie sobie pisać co chcecie ale dopiero po premierze gry, nie ocenia się niedokończonego produktu i dotyczy to tak samo gry, jak i filmu, etc. Moim zdaniem, dopóki gra nie trafiła jeszcze na sklepowe półki należy zaufać twórcą, na hejt jeszcze będzie czas.
Wytłumacz mi jeszcze, co było nie tak z optymalizacją pierwszego " Wiedźmina "?

Athlon64x2 4200+
2GB RAM
ATI Radeon X1900XT
Vista 64 bit

grałem w rozdzielczości 1280x1024 ( taki miałem wtedy monitor ) i nie odnotowałem żadnych problemów z grą, ale to było na przełomie 2007 / 2008, więc trochę dawno temu.
Ogólnie, wiele gier chodziło mi lepiej w dniu premiery, niż później, przykładem niech będzie '' Gothic 3 ".

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 17:00, lis_23 napisał:

dopóki gra nie trafiła jeszcze na sklepowe półki należy zaufać twórcą


Tylko krótko informuję, że po tym, jak dwa razy błędnie napisałeś źle, w poście #66 zwrócono ci uwagę.
Trzeci raz w jednym wątku ten sam błąd. ;)

==

Czy to, że zwiastun był na wersji X1, jest potwierdzony u źródła?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 08.12.2014 o 16:37, Zgreed66 napisał:

Problem w tym, że gość co ma topowego intela, 2x GTX 980 i 16 gb ram nie odpala Unity
w ustawieniach konsolowych. 7870 wysiada już na low. A taki PCtowiec dowali w ujHD, MSAA,
każdy śmieć od NV.
Więc jeżeli 980 ma na low 65fps, a 7870 20fps. To ile fps będzie mieć 7870 na Ultra?
No, niby nie porównujmy, ale jednak... a różnice są. Tak szczerze to nawet nie wiem jak
Unity reaguje na SLI.

IIRC to ten gość mówił, że ta gra działa tak samo beznadziejnie niezależnie od ustawień.
B''sides w zasadzie powtarzasz/udowadniasz to co napisałem wyżej - gra na low na TOPOWYM PC za grube tysiące (sama grafika to 2,5k zł) ledwo osiąga 65fps, mimo iż w "tych samych ustawieniach" (w uproszczeniu ofc) na konsoli jakoś udaje jej się trzymać w okolicach 30fps, mimo iż konsola to ekwiwalent budżetowobiurowej sklejki proca z grafą za 600 zł. I to takiej z poprzedniej generacji sklejek, jesli mnie pamięć nie zawodzi. Nawet biorąc pod uwagę, że optymalizowanie gry na konsolę to nie to samo co na PC, to wymagania są zwyczajnie chore, zwłaszcza jeśli gra i tak wygląda bylejak.
Wracając do czego mówiłem w poprzednim poście - jasne, ludzie nie byli zachwyceni jakiego potwora wymagał pierwszy Crysis, ale grafika jaką prezentował wgniatała w fotel i de facto przez dużą część ówczesnej generacji konsol mało co się do niego choćby zbliżyło pod tym względem, więc gorycz przy zakupach była w pewien sposób rekompensowana efektem jaki się osiągało (a już zwłaszcza po premierze legendarnej "budżetowej" wszystkoodpalającej 8800GT rok później). Tutaj zaś wydajesz kupę kasy a i tak ani nie działa ani nie wygląda.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 19:49, Rifter napisał:

Tylko krótko informuję, że po tym, jak dwa razy błędnie napisałeś źle, w poście #66 zwrócono
ci uwagę.
Trzeci raz w jednym wątku ten sam błąd. ;)


Przepraszam, dopiero teraz zauważyłem, że powinno być " twórcom " ;)
Niestety, mam problemy ze wzrokiem, od urodzenia widzę tylko jednym okiem, do tego jestem raczej blisko, niż dalekowidzem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 08.12.2014 o 21:41, dark_master napisał:

IIRC to ten gość mówił, że ta gra działa tak samo beznadziejnie niezależnie od ustawień.

PC lab twierdzi co innego. Jak czytałem forum to forum też twierdzi co innego.

Dnia 08.12.2014 o 21:41, dark_master napisał:

B''sides w zasadzie powtarzasz/udowadniasz to co napisałem wyżej - gra na low na TOPOWYM
PC za grube tysiące (sama grafika to 2,5k zł) ledwo osiąga 65fps, mimo iż w "tych samych
ustawieniach" (w uproszczeniu ofc) na konsoli jakoś udaje jej się trzymać w okolicach
30fps, mimo iż konsola to ekwiwalent budżetowobiurowej sklejki proca z grafą za 600 zł.

Ale ty nie patrz na cenę, ale na wydajność.
Na przykładzie LOTF
http://pclab.pl/art60405-7.html
Bieda Pentium G za 200zł wyciąga 33,8fps! 30fps wiec dalej potrafi w teorii utrzymać framerate.
TOP i7 wykręcony na 4,5 ma 62 fps. Przeciętny 4 rdzeniowy HW ma 50fps. A i3 45!
BF 4
http://pclab.pl/art55318-3.html
Pentium 25 fps, i3 50 fps, i5 ~70 klatek zależnie od modelu i do 90fps po ostrym OC.
Warto zwrócić uwagę, że to na GeForce. Przez osób działania sterownika lepiej działa przypadku pentiuma na Radeonie a gdzie jest ~30klatek.

Różnica miedzy "padaką" za 200zł a Intlem za 700-800 wynosi te 100%. Ja nie wiem czego innego oczekiwać po 2rdzenie+2rdzenie. TOP intel to warunek posiadania ~60fps.

W przypadku graf to samo na medium
http://pclab.pl/art60405-9.html
"Padło" 7870 za 600zł 32 fps a FTX 980 77fps 285 43. (cena 900-100)

Na Ultra 980 Dalej ma 60fps, ale 7870 już dawno nie ma wstawce, a 285 ma 14,2 fps ;P
Krótko opisując grafa za tysionc w LOTF nie ma nawet połowy wymaganego fps do grania ;)

Unity nie wygląda inaczej
http://pclab.pl/art59163-16.html

Dnia 08.12.2014 o 21:41, dark_master napisał:

I to takiej z poprzedniej generacji sklejek, jesli mnie pamięć nie zawodzi.

Nie ma znaczenia. Znaczenie ma ile % jest wydajniejszy sprzęt za dużo $$$ i ile wymaga gra do osiągnięcia bieda 30fps. I czy zaraz jakiejś karcie czegoś nie braknie np ramu, albo przepustowości pamięci. przez co fps poleci na łeb.

Dnia 08.12.2014 o 21:41, dark_master napisał:

pod uwagę, że optymalizowanie gry na konsolę to nie to samo co na PC, to wymagania są
zwyczajnie chore, zwłaszcza jeśli gra i tak wygląda bylejak.

Jak dla mnie nie wygląda byle jak, ale wygląda obłędnie. A nawet niewiem jaki debil wpadł na pomysł pakowania tylu ludu na ulice. Jeszcze tak "wydetalowanych"

Dnia 08.12.2014 o 21:41, dark_master napisał:

Wracając do czego mówiłem w poprzednim poście - jasne, ludzie nie byli zachwyceni jakiego
potwora wymagał pierwszy Crysis, ale grafika jaką prezentował wgniatała w fotel

Działał u mnie na 7600GT na medium i też grafa dawała radę. Srsly.

Dnia 08.12.2014 o 21:41, dark_master napisał:

Tutaj zaś wydajesz kupę kasy a i tak ani nie działa ani nie wygląda.

No właśnie problem polega na tym, że oryginalny Crysis ni kij ni w oko nie chodził tak jak by ludzie tego oczekiwali na dzisiejsze standardy.
http://pclab.pl/zdjecia/artykuly/pila/radeon_hd_4000/wydajnosc/crysis-vhigh1280.png
http://pclab.pl/zdjecia/artykuly/pila/radeon_hd_4000/wydajnosc/crysis-vhigh1920.png

8800 GTX na Crysis V.High to mało. Jeszcze jest kwestia różnic między High, a V.high. Choć to znowu inna sprawa. Jak grałem na 4870 miałem na high 60fps w moich ustawieniach. Jak już dałem V.high to fps leciał na mordę xD A wygląd... z lupą szukać.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować