Zaloguj się, aby obserwować  
Gram.pl

GREE przewiduje zacieranie się różnic między PC a smartfonami

34 postów w tym temacie

Jeżeli casualami nazwiemy przeciętnych użytkowników PCtów, którzy używają go do niewymagającej pracy, przeglądania Internetu i grania w takie gry jak saper - tak, to jest rozwiązanie dla nich.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.09.2012 o 16:39, Zgreed66 napisał:

> wiec wg Ciebie to rozwiazanie dla casuali
Jestem casualem, ze 99% czasu mój komp stoi w idlu? ;p

a nie?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.09.2012 o 22:30, Blady199 napisał:

a nie?

A dlaczego, tak?
Jeżeli gram, to potrzebuje mocnego kompa, ale w momencie jak nie gram. Cala moc się marnuje.
A, że gram coraz mniej, to coraz więcej czasu komp leci na idlu...
Wg twojej teorii "hardcore", to dzieciak napinajacy 24/7 ;)

Nawet gdyby jakie ostatnio "hardcore''owe" tytułu powychodziły które by kompa ścieły?
W2, BF3? Daj spokój ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.09.2012 o 23:02, Zgreed66 napisał:

Jeżeli gram, to potrzebuje mocnego kompa, ale w momencie jak nie gram. Cala moc się marnuje.

Żadna moc się nie marnuje. W każdym razie nie w nowoczesnym komputerze. Co nie jest używane jest w nim po jakimś czasie nieaktywności wyłączane. A jeżeli ja jako user dodatkowo każę mu po 10 min. nieaktywności przejść do uśpienia, a po dalszych 10 do hibernacji, to prąd nie idzie nawet na zasilanie zasilacza. :)
Potencjalna moc obliczeniowa i związane z tym maksymalne zużycie energii nie jest tym samym co bieżąca moc przetwarzania i związana z tym zużywana energia.

Dnia 23.09.2012 o 23:02, Zgreed66 napisał:

Nawet gdyby jakie ostatnio "hardcore''owe" tytułu powychodziły które by kompa ścieły?
W2, BF3? Daj spokój ;)

Obecny trend w budowie procesorów jest taki aby były one zbudowane z dużej ilości wolno przetwarzających rdzeni, z których każdy pobiera bardzo mało prądu nawet przy maksymalnym przetwarzaniu i na dodatek jest włączany tylko w miarę potrzeb. Niewiele czasu potrzeba aby te same jednostki obliczeniowe były stosowane do dużych komputerów i smartfonów różniąc się tylko ilością wbudowanych rdzeni. Na przykład w smartfonach mogłoby być ich 4x1,5 GHz, a w desktopie 32x1,5 GHz. Dla tego pierwszego w zupełności wystarczy mała bateria, a dla drugiego już nie.
Osobną sprawą są układy graficzne, ale przy obecnym trendzie robienia nie CPU, ale APU możliwe, że również ten problem zniknie.
Warto pamiętać, że smartfon, to funkcjonalnie mały pecet z wbudowanymi głośnikami, mikrofonem, klawiaturą, monitorem i ups-em. Niektóre z nich już mają, albo będą mieć złącze usb 3.0, więc będą mogły bezproblemowo pracować z dyskami hdd i ssd, dzięki złączom hdmi oraz usb mogą mieć podłączoną klawiaturę, mysz i nawet ekran full HD. Nawet internet mogą uzyskiwać przez wi-fi z lokalnego AP routera. Dlatego najprawdopodobniej za jakiś czas przejmą rynek od najtańszych biurowych desktopów z integrą na pokładzie.
Smartfony na dodatek mają dodatkowe urządzenia, które pecetom nie są do niczego potrzebne. Są nimi odbiornik GPS oracz czujnik bezwładnościowy. Oba nadają się zarówno do pracy jak i do gier. Ba, widziałem zastosowanie smartfona jako komputer pokładowy do motolotni, w tym do bezpiecznej nawigacji i lądowania w warunkach zerowej widoczności (to dałoby się zastosować również jako system awaryjny w tradycyjnym samolocie).

ps. Koncepcja mobilnego komputera pokładowego takiego jak R2-D2 ze Star Wars przestaje się w tym kontekście wydawać głupia, a zaczyna mieć sporo sensu. Niewykluczone, że kiedyś tak będą wyglądać pecety.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 24.09.2012 o 01:28, Olamagato napisał:

Potencjalna moc obliczeniowa i związane z tym maksymalne zużycie energii nie jest tym
samym co bieżąca moc przetwarzania i związana z tym zużywana energia.

Źle zbudowałem zdanie ;)
Mialem na myśli, ze przechodzi do idla, a nie leci na 100%.
W koncu po co mi 4rdzenie do surfowania ;p
Co prawda też można polemizować ile watow to będzie ciągnąc.
Dla przykładu APU o wydajności Phenoma II ciągnie od niego mniej ;)
Tutaj gratuluję osobom które walą OC i po napięciach a potem to stoi na idlu ;d
Ale tak, oczywiście zgadzam sie. Jednak dalej kwestia indywidualnych potrzeb.

Dnia 24.09.2012 o 01:28, Olamagato napisał:

Na przykład w smartfonach mogłoby być ich 4x1,5
GHz, a w desktopie 32x1,5 GHz. Dla tego pierwszego w zupełności wystarczy mała bateria,
a dla drugiego już nie.

Tak, ukłądy heterogeniczne. Przechodzimy z jednego wątku na wiele ;)

Dnia 24.09.2012 o 01:28, Olamagato napisał:

Osobną sprawą są układy graficzne, ale przy obecnym trendzie robienia nie CPU, ale APU
możliwe, że również ten problem zniknie.

Ta, jak mój radeon 4870. Dla ktorego w idlu obniżam takty wraz z napięciem z 1.263 na 1.083 (poziom 4850).
Spadek temperatury z 60stopni nawet do 42.
Tak samo działa ze starszymi gierkami, które nawet z GPU ustawionego na 200/200 nie potrafią wykorzystać ^^

Dnia 24.09.2012 o 01:28, Olamagato napisał:

ps. Koncepcja mobilnego komputera pokładowego takiego jak R2-D2 ze Star Wars przestaje
się w tym kontekście wydawać głupia, a zaczyna mieć sporo sensu. Niewykluczone, że kiedyś
tak będą wyglądać pecety.

Co do samego głownego tematu.
Biorac pod uwagę jak wygląda dziś tworzenie gier. Jest to całkiem możliwe IMO.
To pecety bedą miały tendencje do chudnięcia chyba ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 24.09.2012 o 01:59, Zgreed66 napisał:

Tak, ukłądy heterogeniczne. Przechodzimy z jednego wątku na wiele ;)

Tyle, że tu też jest haczyk. Taki sposób działania wymaga softu napisanego zupełnie od nowa.

Dnia 24.09.2012 o 01:59, Zgreed66 napisał:

Ta, jak mój radeon 4870. Dla ktorego w idlu obniżam takty wraz z napięciem z 1.263 na
1.083 (poziom 4850). Spadek temperatury z 60stopni nawet do 42.

A gdybys miał radka w serii >4, czyli np. 5870, to uzyskałbyś o wiele więcej i to bez ręcznego kombinowania z underclockingiem bo od tego gpu wszystkie następne mają technologię zero core. Przy pracy w 2D schładzają się do temperatury pokojowej. Najnowsze siódemki przechodzą w takiej sytuacji na chłodzenie pasywne.

Dnia 24.09.2012 o 01:59, Zgreed66 napisał:

Tak samo działa ze starszymi gierkami, które nawet z GPU ustawionego na 200/200 nie potrafią
wykorzystać ^^

W lapku mam wbudowanego 6520G, który jest zupełnie wystarczający do grania w ME1/2/3. A bierze to to jakieś 20W. Na wylocie powietrza ciężko nawet ręce ogrzać.

Dnia 24.09.2012 o 01:59, Zgreed66 napisał:

To pecety bedą miały tendencje do chudnięcia chyba ;)

Na pewno prądowo i temperaturowo. Zapewne pamiętasz jak jeszcze nie tak dawno była jakaś głupia moda na kupowanie zasilaczy 600-1000W. Dzisiaj nie ma to większego sensu poza wpakowaniem 3 lub nawet 4 kart graficznych high-end, których przez najbliższe 3-4 lata nie będzie w stanie sensownie wykorzystać żadna gra.
A kiedy już jakaś będzie mogła, to ten ktoś będzie używać takiego smoka pożerającego ogromne ilości prądu i robiącego za grzejnik podczas gdy sąsiad kupi sobie jakiegoś słabego peceta biorącego głupie 200W (albo nawet silniejszego lapka i będzie uruchamiać to samo w tej samej jakości.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 24.09.2012 o 09:04, Olamagato napisał:

Tyle, że tu też jest haczyk. Taki sposób działania wymaga softu napisanego zupełnie od
nowa.

Tak to oczywiste, przykładowo jak wchodziły pierwsze dwurdzeniówki.
Lepiej było mieć lepiej taktowaną jednordzeniówkę niż dwu. Z czasem sytuacja się odwróciła ;)
Teraz tak jest (jeszcze) z dwu-cztero.

Dnia 24.09.2012 o 09:04, Olamagato napisał:

A gdybys miał radka w serii >4, czyli np. 5870, to uzyskałbyś o wiele więcej i to
bez ręcznego kombinowania z underclockingiem bo od tego gpu wszystkie następne mają technologię
zero core.

Patrząc po wykresach np na anandtech wcale wiele nie tracę ;)
Po zejsciu na poziom 4850/3870 to tam parenascie watów było.
Pełne obciążenie to inna sprawa (na moje warunki to jest rzadkość - mam jeszcze profil dla 4850),
ale biorąc po uwage, że wydajność ma na poziomie 5770,7750. Nie mogę narzekać.
Jedyne co mnie martwi to zejscie kart AMD WDDM 1.1 do Legacy jeżeli chodzi o drivery.
Choć w sumie za pare lat jak zmienie bydlaka to sytuacja straci na znaczeniu ;)
Sama instalacja AtiTrayToola wraz z profilami to nawet nie pięć minut roboty na instalacje systemu ;p
Ale też dziwne, ze w erze gdzie tyle osob o OC woła (choć nie tak dużo jak kiedyś) to ja tu walcze o underclocking ;p
Pewnie to OC to sztuka dla sztuki.

Dnia 24.09.2012 o 09:04, Olamagato napisał:

Przy pracy w 2D schładzają się do temperatury pokojowej.

Doszedlem do wniosku, że jak inżynier orzeka, że 60-80 stopni GPU nie jest groźne to moze pracować.
Kumpel do niedawna pracował z Radeonem HD 2900XT, to bydło grzało się jeszcze bardziej od mojego.
A było jeszcze 2 lata starsze. Jak przyjdzie mi na myśl gdzieś to podłączyć to pewnie bedzie jeszcze troche hulac.
Ale faktycznie niższe temperatury fajna rzecz ;p (pomijam, że pobor prądu = temp :P)

Dnia 24.09.2012 o 09:04, Olamagato napisał:

Najnowsze siódemki przechodzą w takiej sytuacji na chłodzenie pasywne.

Heh w moim przypadku musze boxowy cooler od CPU zmienić. To on mi dokucza ;d
Ale to jak zmienie na APU za pare dni. Karta jak już zejdzie do idla ma z 700 rpm to jej własciwie nie słysze.
Ale faktycznie fajny bajer. Miałem wczesniej 3850 to na niego wmontowałem Accelero S1.
Wtedy się dowiedziałem, co to komputer chodzący pasywnie ^^
Kolega na 4850 to też sobie wrzucił, także uhahany

Dnia 24.09.2012 o 09:04, Olamagato napisał:

W lapku mam wbudowanego 6520G, który jest zupełnie wystarczający do grania w ME1/2/3.
A bierze to to jakieś 20W. Na wylocie powietrza ciężko nawet ręce ogrzać.

Miałem kiedyś 7600GT, to chyba miało 40w, ale to był rok chyba 2005. ;p
Tez problemów z ME 1/2 nie mialo ;)

Dnia 24.09.2012 o 09:04, Olamagato napisał:

A kiedy już jakaś będzie mogła, to ten ktoś będzie używać takiego smoka pożerającego
ogromne ilości prądu i robiącego za grzejnik podczas gdy sąsiad kupi sobie jakiegoś słabego
peceta biorącego głupie 200W (albo nawet silniejszego lapka i będzie uruchamiać to samo
w tej samej jakości.

Pamiętam jak kiedyś walczyłem o 400W zasilacz. W sumie dziś mam niby Lepę W450, ale obwód 12V ma jak niektóre mocne 400 (360W) ale starczyć starczy spokojnie. W sumie patrząc jak wyglądają dziś laptopy.
To możlwiości jakie rozmiary może przyjać PC stają się martwym argumentem ;)
Jak ostatnio porównywałem procesory, to stwierdziłem, że nie licząc tych ostatnich i5, czy i7 za ciężkie pieniadze.
To w zasadzie z wydajnością stoimy z nimi od 2006 roku czyli Core 2 Duo ;)
Co też sporo mówi o ostatnitch tendencjach.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 24.09.2012 o 12:57, Zgreed66 napisał:

Jak ostatnio porównywałem procesory, to stwierdziłem, że nie licząc tych ostatnich i5,
czy i7 za ciężkie pieniadze.
To w zasadzie z wydajnością stoimy z nimi od 2006 roku czyli Core 2 Duo ;)
Co też sporo mówi o ostatnitch tendencjach.

Dlatego właśnie zamiast zarywać się na dodatkową 1/5 wydajności więcej @koszmarnie drogich wynalazkach typu I7 poprzestałem na najsłabszym licząc nominalne taktowanie A6@1,5GHz, w porywach 2,4 lub jak dokręcę, to 3GHz - za śmieszne pieniądze.

Nie wiem czy wiesz, ale ostatnio APU ładnie się "rozwątkowały". Chodzi o to, że jeżeli puszczę coś bardzo męczącego obliczeniowo na jednym rdzeniu (100% czasu procka), to jakimś "cudem" ~50% mocy przeniesie się na drugi i połowa z tego na trzeci. Jeżeli puszczę na 2 rdzenie, to znowu trzeci dostanie 75%, czwarty połowę z tego, a piąty ćwiartkę. Przy trzech rdzeniach trochę roboty dostaną kolejne trzy rdzenie (jeden najwięcej, pozostałe proporcjonalnie mniej). Itd. Tajemnica tego wynika z budowy APU, który wykrywa wszelkie obliczenia, a te potrafi już sobie efektywnie podzielić na wątki obliczeń zmiennoprzecinkowych. I może nawet wykorzystać do tego jednostki z gpu.
To dlatego część gier pierwotnie jednowątkowych korzysta w pewnym stopniu z procesorów kilkurdzeniowych. W każdym razie taki myk działa na nowych APU od AMD. Choć więc są w testach nominalnie słabsze od Inteli, to w grach gdzie jest dużo obliczeń całkiem sobie radzą.
Taki mały offtopik. :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 24.09.2012 o 15:01, Olamagato napisał:

Dlatego właśnie zamiast zarywać się na dodatkową 1/5 wydajności więcej @koszmarnie drogich
wynalazkach typu I7 poprzestałem na najsłabszym licząc nominalne taktowanie A6@1,5GHz,
w porywach 2,4 lub jak dokręcę, to 3GHz - za śmieszne pieniądze.

Tutaj to samo :)

Dnia 24.09.2012 o 15:01, Olamagato napisał:

Taki mały offtopik. :)

Dobrze wiedzieć.
Jako, że branża nie działa jak jeszcze ~10lat temu i cięzko oczekiwać od recenzentów podobnych wniosków.
Dziś już ostały się tylko śmieszne wykresy. A ciekwszych artykułów ziro, nada, null.
Tomasz Niechaj jeszcze rok temu kilka ciekawych popełnił.
(np o narzucie sterowników na proc, albo czy mój cpu blokuje kartę).
W tym nic już nie widziałem :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.09.2012 o 11:11, Henrar napisał:

Jeżeli casualami nazwiemy przeciętnych użytkowników PCtów, którzy używają go do niewymagającej
pracy, przeglądania Internetu i grania w takie gry jak saper - tak, to jest rozwiązanie
dla nich.


Widać, że nie próbowałeś grać na smartfonach. Może do części gier faktycznie się nie nadają, ale np. Broken Sword przypomniałam sobie z przyjemnością. Na Galaxy Note śmiga aż miło!

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 14.11.2012 o 10:36, Mohito napisał:

Widać, że nie próbowałeś grać na smartfonach.

Próbowałem, ba do tej pory gram na wykładach. Swoje zdanie podtrzymuję. Do gier zręcznościowych w 3D (a pod tą kategorię podpadają TPSy i FPSy, slashery i reszta) ekrany dotykowe się nie nadają.
Do point''n''clicków i turowych cRPGów/strategii jak najbardziej, ale to komórkowa nisza. Sorry, ale taka jest prawda.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wybaczcie jeżeli uznacie moją wypowiedź za wulgarną!

...ale moim zdaniem, gry na smartfonie nadają się do poklikania podczas posiedzenia w kiblu.
Brak precyzji (precyzyjnym narzędziem nie można nazwać klawiszy ekranowych) powoduje, że w dynamiczne gry bawi się bardzo słabo.
Bez fizycznych klawiszy niestety smartfon leży pod tym względem.

Żebyśmy mieli jasność. Jestem zadowolonym użytkownikiem Androida, przeszedłem na nim nawet Meta Gear Solid 1 na emularze PS One. Uważam jednak, że jest to zabawa dla wytrwałych.

Po przerobieniu Fify, samochodowek różnej maści, Majesty, NOVA, 9mm, i wielu innych gier na smartfonie pozostały mi zainstalowane Samurai II Vengeance (ktory jest akurat świetny) i Cut the Rope. Nic nie widzę w Angry "Berds" ;) Telefon wyjmuję w celu pogrania tylko we wspomnianych wyżej okolicznościach :P

Pzdro

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować