Olamagato

Moderator
  • Zawartość

    11482
  • Dołączył

  • Ostatnio

Wszystko napisane przez Olamagato

  1. Olamagato

    Podglądanie i zdobywanie Kosmosu

    Nie ma żadnego UFO. Zapewne zaobserowałeś zwyczajny efekt inwersji warstw powietrza, które spowodowały efekt lustra. To takie samo zjawisko jak fatamorgana, tylko inaczej umiejscowione. Te punkty, które widziałeś mogłby być po prostu odbiciem jakiegoś źródła światła, które zapewne znajdowało się na ziemi (np. jakiś reflektor, lampa itp.). Niekoniecznie blisko. W optyce nie ma żadnych czarów, ale w atmosferze czasem zdarzają się zjawiska rzadziej spotykane - na przykład można zobaczyć obraz terenu położonego bardzo daleko (np. kilkaset km lub kilka tys. km - zależnie od splotu warunków).
  2. Olamagato

    Problemy z komputerem (temat ogólny)

    Jeżeli chcesz przywrócić stabilność, to przede wszystkim wyłączasz wszelkie podkręcenia. Po drugie sprawdzasz czy nie zaktualizowały/zmieniły Ci się sterowniki, na których wszystko stabilnie działało (chodzi głównie o grafikę). Po trzecie usuwasz wszystkie tweaki na system.
  3. Olamagato

    Problemy z komputerem (temat ogólny)

    Być może coś przestawiło Ci opcję folderów "Zawsze pokazuje ikony, nie miniatury". Wtedy zamiast zawartości obrazków zawsze pokazuje tę samą ikonkę obrazka. Jeżeli jest to zaznaczone, wyłącz a problem powinien zniknąć. A po co miałby się pytać? Przecież jeżeli przenosi, to zawsze można z kosza przywrócić plik w oryginalne miejsce, więc nawet pomyłkę można łatwo anulować (również przez edycja - "cofnij usuń"). To dodatkowe zapytanie było w Viście i Win7 wkurzające i powinno występować tylko przy usuwaniu bez użycia kosza lub gdy czegoś do kosza nie da się przenieść (np. z powodu rozmiaru).
  4. Zaczynasz znowu walkę o bana? Kolejna kampania będzie krótsza... ;) Ostrzeżenie.
  5. Dlatego napisałem to w cudzysłowiu. Powiększanie pamięci cache zamiast polepszania architektury jest najprymitywniejszym i drogim sposobem uzyskania większej wydajności. Ale w pewnym momencie dochodzi się do ściany - ekonomicznej i wydajnościowej. Może dlatego, że tak jest skonfigurowany? ;)
  6. Pamiętam, ale koszt tego dodatkowego cache był ogromny i jego cena wcale nie uzasadniała tego przyrostu. Tym bardziej że w tamtym czasie tanie procesory AMD bardzo dobrze sobie radziły z wydajnością w porównaniu do serii P4, za kolosalnie niższe pieniądze i przy wiele mniejszej drogiej pamięci cache. W późniejszym okresie okazywało się, że pakowanie megabajtów cache do CPU było ekonomicznie ślepą uliczką bo nikt nie miał zamiaru płacić dodatkowego $1000 za kilka procent dodatkowej wydajności, którą można było uzyskać tańszymi sposobami niż "brute force" ;)
  7. Tak. Większość osób w ogóle sobie nie zdaje sprawy, że sposób użytkowania, który domyślnie proponują firmy software''owe (np. w ustawieniach domyślnych) wcale nie jest dla nich najkorzystniejszy. Najprościej zauważyć to po trendzie gdzie w instalatorach taniego lub darmowego softu domyślnie wybierane opcje doinstalowują Ci wręcz szkodliwe (z Twojego punktu widzenia) oprogramowanie. Czasem jest ono obiektywnie szkodliwe i nierzadko pojawiają się ostrzeżenia dla użytkowników. Pod warunkiem, że użytkownik będzie rozumiał, że o wiele większy wpływ na to ma fatalna jakość oprogramowania (np. idiotycznie napisane skrypty, czy zabugowany nieoptymalny soft) niż te uzyskane kilka taktów, które da również niemierzalny w takiej sytuacji efekt. Tu masz rację. Nie mówię, że nowsze procesory nic nie dają, lecz tylko to że niewiele dają pod jednym względem. Jeżeli za optymalizacje, które wpłyną pozytywnie w 1% czasu pracy masz zapłacić kolejne kilkaset $, to dla mnie to zawsze będzie miało znaczenie. Realny postęp to jedno, a marketing to drugie. Za pierwsze użytkownicy s skłonni zapłacić, za drugie nie powinni bo to po prostu ściema. :)
  8. Wiesz od kiedy i jakie cache najbardziej wpłynęło na działanie systemu operacyjnego? Było to w Windows 95, kiedy domyślnie instalowany program smartdrv.exe do obsługi 250MB dysków tylko używał 256 KB cache do zapisu. Nie potrzebował do tego 1, 2 czy 4 MB, a Ci którzy tak go ustawiali (w tym początkowo ja) odkrywali, że różnicy w wydajności obsługi dysków niemal nie ma (była prawie nieodczuwalna). Zmieniło się to dopiero kiedy większość komputerów zaczęła mieć na pokładzie 64 MB RAM i więcej. Wtedy zwiększenie tego cache do 4 MB przyspieszało obsługę. Ale znowu znaleźli się tacy, którzy ustawiali 16-32 MB i znowu odkrywali, że realnie niczego to nie przyspieszało (różnice były minimalne). W systemach od XP w górę i od kiedy dyski stały się naprawdę ogromne wielkość tego cache jest dynamiczna i daje duży przyrost trafień (czyli wydajności) ponieważ nawet tylko 10% dysku 500GB, to 50 GB - czyli dopiero przy pamięci RAM na poziomie 64 GB nie ma większego sensu zwiększać wielkości cache dyskowego. Przy dyskach o wielkości 2 TB przyrost trafień przestaje znacząco rosnąć dopiero przy cache o wielkości 200 GB, więc maksymalne zapychanie pamięci danymi cache opłaca się nawet na serwerach z 256 GB RAM. I to cała tajemnica dlaczego systemy takie jak Win7/8 oraz inne zapychają pamięć fizyczną danymi cache dyskowego do oporu i wciąż na tym korzystają. Co do tego, że fragmentacja pamięci RAM jest znikomym kosztem w porównaniu z zyskiem w postaci lepszych trafień cache dyskowego, to masz rację. Chodzi mi tylko o to, żeby nie traktować tego jak dogmat. To po prostu tylko kompromis wynikający z obecnego stosunku wielkości pamięci masowej oraz pamięci RAM. A ten wynika z kilku odkryć za które parę osób dostało Nobla. Gdyby nie to, to dzisiaj największe dyski magnetyczne byłyby wielkości i w cenach dzisiejszych SSD.
  9. Olamagato

    Problemy z komputerem (temat ogólny)

    Sterowniki sterują ustawieniami sprzętu. Zwykle ustawienia te trwają do następnego restartu, ale niektóre ustawienia rejestrów karty są trwałe, niewrażliwe na reset sprzętowy CPU i wpływają na wyświetlanie bez względu na tryb graficzny. Wyczyszczenie sterowników producenta zwykle oznacza obsługę karty przez sterownik ogólny pracujący w zgodności z VGA lub na sterownik dedykowany WHQL, który jest zawarty w instalacji systemu lub w ostatnim service packu. Te sterowniki często naprawiają ustawienia rejestrów po prostu przez przywrócenie stanu fabrycznego (np. reset sprzętowy karty, który nie ma nic wspólnego z resetem sprzętowym CPU). Takie samo przywrócenie potrafi wykonać sterownik AMD jeżeli wykryje zawieszenie sprzętowe karty graficznej (np. po przegrzaniu). Jest to funkcja standardowo obecna po uaktywnieniu AMD Overdrive. To tyle teorii. Resztę sprawdziłeś w praktyce. :)
  10. Ja mam odwrotne doświadczenia. Może głównie dlatego, że maszyny linuksowe nierzadko konfigurowali dyletanci. Tylko te dane muszą siedzieć w RAM no bo CPU niestety nie operuje na sektorach dysku. :) W teorii tak powinno być. To jest bez sensu, ale tylko jeżeli wszystko jest prawidłowo skonfigurowane. A różne już cuda widziałem, które teoretycznie nie powinny się prawie nigdy zdarzyć. Nie, i całkowicie to podtrzymuję. Windows jest systemem, który dobrze zarządza pamięcią wirtualną, ale zupełnie do dupy zarządza pamięcią dyskową. Dyski ulegają strasznej fragmentacji przy najprostszych operacjach - a już szczególnie przy użyciu kompresji w locie. Dla odmiany systemu X-owe zarządzają swoim typem pamięci masowej zupełnie nieźle, za to nieco gorzej pamięcią RAM (zwykle te same aplikacje potrzebują jej więcej i działają minimalnie wolniej). Nie. Pamięć wirtualna/RAM jest zupełnie czym innym niż pamięć masowa i np. organizacja danych na partycjach NTFS. To są dwie zupełnie różne dziedziny, które nie mają ze sobą wiele wspólnego. Wystarczy zwrócić uwagę na różnice efektywności działania aplikacji, w operowaniu na różnych systemach plików. A jeżeli już mamy analogię samochodową, to fakt że świetnie potrafi się operować gazem, nie oznacza, że ten sam kierowca równie świetnie potrafi się wchodzić w zakręty. :) A ja będę nonkonformistą i powiem Ci, że to bzdura. Zapychanie RAMu śmieciami powoduje że z punktu widzenia systemu przydział nowych partii pamięci jest bardziej skomplikowaną operacją bo system musi zdecydować których danych się pozbyć. A jak już zdecyduje, że pozbędzie się tylko części, to zwykle w wielu małych kawałkach, które choć są wirtualizowane, to jednak są pofragmentowane. Aplikacje są różne i niektóre żądają spójnego obszaru pamięci, który ma ścisłe wymagania - na przykład strony nie mogą być mapowane na plik wymiany, ale na pamięć fizyczną. I w tym momencie system zaczyna mieć problem z fragmentacją pamięci bo przydział nowych bloków przestaje być po prostu trywialnym zapisem w strukturach systemowych o zajęciu pamięci od adresu do adresu. Nie jest więc tak, że zapychanie pamięci do pełna śmieciami jest neutralne wydajnościowo bo nie jest i umiem to udowodnić. Najlepiej przekonać się o tym na przykładzie wiszącej w pamięci bazy znaczników antywirusa. Niektóre z nich alokuja sobie od systemu właśnie pamięć o takich wymaganiach i jest to na dodatek pamięć do zapisu. Robią to ze względów wydajnościowych oraz po to aby w locie uaktualniać bazę markerów. Oznacza to, że alokowany obszar systemowy ringu 0 zwiększa się o ok. 200-300 MB. A to już nie jest nic, którego nie da się zauważyć. System musi więc przemapować tą ilość pamięci gdzieś indziej, a Windows robi to najprościej jak może - jeżeli akurat nie ma tyle niezajętej pamięci RAM najpierw zwala wszystko do swapa. A operacje dyskowe trwają 100 razy dłużej zanim pamięć zostanie przemapowana, a wolne bloki zaalokowane. Zapchaj więc sobie RAM kompa i wtedy uruchom stoper oraz zainstaluj antywirusa i od razu pozwól mu odpalić usługi. A potem powtórz to samo bez zapychania pamięci. Odpowiedź pojawi Ci się sama. To niestety nieprawda. Gdyby tak było, to cache dysków twardych dążyłoby do nieskończoności (RAM - nawet ten pakowany do kontrolerów - jest przecież bardzo tani). Tak nie jest ponieważ zwiększanie cache ponad pewien próg daje ułamki procenta polepszenia trafiania. Krótko mówiąc nie ma to większego sensu. Dyski hybrydowe działają niezupełnie jak cache. W pamięci flash trwale pozostają tylko małe pliki i struktury dyskowe. Mały plik pozostanie zawsze na flashu - choćby był rzadko używany. Dopóki będzie mały nigdy nie wyemigruje na talerz. W cache elementy rzadko używane są usuwane bez względu na ich wielkość. Odczyt z wyprzedzeniem jest stosowany we wszystkich systemach jakie znam. Również w Linuksie. Obsługa pamięci to zawsze kompromis. Mówienie o tym w modnym dzisiaj trendzie, że pamięć nieużywana to pamięć zmarnowana, to tylko bieżąca "moda" mająca mało wspólnego z rzeczywistością. Generalnie dobrze jest gdy system dysponuje wszystkimi dostępnymi zasobami takimi jak RAM, ale zasobem jest również czas - w tym również czas obsługi.
  11. Olamagato

    Problemy z komputerem (temat ogólny)

    Spróbuj uruchomić cmd jako administrator (PPM i wybór z menu)
  12. Olamagato

    Problemy z komputerem (temat ogólny)

    Wygląda to tak jakby psuła się płyta główna. Otwórz pudło i przypatrz się kondensatorom czy nie mają wybrzuszonego denka. Jeżeli tak, to sprawa jest oczywista. Jeżeli nie, to trzeba szukać dalej, ale nadal problemem może być uszkodzona płyta główna. Jest to tym bardziej prawdopodobne jeżeli była ona tanią konstrukcją. Takie zwykle zaczynają mieć problemy kiedy mija rok od utraty gwarancji.
  13. Odpalone procesy + buforowanie. Każdy odczyt sektora powoduje wczytanie danych zaszyfrowanych. Dopiero wtedy są one deszyfrowane bo w postaci zaszyfrowanej są bezużyteczne (to tylko zbitka bajtów bez żadnej wartości). Nie jest tak, że każdy odczytany sektor jest natychmiast deszyfrowany przed odczytem następnego bo są to niezależne od siebie rzeczy. Oznacza to, że szczytowe użycie pamięci może być w skrajnym wypadku dwa razy większe niż bufory wczytanych danych. Bez szyfrowania bufory zawierają zawsze dostępne do użycia dane. W czym? Windows zawsze cache''uje dane z odczytu dysku, ale nie zawsze używa danych tego cache do zapisu. Na przykład dyski wymienne domyślnie mają cachowanie operacji odczytu, ale już nie zapisu. Tylko nieusuwalne dyski twarde mają cache domyślnie włączone dla operacji zapisu (chociaż można to wyłączyć). Dla przykładu usuwanie 8 plików oznacza 8 operacji zapisu tego samego sektora 512 B, a na nowych dyskach z sektorem 4KB oznacza to 64 zapisy tego samego sektora. Cache operacji zapisu pozwala na 64 modyfikacje sektora w pamięci oraz pojedynczy zapis sektora na dysku. Oprócz tego w systemie jest jeszcze odczyt wyprzedzający, w którym system próbuje zgadnąć co będzie w najbliższym czasie odczytane. Nie zawsze jest to zgadywanie trafne. Czasem zupełnie błędne i wtedy system powtarza zupełnie zbędne odczyty dysku, które do niczego się nie nadają. Cache potrzebuje bardzo niewiele miejsca na odczytywane dane. Potrzebne jest tylko 10% pokrycia, aby uzyskiwać 90% trafień. Dlatego dyski twarde maj sprzętowe cache o wielkości tylko 32/64 MB dla tak wielkich pojemności jak 1/2 TB. Powyżej tej wielkości pokrycia polepszenie trafiania cache zwiększa się o ułamki procent, więc zapychanie ramu wszelkimi zgadniętymi śmieciami z dysku nie ma wcale aż tak wiele sensu jak się to wydaje. Zarządzanie pamięcią, to znacznie szersze pojęcie, które nie spłyca się do zapychania RAMu. Na przykład w Windows pamięcią swap jest każdy odczytany plik tylko do odczytu (np. plik z kodem wykonywalnym) ponieważ w razie deficytu pamięci system usuwa takie odczytane dane pozostawiając sobie tylko informację gdzie oryginalne dane są zlokalizowane. Kiedy deficyt pamięci minie lub trzeba skorzystać z usuniętych danych system ponownie wczytuje te same dane z tego pliku. To jest na przykład głównym powodem dla którego nie możesz usunąć z dysku, ani modyfikować plików z kodem, który został wczytany do pamięci i uruchomiony. "Marnowanie" lub nie marnowanie pamięci na cache ma niewiele wspólnego z dobrym czy złym zarządzaniem pamięcią. Jeżeli zapychanie pamięci nie ma się przekładać na przyspieszenie operacji, albo przyspieszenie to jest na poziomie ok. 1%, to sens jej zapychania kolejnymi zbędnymi odczytami nie istnieje. (a czasem jest nawet bardzo szkodliwe - np. na laptopach pracujących na baterii. :) Natomiast jeżeli tak jak napisałeś zapchasz ram tak mocno, że system Ci bardzo spowalnia, to wcale nie musi to być głównie spowodowane zmniejszonym cache dyskowym, ale znacznie bardziej prawdopodobne, że realną przyczyną spowolnienia jest również fragmentacja pamięci, która w takich wypadkach staje się problemem nie mniejszym niż trafianie w zmniejszone cache. Nie wiem też czy zdajesz sobie sprawę, że jakieś 70% kodu programów i systemu Windows ma status discardable, co oznacza, że jeżeli system raportuje wykorzystanie 4 GB pamięci RAM, to w istocie używa ~6,8 GB pamięci wirtualnej (zakładając, że cała pamięć jest zapchana głównie kodem wykonywalnym). I jeszcze co do terminologii, to w Windows występuje wyłącznie pamięć wirtualna. Jest ona mapowana na strony pamięci fizycznej lub strony pamięci dyskowej w plikach wymiany (swapie). Do swapa trafiają wyłącznie dane do zapisu bo jak już napisałem każdy plik wykonywalny w Windows jest również częścią pamięci wirtualnej (tej do odczytu). Miałbyś rację gdybyśmy mówili wyłącznie od cache (buforuje raz wczytane dane do kolejnych wczytań lub zapisów), a nie również o wczytywaniu z wyprzedzeniem, które czasem w patologiczny sposób używa system (nie tylko Windows zresztą). Pewnie, że cache najlepiej się sprawdza właśnie przy najwolniejszym nośniku, ale zapominasz o jednym fakcie - dysk nie potrafi przeprowadzać równoległych operacji dyskowych - on pracuje w kolejce (priorytetowej, ale jednak). Jeżeli program lub system potrzebuje coś czytać z pliku lub w nim zapisać, ale musi czekać ponieważ dysk jest w tym czasie zajęty operacjami wczytywania z wyprzedzeniem jakichś danych do cache (które zresztą wcale nie muszą się przydać), to tu masz realne spowolnienie działania systemu i jego programów. Tak więc czasem to nadgorliwe używanie pamięci i dysku wcale nie polepsza wydajności, a wręcz odwrotnie. I przypomnę - spowolnienie tym spowodowane jest dla normalnych dysków twardych niemierzalne. Oczywiście takie patologiczne sytuacje zdarzają się rzadko, więc trzeba je specjalnie preparować żeby móc je zaobserwować. W normalnych warunkach technologie takie jak cache wyprzedzające i np. prefetch/superfetch dają więcej korzyści niż strat.
  14. Jeżeli odpalasz tylko goły system i używasz głównie jego wbudowanych programów, to 64-bitowy Windows pracuje komfortowo na 2 GB RAM. Więcej po prostu nie potrzeba z tego powodu, że wszystkie załadowane programy mieszą się w tej granicy, a ilość pozostałego w pamięci miejsca na cache daje >90% trafień. Natomiast jeżeli doinstalujesz sobie programów, w tym kilka z nich będzie odpalało różne dodatkowe usługi oraz będzie sobie siedziało w pamięci "na zaś", to ilość użytej pamięci przewyższy w szczytowych momentach te 4 GB i wtedy bez otwartego swapa system wykrzyczałby, że brakuje mu pamięci. Pamięć wirtualna systemu mapowana na plik swapa ma czas dostępu mniej więcej 100 razy gorszy niż czas dostępu pamięci mapowanej na kości RAM, więc właśnie dzięki temu można zaobserwować spowolnienie działania systemu (fizyczna pamięć RAM jest wtedy traktowana jak tymczasowy bufor). Na dzień dzisiejszy nie znam żadnej konfiguracji systemu i zainstalowanych programów, które przewyższałyby 6 GB szczytowego zużycia pamięci. Natomiast da się takie znaleźć, które przekroczą 4 GB. Dlatego napisałem, że 6 GB jest obecnie (rok 2013) komfortowe. Pewnie za rok lub dwa komfortowe może się okazać już 8 GB, a nie 6. Oczywiście można też próbować sobie odpalić jakiś serwer czy bazę danych, która będzie pobierała sobie prawie 30 GB pamięci do działania, wtedy komfortowe będzie pewnie 32 GB RAM bo inaczej zaczęłoby się piłowanie po swapie (niektórzy potrafią tak zarżnąć serwer i zajechać dyski). :)
  15. A to trzeba było od razu powiedzieć, że używasz pingwina. W tym wypadku zależnie od konfiguracji systemu 64-bit pamięci może być po prostu za malo, aby wszystko co możliwe dobrze się mieściło. No to wiele wyjaśnia. Deszyfrowanie w locie zabiera podwójną ilość pamięci i pewną ilość czasu CPU. Dodatkowa pamięć w takiej sytuacji może rzeczywiście przyspieszyć. Tak samo jak w Windzie dołożenie ramu kiedy system piłuje plik swapa zwiększa reaktywność systemu o kilkaset procent (czyli do normalnego stanu). Windows może kiepsko zarządza pamięcią dyskową, ale akurat pamięcią RAM zarządza moim zdaniem bardzo dobrze. Właśnie dlatego dołożenie pamięci powyżej 4 GB (a tym bardziej powyżej 6 GB) w ogóle nie przyspiesza działania systemu, a w pewnych specyficznych warunkach może minimalnie go spowolnić. To spowolnienie jest w normalnych warunkach (zwykły HDD/SSD) zupełnie niemierzalne. Wykrywalne jest tylko w najpodlejszych warunkach gdy nośnikiem plików systemu jest jakiś koszmarny napęd.
  16. W tamtym roku różnica między lipcem, a październikiem wyniosła ok. +20% Grudzień, to był kolejny skok od +20 do +30%, a więc różnica w cenie miedzy lipcem, a końcem grudnia mogła wynieść nawet 50%. W tamtym roku nałożył się na to oczywiście spadek kursu złotego. Przykłady: Monitor IPS 24" z lipca za 570 zł wylądował w grudniu z ceną >900 zł. Dzisiaj ok. 700 zł. Laptop z lipca za 2,1k zł kosztował w grudniu ok. 2,8k zł. Dzisiaj ok. 2,4k zł. Weź pod uwagę, że nowe konstrukcje potrzebują ok. pół roku na stabilizację bo zawsze coś nie do końca działa. Przez ten okres jesteś realnie sfrustrowanym testerem. W takim przypadku zamiast cieszyć się nowym sprzętem dostajesz frustracji, która często kończy się na allegro czy eBayu. :) Na przykład rok temu kiedy zaczęto sprzedawać amdkowe CPU Llano sterowniki były tak do kitu, że sensownie dało się z nich korzystać dopiero w styczniu tego roku (kiedy wyszły trochę poprawione). Niektóre monitory mają skopane firmware i jeżeli producent szybko zakończy serię, to poprawka firmware nigdy nie nastąpi, więc do końca życia będziesz miał zwalony sprzęt. W efekcie eBay, Allegro itd... :) Nie warto ryzykować testowanie nowego sprzętu jeżeli nie bierze się tego pod uwagę. Na dzisiaj jakiś tani LG/AOC/Acer na panelu IPS 22", 23,5/24" lub 27" zależnie od możliwości finansowych. Jeżeli chodzi o stosunek możliwości/jakości do ceny to za nimi długo nie ma nic. Ja bym się zastanawiał, czy chcę się irytować za 550 zł. ;) Jak dla mnie to Win7 jest ostatnim akceptowalnym systemem tej firmy. No, ale każdy ma sam decyduje. :) Po co chcesz dzielić tak mały dysk jak 1 TB? Jedna partycja z klastrem 4KB w zupełności wystarcza. Dzielenie na partycje musi mieć sensowne uzasadnienie. Wystarczy, że zamontują dysk. Podział dysków na partycje to banalna czynność - szczególnie dysków niesystemowych. A co do instalacji systemu, to ja nie chciałbym, żeby jakiś "informatyk" sklepowy zaopatrzył mi system w jakieś wirusy czy robaki. Tylko system, który sam instalujesz z nośnika R/O daje pewność, że nie dostaniesz na starcie jakiegoś prezentu. Poza tym pewne decyzje - np. jak podzielić dysk SSD (o ile potrzeba) są nieodwracalne bez reinstalacji. Np. dysk 60-64 GB warto czasem podzielić na 31,9 GB i resztę na własne małe i bardzo cenne pliki, albo nie dzielić. Chodzi o takie rzeczy jak osobny kosz, zabezpieczanie kopii, szyfrowanie - tu przydaje się osobna partycja. Na resztę może odpowie ktoś inny bo ja nie jestem pewien. Zawsze po zakupie pojawia się jakiś nowszy sprzęt, więc nie przejmuj się. Zawsze możesz poczekać na coś lepszego - czasem to czekanie może się nigdy nie skończyć. ;) Najważniejsze, to mieć poczucie, że w momencie zakupu wzięło się to co było wtedy najlepszego za najlepszą cenę. Wtedy nie ma się frustracji.
  17. [ups już po sesji...] Błąd syntaktyczny, to taki który powoduje, że: - zapis programu nie spełnia wymogów języka (błędne słowa kluczowe, literówki, brak par otwierania i zamykania bloków sterowania itp.) - wymogi języka są spełnione, ale zapisane elementy nie są spójne ze sobą (np. użycie zmiennej, która nie została zadeklarowana, błędne użycie operatorów, zła ilość argumentów itp.) Błędy syntaktyczne są w całości wykrywane przez analizator kompilatora lub interpretera i raportowane jako "błędy". Błędy semantyczne, to takie które powodują, że program działa wadliwie lub niezgodnie z intencjami, ale sam zapis programu jest zgodny z wymaganiami języka. Błędy semantyczne ogólnie nie są wykrywane, choć kompilator symptomy niektórych z nich potrafi wykryć i wtedy raportuje je jako ostrzeżenia. Typowymi łatwo wykrywalnymi błędami semantycznymi są np. instrukcje warunkowe, których warunki przyjmują zawsze wartości prawdziwe lub zawsze fałszywe, doprowadzenie do dzielenia przez wartości zerowe oraz sławny "null pointer exception", czyli sytuacja, w której przekazane odwołanie do jakiegoś obiektu wskazuje coś innego lub nic. Najgorsze i najtrudniejsze do wyeliminowania błędy semantyczne, to takie, które powodują, że jakiś element aplikacji wykracza w pewnych warunkach poza swoją specyfikację - np. umieszczanie wartości o zakresie wartości większym niż 256 w zmiennej typu byte, beztroskie zamienne używanie tych samych wartości w arytmetykach ze znakiem i bez znaku, utrata informacji - np. zmiana każdej możliwej wartości zawsze na wartość parzystą lub nieparzystą, zero,... itp. W projektach, które dążą do upadku ostrzeżenia są wyłączane lub ignorowane ponieważ poważne błędy semantyczne nie są w ogóle wykrywane aż do momentu w którym aplikacja jest tak rozbudowana, że naprawa takich błędów jest bardzo kosztowna (pod względem złożoności i czasu), a sama aplikacja powoduje upadek w niejasnych okolicznościach (np. wyciek i wyczerpanie pamięci). W dobrych projektach żaden programista nie wyśle do repozytorium kodu, który generuje chociaż jedno nie rozpatrzone ostrzeżenie. A i to nie gwarantuje braku błędów semantycznych bo to tylko warunek konieczny.
  18. Lipiec to najlepszy moment bo od kilku lat w okresie wakacyjnym są najniższe ceny bo wtedy sprzedaż drastycznie siada, więc można się załapać na upusty. Nie pogryzie się. Ale jakie znaczenie ma to, że w nowych konsolach mają być układy AMD, to nie wiem. Gry przy przeportowaniu na PC będą działać na każdej grafice, która spełni specyfikację. ??? Monitor zawsze można sobie zmienić. Właściwie wszystko łatwo zmienić poza MB. Tak się robi. Wszystko instaluje się na SSD, a HDD dokłada jako dysk dodatkowy - może być na jednej dużej partycji. Koszt dobrego monitora 23-24", to jakieś 600 zł, a podłego TN tej samej wielkości to 500 zł.
  19. Olamagato

    Windows Seven - Temat Ogólny

    Kłódki są na obiektach, które są Twoją prywatną własnością. Przejmij wszystko na własność dla grupy Administratorzy i po problemie.
  20. Olamagato

    Problemy z komputerem (temat ogólny)

    Tzn. Sterownik drukarki jest ok. Problem leży w MS Office To chyba trafiłeś na problem wynalazczości w M$. Chodzi o to, że ich Office wykorzystuje nieudokumentowane funkcje systemu i zwykle to daje przewagę temu pakietowi, ale nierzadko wszystko się pierniczy. Podejrzewam, że problemem mogą być specyficznie źle ustawione parametry drukowania, które pod Wordem i Excelem są indywidualne (tzn. preferencje ze sterownika i ustawienia globalne są olewane). Możesz spróbować dwóch sposobów. Najpierw krótszy: - Wywal automatyczne ładowanie office z autostartu i zrestartuj system. - Ustaw w sterowniku domyślny sposób drukowania i zrób stronę testową. - Odpal Worda i na zupełnie pustym dokumencie wpisz kilka bohomazów oraz ustaw parametry drukarki wewnątrz Worda. Nie zapomnij o wybraniu właściwego podajnika. Wydrukuj i zatwierdź. To samo zrób w Excelu. Pamiętaj, że parametry drukowania mogą być zapisane wewnątrz dokumentów docx i xlsx, co jest dość wredne i może być przyczyną Twoich problemów. Dlatego na nowych Office''ach od 2007 zawsze ustawiam pełną zgodność z ODF i zapisuję, albo jako pliki typu open format, albo jako stare doc/xls. Rozszerzenia, które na każdym kroku M$ próbuje na siłę do wszystkiego wciskać tylko mnie wnerwiają. (gdzie się nie wtrącili tam spieprzyli - mało, dużo lub wszystko ;) Może po Viście wyłożą się teraz na Metro aka Modern UI... ;D A to tak. Pytanie tylko co używała...
  21. Bardzo dobry model. Kiedy wchodził do sprzedaży, to konkurencja (tzn. chyba z Samsunga) była raczej tak przerażona, że zrobiła nagonkę "negatywnych opinii". :) http://www.skapiec.pl/site/cat/12/comp/4744981_komentarze/ (posortuj sobie wg dat:) Z fajnych funkcjonalności - obsługiwane są poprzez USB 2.0 dyski z formatem NTFS, a więc praktycznie wszystkie do 2TB (również te w kieszeniach wymiennych). Oczywiście mi wisi czy to Samsung, LG, czy dowolna inna firma. Jeżeli coś jest dobre, to polecam to bez względu na markę. Przez wiele lat mocno omijałem LG bo nie mieli nic rewelacyjnego przed serią z IPS.
  22. Gdyby był sprzedawany 2-3 lata temu, to można by go uznać za całkiem znośny. Jednak podstawową i nieusuwalną funkcją monitora jest jak najlepsze odwzorowanie obrazu. Dzisiaj są tańsze alternatywy, które pod każdym względem deklasują cały istniejący sprzęt oparty na matrycach TN. Ja też. :) Wszystko co się da mam duże, żeby nie musieć siedzieć przy monitorze w okularach, które np. u krótkowidza pogłębiają wadę wzroku. Od kogokolwiek to slyszałeś, to mogę Cię zapewnić, że trudno wymyślić większą bzdurę. Jakieś 3-4 lata temu pierwsze matryce IPS miały przełączanie na poziomie 8 ms, a więc nieco gorsze niż TFT/TN, ale nadal niemierzalne przy grach (w niektórych źle zoptymalizowanych brak synchronizacji pionowej powodował efekt podobny do stroboskopowego, co dawało złudzenie zbyt wolnego odświeżania ekranu. Jednak i tak nadal 8 ms daje 125 odświeżeń obrazu na sekundę, co daleko przewyższa możliwości postrzegania przez człowieka. Dzisiaj monitory IPS, są na panelach TFT/IPS, S-IPS, AH-IPS. Jedyną konkurencją dla tych paneli są (pod względem odwzorowania obrazu) matryce PVA, które jednak mają takie parametry odświeżania obrazu gorsze niż pierwsze IPS. Ja też tak myślałem i parę lat temu kupiłem sobie Samsunga B2430HD (LED), który ma matrycę niemal taką samą jak ten, którego zamierzasz wziąć. Ale kiedy sobie kupiłem pierwszego i bardzo taniego IPS od LG (IPS235) i włączyłem te same filmy, to różnica okazała się dla mnie porażająca. Tego się po prostu nie da wytłumaczyć jeżeli się nie postawi obu takich monitorów obok siebie z takim samym obrazem. Obraz na TN wygląda na kolorowy (tylko wygląda), ale na IPS wygląda tak jakbyś patrzył przez okno. Przesuniesz nieco głowę i na TN już widzisz nieco inny obraz. Przy IPS możesz chodzić po całym pokoju i cały czas widzieć dokładnie ten sam obraz - kolory, kontrast, jasność. Jakaś różnica pojawia się dopiero kiedy chcesz patrzeć na ekran prawie z boku (ale nikt tak nie będzie go oglądał bo deformacja (realny obraz robi się kwadratowy) i tak spowoduje, że nikt nie będzie go oglądał pod takim kątem. Pod tym samym kątem na matrycy TN obraz praktycznie nie istnieje lub zamienia się w negatyw (serio). Popatrz sobie zresztą na serwisy takie jak skąpiec.pl - z listy typów monitorów w ogóle zniknęły panele TFT/TN bo jest to technologiczne muzeum. Nowe typy matryc są pod każdym względem lepsze oraz tańsze. W wypadku naszego kraju jest to głównie konkurencja między Samsungiem, który nie może robić tych matryc oraz LG, który je tu w Polsce produkuje. Oczywiście producenci próbują Ci wcisnąć do monitora mnóstwo niepotrzebnych rzeczy, za które słono zapłacisz: - tuner TV z pilotem za ponad 500 zł (realna cena zewnętrznego < 100 zł) - Linuks w trybie kiosk (marketingowcy nazywają to SMART TV) do rachitycznego przeglądania internetu i odpalania różnych często zbędnych serwisów. - wifi, widi (j.w.) - obsługa nośników przez USB, bluetooth - retro, albo futurystyczny design (no, ale to zależne już wyłącznie od gustu) itd... Większość z tych dodatków powielają funkcjonalność komputera PC i mają sens jedynie dla kogoś kto do używania z takim ekranem bierze sobie wyłącznie konsolę. http://www.skapiec.pl/site/cat/12/filtr/_0_2348_0_0_0_0_13772,137078,137083_93536_0_0 Jedyny minus, to z Twojego punktu widzenia eliminowanie przez LG złącza DVI, ale DVI-I, to praktycznie to samo co D-SUB (VGA) - przejściówka na zwykłych kabelkach, a DVI-D, to praktycznie to samo co HDMI bez dźwięku - tu również wystarczy tania przejściówka. Te monitory są pod każdym względem (poza designem i wbudowanym złączem DVI) lepsze od tego drogiego Samsunga. Jest tu tylko lista składająca się z monitorów LG bo tylko ta firma robi dobre monitory z tunerami TV. Jest to pośrednio wymóg polskiej ustawy, która nakłada na producentów ekranów większych niż 24" wciskanie tunerów DVB-T. Na rynku poza Polską można spokojnie znaleźć większe ekrany bez żadnego tunera. Np. inne monitory (nie z Polski) w tym rozmiarze, które nie mają tunera TV: http://www.skapiec.pl/site/cat/12/filtr/_0_2348_0_0_0_0_13772,137078,137083_20596_0_133952 Biorąc pod uwagę, że dobry HD tuner z pilotem zamyka się w cenie niewiele większej niż 120 zł, to jest sens wziąć dobry monitor bez żadnego tunera i dokupić do niego tuner zewnętrzny. Taki tuner jest też bardziej funkcjonalny ponieważ: - jest mobilny - możesz go podłączyć do dowolnego ekranu mającego odpowiednie złącze (docenisz kiedy ktoś będzie chciał Cię wywalić od monitora z powodu jakiejś audycji w TV) - jest mały (zmieści się w kieszeni, czasem nawet z anteną, którą może być zwykły kabelek) - zwykle obsługuje nagrywanie na dyskach przez złącze USB, w tym na dyskach sformatowanych jako NTFS (np. Sony nie kupiło licencji i ich ekrany obsługują wyłącznie dyski z formatem FAT32 - praktycznie eliminuje to dyski twarde 2.5" i 3.5" w kieszeni zewnętrznej do laptopa). Po co Ci sporo opcji ustawień? Zmiany ustawień, to nic innego jak proteza mająca wynagrodzić użytkownikom ograniczenia w wyświetlaniu obrazu oraz postrzegania ludzkiego wzroku. Dobre panele nie potrzebuję wiele ustawień - wystarczą 2-3 predefiniowane. W przypadku matryc OLED w ogóle nie potrzeba żadnych ustawień - fabryczna kalibracja kolorów odwzorowuje obraz najlepiej jak tylko można w każdych warunkach. IPS są pod tym względem słabsze od OLED, ale i tak nieporównywalnie lepsze od każdej matrycy TN, nie wspominając o cenie. Ja na swoich monitorach IPS jak raz ustawiłem jedno ustawienie (jedyną realną zmianą było obniżenie jasności do minimum), tak nigdy nie poczułem potrzeby zmiany. Bez względu na to czy pracowałem z przeglądarką, grałem czy oglądałem jakiś film. Obraz jest po prostu tak dobry jak na najlepszych TV kineskopowych z idealną geometrią jaką daje LCD. Dopiero ta matryca jest prawdziwym eliminatorem monitorów CRT bez żadnych kompromisów. Tak samo jak w ciągu roku praktycznie wyeliminuje z rynku wszystkie panele TN.
  23. To nie jest zły wybór. Całkiem przyzwoity przy tej cenie. No to jest rozwiązanie bo DVD nieczęsto używa się w terenie. To tylko była ciekawostka. Przy systemie 64-bit 6 GB RAM, to realnie komfortowe minimum. Dokładnie. Prawdopodobnie w całej przyszłej historii nie zdarzy się sytuacja w której jakiś program będzie mógł się uruchomić na i5, a nie będzie w stanie ruszyć na i3. Różnica będzie co najwyżej w mikrosekundowej wydajności poszczególnych operacji. Rzecz nie do zauważenia nawet przez zaawansowanych użytkowników. W przeszłości tak samo było z wszystkimi procesorami Pentium i Celeron, Athlon i Duron. Nawet jeżeli jakiś kawałek kodu wymagał rozszerzonej listy rozkazów, to nie była ona używana w kodzie aplikacji, lecz wyłącznie w bibliotekach, które pojawiały się w dwóch wariantach - z obsługą sprzętową takich rozkazów oraz z emulacją bez ich użycia (ta druga wersja była oczywiście wolniejsza).
  24. Włącz sobie monitor zasobów oraz jakiś log kontrolera dysku. Najłatwiejsze jest to oczywiście jeżeli używa się zewnętrznego kontrolera, który ma takie możliwości. Windows nie tylko cache''uje zawartość wczytanych plików, ale również stara się ładować niektóre dane z wyprzedzeniem. W niektórych wypadkach ciężko ustalić co i po co w ogóle robi jakieś operacje na dysku. Gdyby to była prawda, to bym się z Tobą zgodził. :) Zrób sobie prosty test. Zainstaluj dwa razy ten sam system operacyjny, ale w pierwszym wypadku z małą ilością RAM, a następnie ponownie zainstaluj (na innym czystym dysku) z maksymalną dostępną. Przekonasz się, że system instalowany przy dużej pamięci robi mnóstwo trudnych do wyjaśnienia rzeczy, których wcale nie robi przy małej pamięci. Mapa pamięci takich dwóch systemów różni się zasadniczo już po czystym starcie systemu. Na dodatek z moich testów wynika, że ten z dużą ilością RAMu uruchamia się nieco wolniej. Szczególnie łatwo to zmierzyć sztucznie spowalniając transfer twardego dysku, albo ładując system z powolnego nośnika takiego jak DVD-RAM. Oczywiście na szybkim dysku różnica jest na poziomie błędu pomiarowego, nie wspominając o SSD.
  25. Płacenie prawie 1,7K zł za przestarzały technologicznie monitor z zakłamanymi kątami widzenia (realnie 20-30 st., a nie żadne bzdurne 170) biorącym aż 60W (to ma być eco?), to po prostu wariactwo. Warto wiedzieć, że monitory z matrycami TFT/TN nie nadają się do pracy z grafiką, ani z teksturami ponieważ nie wyświetlają pełnej palety barw, a tylko 262 tys. kolorów (człowiek widzi ponad 12 mln). Tym bardziej, że porządny monitor z doskonałym obrazem (na panelu IPS skalibrowanym fabrycznie) można kupić za połowę tej ceny. Co do rozmiaru, to większy ma sens jeżeli masz zamiar oglądać na nim filmy z dalszej odległości. Do normalnej pracy monitora trzeba go odsunąć skrajnie aż pod ścianę, żeby nie dostać syndromem pierwszego rzędu w kinie. ;)