Zaloguj się, aby obserwować  
RobeN

Kart Graficznych Kącik (informacje, porównania)

30553 postów w tym temacie

Dnia 19.04.2015 o 20:28, kindziukxxx napisał:

ludzie pomocy!
A tak szczerze to szukam najaktualniejszego sterownika do intel HD 1 gen. tj zamontowanej
na i7640m, bo szukam szukam i wyszukać nie mogę :)


To jakiś Lapek ?

Podaj model.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 30.04.2015 o 02:42, leven napisał:

> ludzie pomocy!
> A tak szczerze to szukam najaktualniejszego sterownika do intel HD 1 gen. tj zamontowanej

> na i7640m, bo szukam szukam i wyszukać nie mogę :)

To jakiś Lapek ?

Podaj model.


lenoo y560 z tym ze win 8.1

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 02.05.2015 o 23:23, kindziukxxx napisał:


lenoo y560 z tym ze win 8.1


Do WIN8 nie widzę.

Co wykazuje menadżer urządzeń dla tego urządzenia ?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 04.05.2015 o 20:59, leven napisał:

>
> lenoo y560 z tym ze win 8.1

Do WIN8 nie widzę.

Co wykazuje menadżer urządzeń dla tego urządzenia ?


a coś do win 7x64?

20150504233648

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 04.05.2015 o 23:39, kindziukxxx napisał:

Co wykazuje menadżer urządzeń dla tego urządzenia ?



Pokaż Menadżera Urządzeń, a nie GPU-Z XD

Przyklad:

20150505132736

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Lenovo moze poprostu nie wspierac nowszych systemow jak win8 i dalej :P
Planujesz przesiadke na 8/8.1 czy juz po przesiadce i masz problemy? Czy jakis program z innych windowsow jak 7 i nizej wymaga nowszych sterownikow?
Inaczej co planujesz osiagnac?

Masz w laptopie tylko intel czy jeszcze karte od amd?
Na forum lenovo odsylaja do http://leshcatlabs.net/unifl-unified-leshcat-drivers/ - tylko dla posiadaczy systemow 7, ;8; 8.1 64bit
instaluj wersje maksymalnie do 14.4, na forum jest temat o bugu-petli przy starcie po instalacji wyzszych wersji majac "IntelHD 1st gen"

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Witam serdecznie,

Mój problem wygląda tak:
Zakupiłem ostatnio nowe komponenty do komputera(typowy upgrade) ze sklepu morele.net

Części zostały dostarczone do mnie, szczęścliwy je zamontowałem, poinstalowałem wszystkie sterowniki oraz niezbędne programy i byłem zadowolony z nowego zakupu. Jako że kiedy skończyłem to wszystko robić było już późno, to zamknąłem system i poszedłem spać.

Następnego dnia odpaliłem Assassin''s Creed Unity. Przez ok 2h wszystko było dobrze: na najwyższych ustawieniach nie było żadnego problemu z płynnością, temperatura też była w normie.
Jednak w pewnym momencie obraz się zepsuł. Tzn pierw się rozmazał i zaczął pokazywać niepasujące do siebie pixele. Następnie obraz na monitorze zrobił się niebieski(nie bluse-screen, jakby komputer ustawił tapetę na jednolity niebieski, tylko że nei pokazywał żadnych ikon ani paska zadań- niczego) i jedynym rozwiązaniem był twary reset.

Odpaliłem komputer jeszcze raz i wszystko było dobrze. Myślałem, że to chwilowy błąd i włączyłem GTA V. Tutaj ten sam problem pojawił się już po 5minutach gry.

Po twardy resecie już było kompletnie beznadziejnie- ten sam problem pojawiał się przy wpisywaniu hasła do konta użytkownika. I tak już zostało, nic więcej się nie dzieje.

Próbowałem wilu metod naprawy:
-instalowałem starsze, bądź też beta wersje sterowników
-próbowałem na Win 8 jak i na Win 7
-zmieniałem kabel hdmi
-zmieniałem port pod który był podpięty
-odpalałe w trybie awaryjnym- i tu odziwo było dobrze przy mniejszej rozdzielczości, jednak kiedy odinstalowałem sterowniki, i ustawiłem rozdzielczość na 1680x1050 to były widoczne paski pixeli. Znowu reinstal steroników i ten sam problem przy ekranie logowania.

Karta o której mowa to Geforce Palit GTX 970 4gb
reszta specyfikacji-
Płyta główna: Asrock Z77 pro 4
Ram: 12GB- 8GB + 2x2GB-tutaj próbowałem z samymi 8GB, ale bezskutecznie
Zasilacz: Corsair CX600M
Procesor intel i7 2600k 3.4GHz

Dodam jeszcze, że poza procesorem i 2x2GB RAM''u wszystkie komponenty są nowe.

Nie próbowałem jeszcze sprawdzić na porcie DVI i u kogoś innego. Niedługo to zrobię i jeżeli to coś pomoże, do dam znać.

Prosiłbym o propozycje albo informacje, czy ktoś miał kiedyś taki problem z tą kartą.

Pozdrawiam

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Poprawność pracy w trybie awaryjnym oznacza, że karta się zepsuła :(

Sterowniki zaczynają działać w normalnym trybie systemu - awaryjny pracuje bez dedykowanych sterowników.

Oddaj kartę na gwarancję :(

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Sup. Nie ma za bardzo tematu z Project Cars. Ale temat się tyczy kart graficznych. To poruszę go tutaj.
Bo znając, życie na pclolu zostanie zakopane.
http://hardforum.com/showthread.php?t=1861353&page=4

O ile trwa guffnobusza oto jak AMD dało ciała i fanboje drą gęby jakie to złe AMD daje stery co 3 miechy, a NV sprzedaje praktycznie te same sterowniki co 2 tygodnie. A do tego to #PCMasterGamingRace "kupuje" same gry premierowe i oczywiście tylko dwie grafy. To abstrahując od tego pojawił się całkiem ciekawy wątek.
Ktoś twierdzi, wydaje się nie bez kozery., ze fizyka w Project Cars jest oparta na zamkniętym standardzie Nvidii. Czyli Physx. Jest to o tyle ciekawe, że jak wiadomo pozwala na odciążenie CPU i zapchanie grafy. Więc daje solidną przewagę kartom ze stajni *zielonych* (tak, wiem "AMD" też jest ogółem zielone ;p).

Oczywiście wszyscy zwalają winę na AMD. A SMS sprawę zbywa twierdząc, że dali 20 kluczy dla gości od Driverów. Tylko dobra. Drivery jedno, ale kod gry drugie right? :P Co by w sumie pasowało do umieszczonych banerów w Project Cars :P na co zwracał uwagę "Bruno" z którego nabijał się PClab.
[Swoją drogą ciekawa jest wydajność na Windows 10]
Jakieś spostrzeżenia?
Jak nie lubiłem zamkniętych standardów, tak nie lubię bardziej :/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Problem tak naprawdę jest wielowarstwowy.

Po pierwsze, AMD w tej chwili pracuje nad R9 380-390 które wyjdą za kilka tygodni i to widać, poprzednia generacja kart się nowych sterowników nie doczeka aż do premiery tych GPU. Coś w tym temacie ruszyło o ile mi wiadomo, 14.12 nie bez powodu nosi nazwę Omega i ma być świeżym startem.

Ale niestety na razie faktem jest że drivery AMD niezbyt dobrze wykorzystują najnowsze CPU. Te od Nvidii dobrze radzą sobie z wielordzeniowością, te od AMD z kolei skutecznie używają tylko jednego. Stąd też bierze się twierdzenie iż AMD ma o wiele większy narzut sterownika na CPU - i żeby w najnowszej grze uzyskać 60 fps-ów na GTX''ie 970 potrzebujesz dajmy na to i7-4770. Dla R9 290X który też tyle potrafi musiałbyś użyć podkręconego i7-4790K. Tutaj jest mnóstwo miejsca na optymalizację.

O wiele większym i kluczowym problemem jest jednak DX11. Który po prostu żre nieprawdopodobną ilość zasobów CPU. Rozwiązanie AMD jakim jest Mantle które pozwala na ominięcie procesora w wielu miejscach nie bez powodu potrafiło w takim BF4 podwajać fps-y. Problem z Cars i podobnymi grami rozwiąże się sam z wraz z premierą DX12 który skupia się właśnie na zmniejszeniu obciążenia. Skądinąd dobry chwyt Microsoftu - DX12 będzie tylko dla Windows 10. Tutaj przesiąść się wręcz trzeba :P Tutaj co nieco o skoku wydajności:
http://forums.anandtech.com/showthread.php?t=2423417


Po drugie, właśnie oparcie gry na PhysX... dzisiejsze CPU są ogółem zaskakująco słabe, monopol Intela przez ostatnie 7 lat sprawił że średnia wydajność procesorów wzrosła o 20-40%. To tyle co nic. Obecne komputery nawet nie są w stanie płynnie odtwarzać filmów na YouTube:
http://pclab.pl/art63078-2.html
Tak, do 4k + 60 fps bez wsparcia GPU potrzebujesz 4.5 GHz Core i7 4770K. Na i5-4670K masz 70% utraconych klatek... W tym samym czasie nawet najtańszy R7 250X potrafi odtwarzać taki materiał bez zacinek (zakładając że jest to enkodowane w formacie który da się wesprzeć GPU).

Więc masakra w ilości klatek na sekundę jaka jest widoczna w CARS faktycznie pokazuje błąd jakim było użycie PhysX. Całość po prostu zarzyna dowolny procesor na rynku, może za wyjątkiem serwerowych kosztujących równowartość minimalnej pensji rocznej. Więc dla GPU nie zostaje jakakolwiek moc obliczeniowa.

Tutaj rozwiązania jeszcze nie ma - AMD Zen zapowiedziane są dopiero na rok 2016. I na papierze rzeczywiście powinny być w stanie wyprzedzać obecne Core i5 (prawdziwe 8 rdzeni i zgodnie z tym co twierdzi AMD o 40% wyższa wydajność pojedynczego wątku niż ich obecne FX''y) co MOŻE skłoni Intela do zauważenia że 4 rdzenie to na dzień dzisiejszy już po prostu za mało i najnowsze tytuły to właśnie okazują. Fakt że równie dobrze AMD Zen okaże się technologiczną porażką i tyle z jakiejkolwiek nadziei na rywalizację :P

Jednocześnie jednak gdyby twórcy gry podeszli do problemu inaczej tzn. użyli otwartego standardu to wcale nie rozwiązałoby to problemu. Po prostu miałbyś niską ilość klatek na sekundę tak na kartach graficznych Nvidii jak i AMD. Chyba że użyć czegoś co jest sprzętowo wspierane przez obie firmy, np. OpenCL. Tylko że to trudniejsze - w PhysX się po prostu dużo lepiej pracuje. OpenCL z kolei nieoficjalnie faworyzuje AMD - czysta moc obliczeniowa ich kart w tym aspekcie zjada GeForce''y bez popity... i choć ta dodatkowa praca ogółem dałaby nam wyższą ilość klatek na sekundę dla wszystkich to spowodowało by to o wiele więcej płaczu - GeForce''y miałyby mniej fps-ów. Byłoby lepiej niż teraz z AMD (bo jakieś wsparcie sprzętowe jest, nawet nie takie złe) ale gorzej niż z PhysX. I ogółem zapłaciłbyś za to jakością efektów - jak mówiłem, to jest trudniejsze do użycia. Poza tym użytkowników GeForce''ów jest więcej - obecnie AMD ma coś koło 27% rynku, ich opieszałość z 3xx nie pomaga.

Więc ogółem jest to wina niczyja. Pośrednio zaś najbardziej to możesz winić Intela za to że od czasów i5-750/i7-950 ich CPU znacząco się nie rozwinęły a jeśli już to tylko w absolutnym high-endzie i gry oparte na fizyce muszą albo korzystać ze wsparcia dla GPU albo po prostu mieć problemy z płynnością. A co jak co - technologię to oni mają, w serwerach kupisz sobie i 16-rdzeniowca (albo i dwa) jeśli cię stać.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Po pierwsze, AMD w tej chwili pracuje nad R9 380-390 które wyjdą za kilka tygodni i to
widać, poprzednia generacja kart się nowych sterowników nie doczeka aż do premiery tych
GPU. Coś w tym temacie ruszyło o ile mi wiadomo, 14.12 nie bez powodu nosi nazwę Omega
i ma być świeżym startem.

Jako także user Radeona nie wiem. Nie czułem różnicy. Testy też nie czarowały ;p
Nie wiem co NV zrobiło z Driverami, bo nie jestem programistą, a co do piero ogarniętym w tych sprawach programistą. To jednak cos z API chyba, bo poprawki tyczyły się chyba tylko DX11.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Ale niestety na razie faktem jest że drivery AMD niezbyt dobrze wykorzystują najnowsze
CPU. Te od Nvidii dobrze radzą sobie z wielordzeniowością, te od AMD z kolei skutecznie
używają tylko jednego.

Dwóch chyba. NV >2. Ale to też jakby zależało od gry ;p Crysis, tak. W_D, tak. Skyrim, nie.
Do tego dochodzi właśnie gameworks, czy inne "optymalizacje". Które odciążają CPU.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Dla R9 290X który też tyle potrafi musiałbyś użyć podkręconego i7-4790K.

W scenariuszu CPU. Choć przyznam, że nawet 6-8 klatek w skali 48 zamiast 40-42. To dużo, ale nie jest to strata jaki jest zysk na odciążeniu/zoptymalizowaniu iżycia CPU.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Tutaj jest mnóstwo miejsca na optymalizację.

A gdzie jest "tutaj"? If you know what i mean :)

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

O wiele większym i kluczowym problemem jest jednak DX11. Który po prostu żre nieprawdopodobną
ilość zasobów CPU.

Znaczy bardziej, źle zarządza. Bo obciąża w znacznym stopniu jeden wątek i czekamy aż wykona swoje zadania.
Zamiast rozłożyć na kolejne wątki i przez to skrócić czas wykonania zadania. Przez co umożliwiłoby wykonanie kolejnych.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Problem z Cars i podobnymi grami rozwiąże się sam z wraz z premierą DX12 który skupia się właśnie na
zmniejszeniu obciążenia. Skądinąd dobry chwyt Microsoftu - DX12 będzie tylko dla Windows
10. Tutaj przesiąść się wręcz trzeba :P Tutaj co nieco o skoku wydajności:
http://forums.anandtech.com/showthread.php?t=2423417

Yeah, ale tylko jedna strona medalu ;) Choć nie ukrywam, że mnie to buduje.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Po drugie, właśnie oparcie gry na PhysX... dzisiejsze CPU są ogółem zaskakująco słabe,
monopol Intela przez ostatnie 7 lat sprawił że średnia wydajność procesorów wzrosła o
20-40%. To tyle co nic. Obecne komputery nawet nie są w stanie płynnie odtwarzać filmów
na YouTube:
http://pclab.pl/art63078-2.html

Bez przesady. Raz, że nie tyle co sam monopol. Bo monopol to skutek. A brak postępu w tej dziedzinie przez wszystkie podmioty. Akceleracja wideo przez GPU jest już 10 lat chyba ;p
Stare "purevideo" pamiętające GeForce 8, a ciut starsze GPU chyba miały częściowe.
Jeszcze pamiętam swojego chyba Athlona XP 2000+ na którym cięły filmiki w C&C 3.
To bardziej problem googla IMHO.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Tak, do 4k + 60 fps bez wsparcia GPU potrzebujesz 4.5 GHz Core i7 4770K. Na i5-4670K
masz 70% utraconych klatek... W tym samym czasie nawet najtańszy R7 250X potrafi odtwarzać
taki materiał bez zacinek (zakładając że jest to enkodowane w formacie który da się wesprzeć
GPU).

Yep i do tego się pruję. Problemem nie jest sam proc, ale brak wsparcia GPU i/lub stare API :P

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Więc masakra w ilości klatek na sekundę jaka jest widoczna w CARS faktycznie pokazuje
błąd jakim było użycie PhysX.

Paradoksalnie nie było błędem :P Bo jak widać efekt jest znakomity.
"Błędem" jest zamknięty standard.
Proc nie daje rady, ale grafa tak i to spokojnie.
Wiec rozwiązaniem nie jest większa tyle co wydajność proca, ale zrzucenie z niego obliczeń.
Problemem jest, że zastosowano rozwiązanie dostępne dla jednego producenta i do tego zwalono winę na drugiego. Który ma tyle do tego, że takim rozwiązaniem nie dysponuje. Znaczy ma Direct Compute(czy tam OpenCL, ale nie ma praw do Physxa i może używać tylko przez CPU. Co zamyka błędne koło (bo nawet gdyby NV miałoby jeszcze wincyjj fps).

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Całość po prostu zarzyna dowolny procesor na rynku, może
za wyjątkiem serwerowych kosztujących równowartość minimalnej pensji rocznej. Więc dla
GPU nie zostaje jakakolwiek moc obliczeniowa.

Znaczy zostaje, nawet bardzo dużo. Tylko leży odłogiem :P

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Chyba że użyć czegoś co jest sprzętowo wspierane przez obie firmy, np. OpenCL.
Tylko że to trudniejsze - w PhysX się po prostu dużo lepiej pracuje.
OpenCL z kolei nieoficjalnie faworyzuje AMD - czysta moc obliczeniowa ich kart w tym aspekcie zjada
GeForce''y bez popity... i choć ta dodatkowa praca ogółem dałaby nam wyższą ilość klatek na sekundę dla
wszystkich to spowodowało by to o wiele więcej płaczu - GeForce''y miałyby mniej fps-ów.

Nie koniecznie. Jak napisałeś. Physx jest. Więc zostałoby użyte jak teraz.
A OpenCL jest mniej używane bo nie ma jasnej dokumentacji itd.
Co nie znaczy, że używanie go nie przyczyniiłoby się do jego poprawy. itd.
Ale jak napisałem wcześniej. SMS użyło tylko Physxa, więc profituje tylko NV.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Byłoby lepiej niż teraz z AMD (bo jakieś wsparcie sprzętowe jest, nawet nie takie złe) ale gorzej niż z PhysX.
I ogółem zapłaciłbyś za to jakością efektów - jak mówiłem, to jest trudniejsze do użycia.
Poza tym użytkowników GeForce''ów jest więcej - obecnie AMD ma coś koło 27% rynku, ich
opieszałość z 3xx nie pomaga.

I nie pomoże. Jak zwróciłeś uwagę proce leżą. A to one są słabym ogniwem.
Potrzebne jest API i zrzucanie obliczeń z CPU.

Dnia 09.05.2015 o 21:56, ziptofaf napisał:

Więc ogółem jest to wina niczyja. Pośrednio zaś najbardziej to możesz winić Intela za
to że od czasów i5-750/i7-950 ich CPU znacząco się nie rozwinęły a jeśli już to tylko
w absolutnym high-endzie i gry oparte na fizyce muszą albo korzystać ze wsparcia dla
GPU albo po prostu mieć problemy z płynnością.

Nie sądzę. Nawet jakby dowalili 16rdzeni to dalej by to leżało odłogiem przez narzut API i oprogramowania.
Więc problem jest szerszy :P I zdecydowanie nie tylko złe AMD robi gorsze o 8 fps stery ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Od wczoraj pojawił się u mnie podobny problem, co w przypadku GTX 570 dwa lata temu:
otóż, temperatura mojego GTX 980 skacze z 29 do 42 stopni c podczas przeglądania internetu.
Karta ma niecałe osiem miesięcy i nie powinna być mocno zakurzona ( chyba pod koniec marca otwieraliśmy z kumplem budę i było ok ), zastanawiam się, czy to normalne?
Tak to obecnie wygląda - fotka.
Najciekawsze jest to, że temperatura ta utrzymuje się od kilku minut i nie spada nawet o stopień.

20150531120145

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 31.05.2015 o 12:02, lis_23 napisał:

Od wczoraj pojawił się u mnie podobny problem, co w przypadku GTX 570 dwa lata temu:
otóż, temperatura mojego GTX 980 skacze z 29 do 42 stopni c podczas przeglądania internetu.
Karta ma niecałe osiem miesięcy i nie powinna być mocno zakurzona ( chyba pod koniec
marca otwieraliśmy z kumplem budę i było ok ), zastanawiam się, czy to normalne?
Tak to obecnie wygląda - fotka.
Najciekawsze jest to, że temperatura ta utrzymuje się od kilku minut i nie spada nawet
o stopień.


Uruchom GPU-Z "sensors" i obserwuj taktowanie GPU.

Możliwe, że nowe sterowniki mają inne - delikatniejsze zarządzanie energią i przy przeglądaniu internetu, GPU wchodzi na 3D.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 02.06.2015 o 13:33, leven napisał:


Uruchom GPU-Z "sensors" i obserwuj taktowanie GPU.

Możliwe, że nowe sterowniki mają inne - delikatniejsze zarządzanie energią i przy przeglądaniu
internetu, GPU wchodzi na 3D.


Sprawdzę to ale zauważyłem, że to wina Firefoxa:
raz jest 30 stopni, a zaraz skacze na 40-43 stopnie, w zależności od strony, którą się przegląda 9 filmiki, zdjęcia, itp ), czasami nawet gra w Flash Pac Mana powoduje skok temperatury. Wtedy trzeba zamknąć FF i poczeka na zejście temperatury. Czasami po ponownym uruchomieniu przeglądarki przez godzinę jest ok, a czasami szybko wraca do poprzedniego, podwyższonego stanu.
Możliwe, że to kwestia sterowników, ale używam ich od 21 maja, a temperatura zaczęła skakać od 30 maja.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Ech, dam ci radę.
Wpisz sobie "GTX 980 test pclab" w google i zobacz jakie tam są temperatury w IDLE. Podpowiem - 39-45 stopni.
To że Firefox używa GPU jest rzeczą normalną - Flash ma akcelerację GPU. Czasem bardzo niewielką ale zawsze, wystarczająco by karta z trybu 2D (czyli zegarów obniżonych o 90%) wskoczyła do mało intensywnego 3D (czyli jakichś 30-50% normalnych zegarów). Wentylatory wciąż nie zaczynają w tym trybie za bardzo pracować. Więc stąd i wzrost temperatury. Która zresztą wysoka nie jest - w samej obudowie masz zapewne powyżej 25 stopni Celsjusza. Nie ma nic niezwykłego w tym żeby karta miała o 10-15 więcej.

Zwracaj uwagę na temperaturę pod obciążeniem bo tylko ta ma znaczenie. Nie jest istotne czy w Firefoxie masz 10, 20 czy 45 stopni. Ale już różnica między 70, 80 a 90 w Wiedźminie 3 jest istotna - każde 10 stopni mniej w tym zakresie podwaja żywotność karty.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 02.06.2015 o 15:01, ziptofaf napisał:

/.../

Ech, dam ci radę.
Wpisz sobie "GTX 980 test pclab" w google i zobacz jakie tam są temperatury w IDLE. Podpowiem
- 39-45 stopni.


Hmmm ... ale dlaczego ów wzrost temperatury zaczął się po siedmiu miesiącach od zakupu karty?

Co do GPU-Z - nie da się zrobić fotki, gdy jest on włączony, więc tylko spiszę:

GPU Core Clock - 1227.7 MHz
GPU Memory Clock - 1752.8 MHz
GPU Temparature - 43 stopni c
Fan Speed - 24%
VDDC - 1.0620 V

Dnia 02.06.2015 o 15:01, ziptofaf napisał:


Zwracaj uwagę na temperaturę pod obciążeniem bo tylko ta ma znaczenie. Nie jest istotne
czy w Firefoxie masz 10, 20 czy 45 stopni. Ale już różnica między 70, 80 a 90 w Wiedźminie
3 jest istotna - każde 10 stopni mniej w tym zakresie podwaja żywotność karty.


W samej grze nie sprawdzałem ale zaraz po zamknięciu aplikacji mam trochę ponad 50 stopni c.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 02.06.2015 o 15:17, lis_23 napisał:

Hmmm ... ale dlaczego ów wzrost temperatury zaczął się po siedmiu miesiącach od zakupu
karty?

Bo tak Firefox jak i Chrome/Opera przerzucają ostatnimi czasy coraz więcej na GPU. Może wcześniej tego nie robiły? Albo nowe sterowniki Nvidii inaczej zaczęły zarządzać temperaturami? Tak czy siak - robisz z igły widły. Jeśli system chłodzenia GPU byłby tak solidnie zasypany kurzem to w stresie miałbyś problemy a z tego co rozumiem to nie masz.

Dnia 02.06.2015 o 15:17, lis_23 napisał:

W samej grze nie sprawdzałem ale zaraz po zamknięciu aplikacji mam trochę ponad 50 stopni
c.

Temperatura zaraz po zamknięciu nie jest zbyt dobrym miernikiem. Najlepiej mieć coś co działa w tle i zobaczyć średnie wyniki po zakończonej rozgrywce.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się
Zaloguj się, aby obserwować