Zaloguj się, aby obserwować  
Gram.pl

Standard PCI-Express 3.0 wkrótce. Są już pierwsze płyty główne

19 postów w tym temacie

> Samo złącze będzie też w stanie dostarczyć aż 300 W mocy do podłączonego sprzętu.

Aha ;) Czyli rozumiem, że koniec z dodatkowymi wejściami na zasilanie w kartach graficznych ?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Fajne te płyty, 300W bezpośrednio z płyty do grafiki to dobra rzecz. Mnie osobiście te gniazda dodatkowego zasilania przy grafice irytowały. Teraz tylko czekać na pierwsze karty robione pod ten standard, ciekawe jak one się będą prezentować jeżeli chodzi o specyfikację.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 12:21, Mr_Terrorist napisał:

> Samo złącze będzie też w stanie dostarczyć aż 300 W mocy do podłączonego sprzętu.

Aha ;) Czyli rozumiem, że koniec z dodatkowymi wejściami na zasilanie w kartach graficznych
?


Nie, niestety to jedynie oznacza że karty będą ciągnąć 500+ W :(

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 12:33, Fang napisał:

Nie, niestety to jedynie oznacza że karty będą ciągnąć 500+ W :(


ta jasne xd a na wymaganiach z tyłu pudełka będzie pisać: Wymagana własna mini elektrownia jądrowa obok domu"

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 12:29, Ekonochrist napisał:

Asrock totalna zżyna od płyt Asusa z rodziny ROG.


To nie jest zrzyna bo Asus jest właścicielem Asrocka. A płyty wyglądają nawet nawet, podoba mi się ta tona radiatorów..choć i tak to całe PCI-E 3.0 to znowu chwyt marketingowy, obecnie najnowsze karty graficzne spokojnie pracują na wersji 1.0 tracąc z 1% wydajności (a i to w dość specyficznych przypadkach) w stosunku do 2.0...Ale cóż, postęp, nawet tak oszukany, musi być.


A co do kart ciągnących 500W - mało prawdopodobne. Kto kupił 5 lat temu 500W zasilacz ten nadal może go używać w połączeniu z dowolną pojedynczą kartą graficzną. Pobór mocy PC-tów rzeczywiście rośnie ale nie w takim tempie i dotyczy to raczej high-endu, tańsze maszyny rzadko kiedy żrą więcej energii niż ich starsze odpowiedniki.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 12:21, Mr_Terrorist napisał:

> Samo złącze będzie też w stanie dostarczyć aż 300 W mocy do podłączonego sprzętu.

Aha ;) Czyli rozumiem, że koniec z dodatkowymi wejściami na zasilanie w kartach graficznych
?

Raczej odwrotnie, szykowałbym sie raczej na 600W karty.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 14:41, hans_olo napisał:

Raczej odwrotnie, szykowałbym sie raczej na 600W karty.


Ciekawe odprowadzą tyle ciepła jak z GTX 590 byly problemy :]

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 14:47, Zgreed66 napisał:

> Raczej odwrotnie, szykowałbym sie raczej na 600W karty.

Ciekawe odprowadzą tyle ciepła jak z GTX 590 byly problemy :]

Problemy są po to, by je rozwiązywać.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

OT:
500W? 600W? Ludzie, przecież podstawy fizyki każdy zna. Jak mielibyście to chłodzić. A poza tym do pewnego momentu zmniejszanie układów scalonych powoduje zmniejszanie poboru prądu (a więc i zmniejszanie wydzielanego z układów ciepła).
Niektórzy podobno kombinują z samo-chłodzącymi się układami, ale na obecną chwilę to tylko badania.

Poza tym... na co miałaby niby iść ta moc? Pomijając tych dla których podkręcanie to życie, a GTX 590, czy inny kaloryfer - nikomu innemu takie układy niepotrzebne.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 15:20, Paaavlo napisał:

A poza tym do pewnego momentu zmniejszanie układów scalonych powoduje zmniejszanie poboru
prądu (a więc i zmniejszanie wydzielanego z układów ciepła).

ale nikt nie wydaje tak samo wolnej poprzedniej generacji ze zmniejszonym procesem technologicznym tylko laduja przy okazji tyle tranzystorow, ze jest jeszcze gorzej np fermi

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 15:20, Paaavlo napisał:

OT:
500W? 600W? Ludzie, przecież podstawy fizyki każdy zna. Jak mielibyście to chłodzić.

nikt nie mówi, że to będą rozwiązania dla każdego. W 2001 roku szokowały karty 40W. Dzisiaj nawet absolutny low end ma często więcej.

Dnia 01.07.2011 o 15:20, Paaavlo napisał:

A poza tym do pewnego momentu zmniejszanie układów scalonych powoduje zmniejszanie poboru
prądu (a więc i zmniejszanie wydzielanego z układów ciepła).

Ale przyrost ilości takich układów powoduje większy przyrost mocy niż spadek spowodowany skróceniem kanału.

Dnia 01.07.2011 o 15:20, Paaavlo napisał:

Niektórzy podobno kombinują z samo-chłodzącymi się układami, ale na obecną chwilę to
tylko badania.
Poza tym... na co miałaby niby iść ta moc? Pomijając tych dla których podkręcanie to
życie, a GTX 590, czy inny kaloryfer - nikomu innemu takie układy niepotrzebne.

A na co komu Ferrari?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 12:37, Mr_Terrorist napisał:

> Nie, niestety to jedynie oznacza że karty będą ciągnąć 500+ W :(

ta jasne xd a na wymaganiach z tyłu pudełka będzie pisać: Wymagana własna mini elektrownia
jądrowa obok domu"


Radeon HD 6990 i Geforce GTX 590 potrafią pobrać 350 W więc tak będziesz potrzebować elektrowni...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 20:22, Fang napisał:

> > Nie, niestety to jedynie oznacza że karty będą ciągnąć 500+ W :(
>
> ta jasne xd a na wymaganiach z tyłu pudełka będzie pisać: Wymagana własna mini elektrownia

> jądrowa obok domu"

Radeon HD 6990 i Geforce GTX 590 potrafią pobrać 350 W więc tak będziesz potrzebować
elektrowni...


Niech budują szybciej te elektrownie atomowe, żeby prąd staniał :(

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.07.2011 o 21:10, Mr_Terrorist napisał:

Niech budują szybciej te elektrownie atomowe, żeby prąd staniał :(


Inwestycja sie musi zwrocic :P Nawet jak wybudują, to watpie aby stanial ^^

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować