Zaloguj się, aby obserwować  
Gram.pl

Paraliż Internetu w 2010?

99 postów w tym temacie

Ale bajka.... cos w stylu "w 2000 roku komputery przestana działac" nie wiem czy to próba zwrócenia uwagi na siebie przez naukowców albo może dostawcy internetu im troche "posmarowali", z resztą mam to gdzieś.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.11.2007 o 14:55, Koczy napisał:

ale to jest prawda... jesli np. umiescimy dwa 2900XT w CrossFire do tego proc jakis 4 rdzeniowy,
chlodzony azotem, 8GB RAMU i "upchniemy" to w 500W zasilaczu to wiadomo ze nam to padnie...
wlasnie taka sytuacja jest obecnie z internetem... czy wy naprawde myslicie ze wystarczy wlazyc
"kabalek do wtyczki" czy "zalozyc se antene" i to wszystko... przeciez kazde dane, nawet to
ze teraz pisze, sa przesylane do specjalnych satelit ktore przetrzymuja te dane, wysylaja...
nagromadzenie takich danych moze porpostu spowodowac siadniecie takiego serwera... powinno
sie ograniczyc rozpietosc lacza maksymalnie do 6mb/s dla wszystkich na swiecie a nie USA 30mb/s,
chca wiecej a potem mowia ze trzeba sie ograniczac... Internet 2.0 moze rozwiac ten problem
ale wyslanie satelit na orbity, a przedewszystkich najpierw ich stworzenie, troche kosztuje...
narazie te systemy sa testowane na niektorych uczelniach a wiec troche jeszcze potrfa zanim
wprowadzi sie to do powszedniego uzytku... czy grozi nam 2 letnia przerwa w dostawie internetu...
mysle ze jest to jak najbardziej mozliwe i trzeba sie naprawde na takie cos przygotowac...
cala nadzieja w tym ze zacznie sie wreszczie ograniczac predkosc i przepustowosc lacz a i prace
nad "nowym internetem" przyspiesza... bierzcie takie apele na powaznie... kiedys powiedziano
ze Titanic nigdy nie zatonie, "ze nawet Bog go nie ruszy" a tu pierwszy rejs i nie spodzianka...

oczywiscie to moja skromna opinia oparta licznymi faktami, mam nadzieje ze kazdy to uszanuje
i nie zwyzywa


jedyny komentarz z sensem w tym temacie... reszta uczepila sie jak rzep psiego ogona tego 2012, a TO JEST TYLKO PRZYBLIZONA DATA, biorac pod uwage wzrastajace stopniowo obciazenie internetu to wlasnie w okolicach 2012 internet zacznie sie sypac, nastapi masa przeciazen i moze internet stanac :/ ale gdzie tu komus cos tlumaczyc...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Raczej powątpiewam w tą analizę. Z prostej przyczyny - rozwój techniki. Tak samo analitycy obawiali się roku 2000, czyli tzw. pluskwy milenijnej. Zakładano upadek wszystkich komputerów na Ziemi, ale jednak technologia okazała się wystarczająco, że tak to ujmę "wytrzymała" i poradziła sobie z problemem. Obecnie pęd ku ulepszaniu technologii stosowanych w informatyce, a zwłaszcza telekomunikacji jest niesamowicie silny i szybki, więc przypuszczam, że przed tym prognozowanym rokiem doczekamy się rozwiązania tego problemu, który uznamy za niebyły. ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

co ci po rozwoju jak np sieć która składa się 2mln kompów zacznie tworzyć korki? Ruch w sieci jest ogromny, każdy zachwyca się dostępem do informacji ale zapomina się że jak Kowalski ma dwa komputery to one generują w mniejszej lub większej ilości dane które sobie radośnie idą w świat. Teraz pomyśl dlaczego większość firm trzęsie się na myśl że ktoś jej może fundnąć DOS-a albo DDOS-a? Bo wiedzą że mogą tego ich serwery nie wytrzymać pomimo wielu unowocześnień. Tak naprawdę jeśli zostaniemy przy starych metodach przesyłania danych i sposobie generowania ruchu w sieci to prędzej niż później pojawią się korki. To że powstaje alternatywa w postaci internet 2 wiadomo nie od dziś, same założenia jeśli uda się jej spełnić mogą rozwiązać sporo problemów. Samych codziennych danych cache niektórych serwerów byście sobie nie upchneli na 1TB, a co dopiero mówić o tym że te dane muszą przez coś iść.
Rozumiem że przyzwyczajenie "odpalam kompa klikam internet i działa", wygrywa z faktami ale takie myślenie to dopiero "ściema".

Ps. Ostatnio macie przykład GG więc się zastanówcie czy to co jest w newsie jest takie nie możliwe.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

żal.pl, żal.pl, żal.pl i jeszcze raz żal.pl ale ściema pfff... ;/ Nie wierze w ani 1 słowo tego newsa :| bo w 2010 roku na pewno technika będzie coraz lepsza ;).
A my Polacy nie musimy się niczym martwić ;) bo i tak nasza technologia jest nieco trochę słabsza niż w innych niektórych krajach ;p.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Czyżby to była jedyna okazja by fotka.pl upadła? :) Ja jakoś brak Internetu bym przebolał, ale moja siostra... ale by się działo. ;)
Jedynie szkoda by było gram.pl, a tak to i nie ma specjalnie po co wchodzić w ten cały Internet.
Jednak i tak znajdzie się i na to sposób.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Niechce mi się coś w to wierzyć. Jeżeli technologia za 2 lata doprowadzi do tego, że każdy z nas będzie miał w domu łącze 10mb, to napewno znajdzie się jakiś sposób, aby uniknąć przeciążenia całej sieci internetu. Chociaż według mnie takie łącza są za szybkie dla domowych komputerów, więc lepiej dmuchać na zimne i wprowadzić jakaś ustawę zakazującą posiadania domowego łącza szybszego niż np 6mb? ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.11.2007 o 17:40, L33T napisał:

co ci po rozwoju jak np sieć która składa się 2mln kompów zacznie tworzyć korki?

Rozwój motoryzacji też jest burzliwy - na ulicach w dużych miastach jest coraz więcej samochodów, korki itp. a jakoś przemysł ma się dobrze - samochody nadal się sprzedają, ludzie nimi jeżdżą - nikt nie prognozuje końca ery motoryzacyjnej.

Bill Gates tez kiedyś prognozował że "wszystkim komputerom wystarczy 640 kB pamięci operacyjnej" ...

W 2000 miała nastąpić katastrofa ze wzgl. na "problem roku 2000" (sposób zapisu daty w programach). Jakoś katastrofa nie nastąpiła.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

tja tylko że w sieci nie ma rowerów żeby w razie czego się przesiąść. A problem bot-net-u jako korka w sieci jest bardzo realny.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.11.2007 o 14:55, Koczy napisał:

ale to jest prawda... jesli np. umiescimy dwa 2900XT w CrossFire do tego proc jakis 4 rdzeniowy,
chlodzony azotem, 8GB RAMU i "upchniemy" to w 500W zasilaczu to wiadomo ze nam to padnie...
wlasnie taka sytuacja jest obecnie z internetem... czy wy naprawde myslicie ze wystarczy wlazyc
"kabalek do wtyczki" czy "zalozyc se antene" i to wszystko... przeciez kazde dane, nawet to
ze teraz pisze, sa przesylane do specjalnych satelit ktore przetrzymuja te dane, wysylaja...
nagromadzenie takich danych moze porpostu spowodowac siadniecie takiego serwera... powinno
sie ograniczyc rozpietosc lacza maksymalnie do 6mb/s dla wszystkich na swiecie a nie USA 30mb/s,
chca wiecej a potem mowia ze trzeba sie ograniczac... Internet 2.0 moze rozwiac ten problem
ale wyslanie satelit na orbity, a przedewszystkich najpierw ich stworzenie, troche kosztuje...
narazie te systemy sa testowane na niektorych uczelniach a wiec troche jeszcze potrfa zanim
wprowadzi sie to do powszedniego uzytku... czy grozi nam 2 letnia przerwa w dostawie internetu...
mysle ze jest to jak najbardziej mozliwe i trzeba sie naprawde na takie cos przygotowac...
cala nadzieja w tym ze zacznie sie wreszczie ograniczac predkosc i przepustowosc lacz a i prace
nad "nowym internetem" przyspiesza... bierzcie takie apele na powaznie... kiedys powiedziano
ze Titanic nigdy nie zatonie, "ze nawet Bog go nie ruszy" a tu pierwszy rejs i nie spodzianka...

oczywiscie to moja skromna opinia oparta licznymi faktami, mam nadzieje ze kazdy to uszanuje
i nie zwyzywa


O orbitalnych serwerach jeszcze nie słyszałem ;) Jak chce się przyspieszyć intenet to dorzuca się i router obok starego z jednej strony światłowodu, drugi z drugiej i ciągnie się między nimi światłowód. Jeśli faktycznie ludzkość do budowania łączy szkieletowych wykorzystywała by satelity to nie dość, że było by to strasznie wolne to jeszcze koszmarnie drogie.
Ten news to bzdury na kiju, to w kwestii firm takich jak google, amazon i innych leży żeby ich serwery/bazy danych dobrze działały. Swoją drogą nawet jak ktoś ma 6 mb/s to czy jest to w stanie wykorzystać? Pomyślmy realnie czy świadczy usługi działające z tą prędkością?
Sieci szkieletowe będą się rozwijać jak będzie na to zapotrzebowanie także panikować nie ma co za bardzo. Jedyne czego można się obawiać to cyberprzestpczość i cyberterroryzm bo ona będzie się rozwijać wraz z rozwojem internetu.
Btw. internet to nie pojedynczy statek tylko ogromna sieć komputerów. Wyłączenie 1 komputera z niej nie powoduje jakiś wielkich szkód bo istnieje 100 innych dróg którymi można przesłać pakiet, natomiast zatonięcie jednego statku wiadomo ;). Mówiąc wprost - porównanie do Titanica słabe tym bardziej, że "internet" pływa już od kilkunastu lat. ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

A taka sama ściema z tym Internetem jak ze zmianą daty w 2000 roku - nic nie będzie i tyle. Właściwie to powinno się z serwerów kasować strony, których nikt nie odwiedzał od dawna.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 21.11.2007 o 19:54, Namaru napisał:

O orbitalnych serwerach jeszcze nie słyszałem ;) Jak chce się przyspieszyć intenet to dorzuca
się i router obok starego z jednej strony światłowodu, drugi z drugiej i ciągnie się między
nimi światłowód. Jeśli faktycznie ludzkość do budowania łączy szkieletowych wykorzystywała
by satelity to nie dość, że było by to strasznie wolne to jeszcze koszmarnie drogie.
Ten news to bzdury na kiju, to w kwestii firm takich jak google, amazon i innych leży żeby
ich serwery/bazy danych dobrze działały. Swoją drogą nawet jak ktoś ma 6 mb/s to czy jest to
w stanie wykorzystać? Pomyślmy realnie czy świadczy usługi działające z tą prędkością?
Sieci szkieletowe będą się rozwijać jak będzie na to zapotrzebowanie także panikować nie ma
co za bardzo. Jedyne czego można się obawiać to cyberprzestpczość i cyberterroryzm bo ona będzie
się rozwijać wraz z rozwojem internetu.
Btw. internet to nie pojedynczy statek tylko ogromna sieć komputerów. Wyłączenie 1 komputera
z niej nie powoduje jakiś wielkich szkód bo istnieje 100 innych dróg którymi można przesłać
pakiet, natomiast zatonięcie jednego statku wiadomo ;). Mówiąc wprost - porównanie do Titanica
słabe tym bardziej, że "internet" pływa już od kilkunastu lat. ;)


podalem na poczatku lepszy przyklad zwiazany z przeciazaniem zasilacza... naprawde myslenie ze jakos da rade nic nam nie da... tu nie chodzi o przyspieszenie uslugi tylko o to ze jak kazdy bedzie miec mega pr0 szybki internet i kazdy bedzie go uzywal, takich ludzi bedzie coraz wiecej to swiatowe serwery zaczna padac... ktos wspomnial o slowach wypowiedzianych przez Gatesa... i co? widzicie ze cos trzeba bylo zrobic aby wszystkie aplikacje dzialaly poprawnie... gdyby nie stworzono nowych plyt glownych ktore oblugiwalyby wieksza ilosc RAMu i nowych kosci pamieci to komputery staly by sie bezuzyteczne a przez naplyw informacji moglyby pasc... probowalem kiedys grac w Fable i GTA na 256 RAMach... wniosek... nie grac! czemu? gry sie resetowaly bo komputer byl przeciazony danymi... taka sama sytuacja jest z netem, jesli czegos nie zrobimy to internet wkoncu padnie i wrocimy do epoki modemow (nawiasaem mowac TP by sie ucieszylo :P)... koszta podane w newsie to mozliwe ze walsnie koszta zalozenia Internetu 2.0 na calym swiecie... wy poprostu myslicie ze "ach, jakos sie zrobi" ale nad tym "zrobi" pracuja tysiace osob ktore potrzebuja funduszy... jesli panstwa nie zrobia "zrzutki" to naprawde moze nas czekac globalne odloczenie stalego dostepu do neta... pomyslcie nad tym...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.11.2007 o 17:40, L33T napisał:

(...)


A czy stwierdzenie "rozwój sieci" ogranicza nas tylko do ulepszania istniejących już standardów? Rozwój to także poszukiwanie alternatyw. Kto wie, może jednak się uda i odnajdzie się sposób, który nie dopuści do zawalenia się Internetu? Choć rzeczywiście może to tylko mrzonka i czeka nas powrót do modemów, jak zasugerował autor newsa? Na razie cieszmy się tym, że Internet nie zwariował. :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Z tym że Internet jest siecią elastyczną bez centralnego serwera - nie trzeba iść przez en "korek".
Zawsze ruch można "przenieść" na jakiś inny węzeł który odciąży serwer infekowany albo atakowany DOS

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ja tu dostrzegam spore uzależnienie od Internetu i wygodnictwo co niektórych. Zachowujecie się jak małe dzieci, co mówią, że nic się nie stanie, to wszystko bzdura, grunt, żebym tylko miał neta najlepiej 60m/s? 512 już starczy, a Wy narzekacie. Opanujcie się! Co się dzieje z gg? Czemu wiele serwerów chodzi bardzo wolno? Przeciążenia sieci są nieuniknione, chyba, że podwyższy się koszta internetu albo zlikwiduje się część jego użytkowników, bo technologia rozwija się na tyle wolno, że ciężko tu będzie coś wymyślić, a co dopiero wprowadzić w życie.

Żyjecie w urojonym świecie, gdzie wszystko jest proste i podane na tacy, klikasz neo i działa. Tak, dzieci neostrady to dobre określenie. Myślicie, że w czasie wojny pogracie sobie w quake przez neta? Sądzicie, kable mają nieskończoną przepustowość? Nawet nie wiecie, jak bardzo się mylicie. A co z ropą? Sądzicie, że za 50 lat pojeździcie sobie swoimi samochodami? Na czym, na powietrzu? Wiele osób prorokowało, że czegoś nie będzie, Beck mówił, że II wojna została zażegnana, a było jednak inaczej. Przyszłość jest mroczna i ponura. Era uzależnienia głupiej i niczym robak jednostki od korporacji medialnych, całkowita eliminacja innych gatunków od człowieka, który zapcha wszystko i sam doprowadzi do nieładu, z którego nie wyjdzie.

Miłych snów, dzieci neo. Ciekawe co będzie, jak ją Wam wyłączą?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Zaloguj się, aby obserwować