BlindObserver

Gramowicz(ka)
  • Zawartość

    211
  • Dołączył

  • Ostatnio

Wszystko napisane przez BlindObserver

  1. CoD od kilku części to już taka bajka, że to w przyszłości też ujdzie, bo bardziej bajkowe niż jest, to już nie będzie. Co do trailera - dziwne, ale przypomina mi to Blacklight: Retribution, tak po prostu mi się to z tym skojarzyło. Ten elektryczny nadajnik-tomahawk (czy co to tam jest) oraz latające wybuchowe "ptaszki" są lekko śmieszne, ale reszta ujdzie w tłoku. MW3 nie kupiłem, może BO2, po jakiejś obniżce. Pewnie optymalizacja tak samo "genialna" jak pierwszego BO, więc poczekam kilka miesięcy aż to załatają - po co się denerwować.
  2. Wiecie, tylko nie nastawiajcie się na 100%, że to będzie te choćby 12h, bo wiadomo co ostatnio można usłyszeć o długości gier. Gra na 10h, a potem okazuje się, że dało się zrobić w 6h, a te 4h to chyba trzeba byłoby chodzić tyłem, żeby nabić. :)
  3. Do przewidzenia było, może dzięki temu wreszcie w to zagram, bo po ostatnich kilkunastu godzinach spędzonych w KOTORze tak jakoś nawet do SW mnie zaczęło ciągnąć. Najśmieszniejsze będzie, gdy wejdzie to F2P, a i tak nie będzie jakiegoś masowego napływu graczy - co prawda EA jest badziewnym wydawcą, ale samo Bioware ostatnio robi gry tak słabe i niedopracowane, że czasem żal na to patrzeć (takie DA2 np.). EA zawsze będzie tam na nich miało wpływ, ale skoro tyle osób odeszło z BW to jak tam ma być dobrze. Klepać erpegi na jedno kopyto przez tyle lat to i tak dobrze, że się jeszcze ludziom nie znudziło.
  4. Oczywiście wszystko będzie musiało być "zatwierdzane" przez MS, a więc ceny tego co się będzie dokładało będą kosmiczne. Będzie jak z takim Radeonem HD 5770 - na PC jakieś 300 zł, na Mac 850 zł. Wszystko to samo, niczym się to nie różni, ale to drugie po prostu jest "zdolne" do działania na komputerze Apple''a. @Olamagato AMD już zapowiedziało, że kończy z obecna polityką dotyczącą podstawek. Intel choć drań, to wcale nie kłamie, że to także one wpływają na wydajność procesora i AMD to potwierdziło.
  5. Artykuły sponsorowane o sprzęcie też trzeba umieć pisać - wypadało by zajrzeć jak to robią portale stricte sprzętowe, bo te niby "miarodajne" porównanie z Macbookiem jest lekko śmieszne. Co do tej każdej gry - no rzeczywiście, GF 620M to taki mocarz, że łyka nowego Maxa na śniadanie, szczególnie gdy mamy natywną rozdzielczość 1080p... Wspominanie o HD4000 to nieśmieszny żart - kto ma ten wybitny układ ten wie, że żeby cokolwiek na nim "chodziło" potrzebne są dość widoczne ingerencje sterownika w to co potem wyświetla się na ekranie - znowu odsyłam do portali branżowych, które w bardzo przejrzysty sposób (za pomocą screenów) pokazują jak "genialnie" wygląda gra na HD4k, a jak na odpowiadających jej mocą układach konkurencji.
  6. Poczytaj sobie o BSC, to rozwieje Twoje wątpliwości co do ARM i wydajności. Chcesz, żebym Ci napisał w konkretnym miejscu telefony i emaile? I tak, z Intelem (jak i ze wszystkimi dużymi firmami produkującymi elektronikę i mającymi przedstawicielstwo w Polsce) mam kontakt. Jak każda osoba pracująca na podobnym do mojego stanowisku.
  7. Głową w mur... Nie zamiennie, ale TXAA będzie podstawą, a FXAA uzupełnieniem. Po to Nvidia to tworzyła, żeby mieć odpowiedź na to co wymyśliło AMD (w sumie do tego się nie ustosunkowałeś, ciekawe). A że jest od niedawna - sprawdź sobie dlaczego i przy okazji czego się pojawiła. Żebyś długo nie szukał, to jeden z wabików na nabywców keplerów (chociaż sama technologia działa bodajże ze wszystkimi kartami od serii 8k włącznie). I tak, tutaj masz marketing. Ale możesz zaprzeczać, bo Ty Twierdzisz inaczej - do Nvidii też Ci mogę namiary dać, może oni Cię przekonają. Co do ARM - rozumiesz co znaczy w przyszłości, prawda? Intel i AMD będą się niedługo przerzucać właśnie na nie, więc hmm, coś tu nie zgadza się z Twoją wybitną teorią. Zresztą od ukazania się tego artykułu minęło trochę czasu, a deweloperzy coraz bardziej przekonują się do architektury. Zresztą ARM jest tak słabo wydajny (yhm) że używa się go w superkomputerach i dzięki temu, że jest zgodny z RISC radzi sobie tam lepiej. To tylko kwestia czasu, aż wszyscy się wezmą za to. Chociaż szybciej pewnie w ogóle znikną CPU i zastąpi go GPU. Ale co ja tłumaczę...
  8. Może chcesz namiar do marketingu AMD chociażby? Porozmawiasz sobie z Panem Bruno, z którym mam dość często do czynienia. Może on Ci rozrysuje, że się mylisz - bo przecież tylko Ty możesz mieć rację, wyciągając wnioski po kampanii marketingowej, a wszystkie testy w necie kłamią (ci niedobrzy redaktorzy, sami oszuści)... Powiem więcej, w ogóle nie masz na ten temat jakiejkolwiek wiedzy - AMD w czasie gdy wchodziło MLAA (jako uzupełnienie, zapamiętaj dobrze, żeby nie szerzyć herezji znowu) wprowadziło także Enhanced Quality AA (inteligentna firma, wprowadzać dwa zamienne algorytmy wygładzania krawędzi i promować tylko jeden z nich...). Teraz lepsze Ci powiem - Nvidia także wprowadziła nowy, ulepszony algorytm TXAA obok FXAA (powtórzę - inteligentna firma, wprowadzać dwa zamienne algorytmy wygładzania krawędzi i promować tylko jeden z nich...). FXAA i MLAA jest wykorzystywane bo jest proste i tanie, do tego w ogóle działa na konsoli (co już samo w sobie jest nieziemskim wyczynem)- jakbyś nie zauważył wykorzystują je albo konsolowe exy, albo multiplatformy, ewentualnie można sobie wymusić w innych grach i Starcrafcie II chociażby. Zaimplementuj takie TXAA na konsoli to Ci mercedesa kupię. A co do tego, że Ci twórcy gier traktują to jako coś lepszego - HR był tworzony przy współpracy z AMD, więc lubi się z MLAA. FXAA może i jest, nawet nie wiem (w sumie, prawie na jedno wychodzi), ale skoro gra była od początku tworzona jako multiplatforma to i nie dziwne (pamiętając o tym, co pisałem o wybitnym inaczej raczeniu sobie konsol z jakimkolwiek wygładzaniem). I nie, nie oferują dobrej jakości, nie znam dosłownie żadnej gry, gdzie jakość MLAA czy FXAA jest choćby zadowalająca. Co do ARM - znowu herezje, znowu brak elementarnej wiedzy. Jeszcze sobie na dokładkę najlepiej porównaj wydajność liczoną w TFlops - znowu dużo Ci to powie... Dla Twojej informacji wszystko zależy tylko i wyłącznie od rozpisania kodu - na inżynierce na polskich uczelniach się tego można dowiedzieć.
  9. Przy dobrej optymalizacji, to te Radki HD7770, które tam się niby mają znaleźć dadzą sobie spokojnie radę z 1080p. Skoro na PC da się komfortowo grać na nich w większość gier (oczywiście bez wodotrysków, ale kto to tam widział wodotryski na konsoli) to tym bardziej na zamkniętej architekturze sprzętowej będzie można wyciągnąć coś fajnego. Zresztą 1080p to moim zdaniem już niezbędne minimum, bo upscalling nie jest najlepszy jakościowo.
  10. I miał racje, prawdziwe AA, czyli co najmniej MSSA x4 (o super samplingu nie wspomnę, bo nie wypada nawet) nie jest tam używane. Ty wypisałeś mu jedynie biedne zamienniki, które nie oferują dobrej jakości. Po czym oczywiście stwierdziłeś, że nie są to jedynie uzupełniające technologie (w sensie MLAA i FXAA), bo niby AMD i Nvidia pokazują dema technologiczne z nimi... Oczywiście rzeczywistość jest już zupełnie inna. W całym tamtym komentarzu najbardziej uderzyło mnie w oczy, że jeśli wiedziałeś (w sumie raczej nie spodziewam się tego po tym co napisałeś o MLAA i FXAA później, ale powiedzmy, że to możliwe) nie zwróciłeś mu uwagi, że przepustowość jest istotna głównie dla AF, zamiast wypisywać jakie to są "podróbki" AA wykorzystywane na konsoli. Tyle.
  11. @Henrar Spójrz na tamten komentarz i to co zacytowałeś - hydzior pisał o ograniczeniu przepustowości pamięci, na co Ty wypisałeś mu metody AA, które to z przepustowością nie mają nic wspólnego... I tak, powstały dla rynku PC jako uzupełnienie AA (czemu niby próbowałeś przeczyć). Na konsoli nie robią jako uzupełnienie, ale jako zamiennik, bo powiedzmy sobie szczerze - która by uciągnęła MSAA o jakimś zadowalającym faktorze (czyli powyżej 4, ewentualnie x2 EQ) razem z MLAA, skoro nawet AF porządnego nie potrafią ogarnąć. W przypadku NV i FXAA to też jest jedynie uzupełnienie, prawdziwym zamiennikiem MSAA jest TXAA.
  12. @Imeilic Mieć to oni już mogą, w końcu sprzęt z którego to zrobią już jest na rynku, a i deweloperzy coś tam skubią pod next geny (chociaż akurat to nie musi jednoznacznie określać, że już sprzęt gotowy jest do wypuszczenia na rynek). PS3 sprzedaje się jeszcze dobrze, to nie będą podcinać skrzydeł. Pomyśl, czy gdybyś zastanawiał się nad kupnem konsoli i dowiedział się, że w niedługim czasie wyjdzie nowa, kupiłbyś tą starszą? @Henrar A i tak jeszcze dopiero teraz zauważyłem. Ktoś tam pisał o niskiej przepustowości pamięci w konsoli. Raz, że to fakt, bo AF jest niesamowicie obcięte, a jak wiesz (lub nie) anizo wymaga dużej ilości szybkiej pamięci. Druga sprawa, to Twoja odpowiedź na to - "interesujące", po czym wymieniasz metody antyaliasingu. Prawie na temat bym powiedział :D
  13. No właśnie bardzo bardzo, poczytaj artykuły premierowe o Radeonach HD 6870. MLAA zawsze było i będzie tylko uzupełnieniem, bo samo w sobie na PC jest bardzo słabe i nawet wydajnościowo nie zachwycało (do wydania MLAA 2.0, chociaż wiele się nie poprawiło). Wprowadzili to tylko i wyłącznie po to, żeby wymuszać wygładzanie w grach go nie obsługujących, a jak MLAA potrafi zarżnąć kartę wie ten, kto bawił się w jego włączanie w Bioshocku czy Mass Effect (ogólnie przypadłość gier na UE). Schodki są i je widzę, co mi przeszkadza. Nie żebym grać nie mógł, ale skoro je widzę, to algorytm jest wybrany źle, mam zbyt niską rozdzielczość. AA na konsolach jest zdecydowanie bardziej obcięte i według mnie czy to tam jest czy nie ma i tak nie ma większej różnicy. Jedynie moc obliczeniowa się marnuje. Zresztą sam faktor AA jest ustalony na jakimś drastycznie niskim poziomie, więc w ogóle implementacja tego jest dziwnym przedsięwzięciem (żeby nie powiedzieć niepotrzebnym).
  14. Dobra, uspokój się, weź głęboki oddech :) Nie wiem gdzie widzisz cokolwiek o MLAA (pokazujesz, że się nie znasz i nie wiesz o czym mówiłem, chociaż to takie proste...), bo wspominam o standardowym ustawieniu filtrowania anizotropowego, które w sterowniku jest przestawione na (uwaga, przeczytaj uważnie i zapamiętaj - Wydajność (multipróbkowanie AA)) co jest oszustwem ze strony AMD, ale nie chce mi się tłumaczyć jak to wygląda (po co, skoro mylisz proste pojęcia więc i tak tego nie ogarniesz...). Druga sprawa to Optymalizacja AMD w faktorze teselacji, która także jest totalnym laniem wody i o której też pewnie nie wiesz (poszukaj na Guru, potwierdzą). Nie wiesz o czym piszesz w ogóle i to jest problem, sterownika do własnej karty nie znasz, a mi próbujesz coś udowodnić (może jakbym był osobą, która nie ma Radeona to mógłbyś mi wcisnąć jakiś kit, cóż, jednak mam)... I nie skończony idiota porównuje, tylko człowiek który wie (czytaj wolno teraz, żeby nie było pomyłek), że IPC (poczytaj, może Ci się w życiu przydać) w starszych Phenomach jest wyższe niż w nowszych Bulldozerach, a więc pojedynczy rdzeń jest mocniejszy. Nie będę Ci tłumaczył dlaczego, znowu koledzy z Guru3D pośpieszą z pomocą. Nie moja wina, że AMD robi ostatnio procesory które nie mogą konkurować z niczym. I na koniec, nie ekscytuj się, fanatykiem nie jestem, bo posiadam różny sprzęt, na którym w odróżnieniu od Ciebie się znam. Zresztą zdecyduj się niefanatyku i nieidioto czy jestem w końcu fanboyem Intela (mam), Nvidi (nie mam)i czy może AMD (mam). Chętnie się dowiem :)
  15. Pewnie, że nie kończy się na multi-samplingu, ale wykorzystanie MLAA czy FXAA tylko po to, żeby go wykorzystać jest bez sensu, pamiętając, że niska rozdzielczość robi swoje, co w rezultacie przekłada się na to, że i tak mam schodki. Do tego na PC jest to tylko uzupełnienie AA, bo same w sobie wszystkie metody wygładzania oparte na post-processingu są bardzo problematyczne (no chyba, że ktoś lubi mieć nieostre, rozmazane krawędzie czy nienaturalnie wyglądające, zaokrąglone czcionki). "Post-processingowy AA to cały czas anti-aliasing" - tak, tylko gorszy.
  16. Umiemy czytać? O AA i AF pisałem w przypadku Crysisa Warhead, także spróbuj wolniej i sylabizuj, może zrozumiesz... Nie jestem wyznawcą Nvidii - mam Radeona HD 6970 (albo tak, jestem wyznawcą i mam ich ołtarz w domu...). Więcej niż 3-4 rdzenie to przerost formy nad treścią? Taak, szczególnie na mapach gdzie grają te 64-osoby. Cóż zgadzam się, że 3-4 rdzenie to już max, bo trudno kupić procesory które mają więcej... No chyba, że liczyć wątki jako rdzenie to wtedy w Gulftownie masz ich aż 12... A gadać o tym, że są słabe mogę, bo przetestowałem już ponad 140 kart graficznych. Jeśli uważasz, że Twój Radeon jest mocny to współczuję, z teselacją sobie nie radzi, szczególnie przy wyższym faktorze. W wysokich rozdzielczościach radzi sobie lepiej niż GF, ale przy gorszej jakości filtrowania (sprawdź sobie "niefanatyku" jak AMD standardowo ustawia jakość trybu antyaliasingu - o ile wiesz gdzie to sprawdzić oczywiście) i większych dropach FPS. Procesor to w ogóle mistrzostwo, sam miałem przez długi czas Phenoma X2 unlocka do X4 B60 @ 4GHz i cóż, w porównaniu z Sandy Bridge to lekka kicha, szczególnie w przypadku jednego wątku. I o optymalizacji się nie wypowiadaj, bo nie masz sprzętu żeby ją sprawdzić, a nawet gdybyś go miał to nie sądzę, żebyś ogarnął jak się to robi.
  17. Jeśli grasz na sprzęcie z sygnaturki to rzeczywiście, masz jak cokolwiek oceniać :D Chociaż niektórzy na oglądanie slajdów mówią, że grają, nie wnikam. W Crysis Warhead masz czasem te 30 FPS (przyjmując, że gra nie widziała AA i AF), ze spadkami do 20 FPS. O C2 w DX11 (HD6770 radzi sobie z teselacją jak mój kot z ugotowaniem obiadu...) z teksturami (ta niesamowita przepustowość pamięci, eh...) to już w ogólnie nie wspomnę, bo tam to musi się grać naprawdę "komfortowo". Pisząc o optymalizacji BF3 możesz się wypowiedzieć... Gra lubi wiele rdzeni (niekoniecznie mocnych, ale dużo), a sam masz całe 3, zresztą niekręcone i słabe. Lubi dużo pamięci na karcie (szczególnie z włączonym AF) czego też nie możesz ocenić. Słabą optymalizację miało GTA4 czy drugi Saints Row, ale to też trzeba by było wiedzieć jak w ogóle ocenić dobrą i złą optymalizację. Opal sobie afterburnera i prześledź obciążenie swojego układu. Fakt, jest zbyt słaby, ale nawet po tym można wyciągnąć jakieś wnioski. Oczywiście jeśli potrafisz to zrobić.
  18. Od kiedy człowiek mający podwójne standardy może być wyznacznikiem czegokolwiek i celnie wytykać cokolwiek?
  19. A Ty jak zwykle pośpieszyłeś na białym rumaku dzierżąc w lewej ręce tarcze, a w prawej miecz by własną piersią obronić CoD-a (jakby było co bronić)...
  20. Ty po prostu szufladkujesz graczy. Gram w to złe Diablo III ze złym i niedobrym zabezpieczeniem, na które nigdy nie narzekałem i jestem hipokrytą... Co mnie obchodzi, że na forach jest ta ogromna hipokryzja, skoro przypinasz każdemu nabywcy D3 taką łatkę, nawet gdy nigdy nawet się nie zastanawiał czy mu DRM przeszkadza czy nie. Robisz to samo co inni gdy piszą, że konsole zniszczyły rynek gier. Ten sam poziom absurdu, ale że prezentujesz go Ty to już absurdem nie jest, prawda? Traktujesz Diablo III jako grę singleplayer i tylko przez to przeszkadza Ci, że jest ten ciągły wymóg podłączenia do sieci. Ja nie mieszkam w lesie (łącze jak na wiochę bardzo stabilne i szybkie) i nie widzę tam singla więc może dlatego w ogóle mi to nie przeszkadza. Przykład online passa nie podałem po to, żebyś mi tłumaczy co to jest, tylko po to, żeby pokazać że jako gracz PC-towy nie obchodzi mnie to co się dzieje na konsoli. Co do "zobaczymy za parę lat" nie wiem o co chodzi. Czyli za parę lat będzie mnie obchodziło, że mnie, jako "ukrytego hipokrytę" wyśmiejesz, a teraz mnie nie obchodzi? Każdy widzi na opakowaniu (albo i nie, bo trudno dostać) że gra wymaga połączenia z internetem. Nie podoba się - nie kupuj. Taka prosta zasada, ale lepiej ponarzekać na coś, co i tak nic w życiu gracza, który defacto nawet nie gra w D3 nic nie zmieni. I te elementy społecznościowe to najmniejszy problem, tutaj jest to AH (jakoś tak nie traktuję tego jak opcję społecznościową, więc rozdzielam) gdzie będzie obrót gotówkowy. Jakoś musieli się zabezpieczyć. I nie jestem jakimś adwokatem innych osób, ale nienawidzę wybiórczości. Walczysz z hipokryzją, jak sam piszesz, samym będąc osobą, która ma podwójne standardy.
  21. @Henrar Ale co Ci przeszkadza, że ja/my uważam/y że ta gra nie ma singla jako takiego? Będziesz w to grać? Tak? Czy może nie bo "PC jako platforma do gier umarła" lub "nie wyszło na konsole" to nie kupię. Mnie nie obchodzi, że w DS też była integracja sieciowa, bo co mam z tym zrobić? Co to ma mi przedstawić? Że w grze konsolowej, w której nie "dogram" sobie moda pozwalającego farmić mega itemy, które potem będę mógł sprzedać na AH nie ma wymogu ciągłego połączenia z internetem, a w Diablo, które bez tego połączenia pewnie by się takiego moda doczekało taki wymóg ciągłego połączenia jest zły? Że nie da się grać w Diablo w podróży na laptopie? A w tego DS czy Gearsy to sobie w pociągu pogram pewnie... Starasz się wcisnąć ludziom, że osoby, które narzekają na zabezpieczenia to także w ogromnej większości nabywcy Diablo 3, a to jest tak krótkowzroczne i niepoważne, że głowa boli. Ilu z tych, którzy tak narzekają w ogóle kupuje jakiekolwiek gry, od tego wyjdźmy, a nie że "ten narzekał, PEWNIE kupił też Diablo III, to uogólnijmy, że tak robią wszyscy". Nikogo nie będę tłumaczył, bo mi wisi co ten Blizzard zrobi, dla mnie samotne granie w Diablo 3 jest totalnie bez sensu i przez te 80h które mam nabite może całe 30 minut byłem w grze sam. A to, że kogoś tam z tym aope wyśmiejesz - kogo to obchodzi? Z Twoich postów wynika, że walczysz z PC-towcami (głównie z trollami) często prezentując taki sam poziom jak oponenci. Grasz na konsoli i obchodzi Cię, że jakieś tam Diablo III ma DRM na PC? Gdzie tu logika? To tak, jakby mnie obchodziło, że w niektórych konsolowych gra jest online pass, mniej więcej ten sam poziom.
  22. @Henrar Że tak spytam, co chcesz udowodnić? Pytam jako gracz PC-towy i szczęśliwy (choć nie przeszczęśliwy) posiadacz Diablo III. Że granie na PC jest bez sensu i każdy sobie xboxa musi kupić, bo tam jest ta świetna jakość rozgrywki sieciowej za którą muszę płacić? Że tak jak pisze Lordpilot gracze PC-towi to hipokryci bo jeden DRM uważają za dobry, a inne za złe? DRM DRMowi nie równy, sam nie mam nic przeciwko Origin czy Steam, ale gier Ubishitu nie kupuję, bo po prostu nie widzę wśród nich nic co by mnie zainteresowało. Nie ma tutaj jakichś kwestii ideologicznych, chociaż wolę kupować gry bez jakichkolwiek zabezpieczeń (głównie niezależne, ale też choćby Wieśka 2). Każdy gra jak lubi, sam się do wątków o grach konsolowych nie wbijam bo nie one nie interesują. Bardziej "elitarny" nie jestem, bo zainwestowałem w PC. A inwestuję w co mi się podoba, także w Diablo 3, co widocznie jest czymś złym, bo "mam podwójne standardy"...
  23. Bardziej kosmiczna, prostsza w programowaniu. Skoro mój wykładowca od programowania niskopoziomowego stwierdził że tak jest to raczej tak jest. PS2 był tego kontynuatorem, a PS3 niestety pod tym względem to kompletny "potworek". Tradycje to sobie może kontynuować, ale trudność programowania do tej tradycji nie należy :D
  24. @Henrar Cóż, tak to Sony inteligentnie pomyślało nad utrudnianiem życia twórcom gier zmieniając najlepsze i najprostsze podejście do programowania jakie było w PSX i PS2 na coś, co musiało ich wyróżnić. No i ich wyróżniło :D Zresztą CDP to raczej biedne studio także bawienie się w robienie gier na PS3, co przez wielu jest wskazywane za najdroższe przedsięwzięcie (porównując z klockiem i pc) może być raczej średnio opłacalne. A jak na PS3 nie zrobią to z głodu też nie umrą. @chuck29 Jak taki Wiedźmin 2 jest tasiemcem to czym jest Final Fantasy czy CoD :D Do tasiemca jeszcze trochę brakuje.
  25. Hmm, z AMD jest troszkę inaczej, bo oni wymienili się z Intelem niektórymi rzeczami, co sprawia, że praktycznie nie płacą nic Intelowi za możliwość produkowania procesorów. Zresztą sami zrobili odpowiedniki intelowskich instrukcji, a całe HT w takim Pentium IV czy w obecnych Core i7, i5 i i3 to też zasługa AMD (chociaż oczywiście mało kto o tym wie). Zresztą mamy "kontrolowaną" konkurencję, a więc większość nowinek AMD dostaje gratis (np AVX), żeby Intel nie podzielił losu MS i bulił siano za monopol. Z tym, że oczywiście AMD ma własne patenty (jakieś tam nie tak dawno Intel odszkodowanie im płacić, za multimedia chyba), a Intel swoje. To nie jest taka sytuacja jak z Sony i IBM, bo Intel nie opatentował procesorów produkowanych dla AMD, bo ich zwyczajnie nie produkuje.