Néhány napja jártam a MediaMarktban, egész célirányosan mentem és egeret és billentyűzetet kerestem. Bár nálam egyáltalán nem jellemző, hogy az IT-s cuccokat ilyen „bevásárlóközpontból” válasszam ki, de vannak olyan eszközök, mint a lábbeli: muszáj megvétel előtt kipróbálni, megtapogatni, megrázni, hogy biztosan kényelmes-e. Inkább eltöltök az összes termék megtapicskolásával egy órát, semmint olyan billentyűzetet és egeret vegyek, amelyek néhány óra használat után az ablakon repülnek ki, olyan kényelmetlenek.
Ha már itt jártam, egészen pontosan jártunk Charmeddel, megnéztük a laptop, tábla és hibridgép szekciót is. Bárcsak ne tettük volna!
Alapvetően hét gyártó termékével találkoztunk a polcokon: Acer, Asus, Dell, HP, Lenovo, Fujitsu, PackardBell. Az árak is elég tág határok közt mozognak: már 98 ezerért el lehet hozni egy ipari hulladékot gépet, de nem nehéz találni félmillió feletti MacBookra hajazó Asus egybegépet (gép + monitor) sem. Azaz így távolról olvasva ez akár azt is jelentheti, hogy van választék, de ne hagyd magad átverni: se választék nincs, se elérhető áron jövő biztos számítógép. Az, hogy klasszikus asztali gépet nem árulnak, az egy másik érdekesség…
Természetesen (és szerencsére), nem emlékszek az összes gépre, így csak a maradandó megrázkódtatásokat írom le. Az egyik ilyen az az Acer gép, mely 2 GB memóriával, 32 GB(!) SSD-vel, Celeron(cs) N3050 CPU-val és Windows 10-zel (prospektusban 8-cal) kínálta magát potom 63 ezer forintért.
Gyorsan ránéztem az órámra és a telefonomra, hogy ellenőrizzem, még mindig 2016-ot írunk-e, vagy áthaladtam valamiféle időkapun és visszautaztam öt évet az időben. De nem, még mindig 2016 van.
Nézzük csak, mire elég egy ilyen gép, ha Ubuntut teszünk rá: egy alapértelmezett Ubuntu telepítés néhány plusz programmal, frissítésekkel, mindennel együtt 4,5-5 GB körül van, de inkább kevesebb. Adjunk oda 4 GB-ot lapozófájlnak, hogy ha már fizikai memória nincs, az SSD-nek hála legyen (a merevlemezhez képest) gyors lapozófájlunk, azaz nem lesz olyan borzalmasan lassú a gép csak lassú.
Azzal viszont, hogy a lapozófájlt az SSD-re tesszük, használattól függően jelentősen csökkenhet az SSD élettartama. Ezt mindenképp érdemes szem előtt tartani. Mire elég a maradék durván 20 GB? Hacsak hurcolászós, netezgetős, levél olvasgatós, irodai szoftvercsomag használatához kicsi gép kell, akkor jó lenne, lehetne, mondjuk minimum 4 GB RAM-mal (de ez tényleg az abszolút minimum). Hiszen kicsi, egyszerűen hordozható, keveset fogyaszt, talán kibírhatna egy feltöltéssel egy egész munkanapot is. Ráadásul azt is el tudom képzelni, hogy az ilyen gépet akár 5-10 percenként felébresztenének az alvó állapotából, mert valami pont gyorsan kell, és mivel nincs benne merevlemez, ami ugye az indulás-megállás ciklusoktól megy tönkre, ezért ezt kvázi büntetlenül lehetne így használni. Lehetne, de nem igazán lehet, mert megöli a 2 GB RAM, amivel csak szenved a gép. Nem hiszem el, hogy valaki ott bent az Acernél nem látta a kihagyott ziccert gépben.
A másik dolog, amit nem értettem, hogy míg szinte az összes alsó kategóriás (értsd: olcsó) notebook be volt kapcsolva, addig a magasabb, sokszor 3-4x drágábbak se bekapcsolva nem voltak, se nem volt hozzájuk töltő csatlakoztatva, hogy ki lehessen őket próbálni. Én ha boltként próbálok gondolkozni, akkor nekem az a jó, ha minél több gép be van kapcsolva, mert annál nagyobb az esélye valamelyiknek, hogy elcsábítsa a vevőt. Minket konkrétan egy Dell Vostro fogott meg dedikált VGA-val, 8 GB memóriával és Ubuntuval. De nem sikerült kipróbálni, az áruházi dolgozók pedig természetesen jól felszívódtak…, szóval érdekelt, de nem kívántam meg. De a legtöbb, nem gagyi műanyagból készült notebookkal ez volt a helyzet, hogy nem lehetett kipróbálni.
Azt a tényt persze el kell ismerni, hogy az alsó/alsó-közép kategóriában vannak a legkeresettebb (legmegfizethetőbb) gépek. Ezek viszont, nos nem is tudom mi volt a legrosszabb: Érintésre süt a touchpad? Most komolyan, azt a szart akarják nekem eladni, aminek érezhetően, sőt kellemetlenül meleg a touchpadja? Na, elmentek ti… Vagy azt a vackot, mely már a prezentációs szoftverbe belefagyott? Esetleg azt, aminek nem csak a tapipadja meleg, hanem az egész gép sugározza a hőt, és be sem tudom kapcsolni, mert jó eséllyel túlmelegedés miatt állt le? Komolyan ezt akarják ~150-170 ezer magyar forintért rám sózni?
Akinek van egy kis esze, még akkor is, ha nem technikai ember, csak épp egy laikus, aki logikusan gondolkodik, az nagy ívben elkerüli az ilyen konstrukciós hibás vackokat. Miféle hűtése lehet egy olyan gépnek, amely nem képes meghajtani akár 8-12 órán keresztül az operációs rendszert és az amúgy nem túl informatív promóciós alkalmazást? Azt el tudom képzelni, hogy a promóciós alkalmazás olyan hulladék, hogy pörgeti a CPU-t, de ez esetben nem kellene, hogy az alkalmazás legalább egy minimális Q&A-n átmenjen a bolt részéről? Vagy legalább kapcsolnák ki azt az istenverte lapozófájt, hogy ne kelljen fél percet várni, ha hozzányúl bárki is a géphez…
Sajnos tákolások nem csak az alsó/közép kategóriában jellemzőek, hanem az igazán drága laptopoknál is feltűnik, amelyre tökéletes példa a Lenovo ThinkPad T540p. 16 GB RAM, Intel i7-4710MQ CPU, gyárilag HDD (igen, WTF?!), de ha kérünk hozzá SSD-t, akkor dobnak hozzánk valami OEM-esített low-end R/W sebességgel rendelkező vackot, notebookba csomagolva összesen közel fél millió forintért. Amúgy maga a cucc is vacak:
- Rozoga a billentyűzet: első napjától kezdve több ilyen típusú gépnél is jellemző volt valamelyik billentyű ragadása, kattogása.
- Gyenge zsanérok: egy éves használat után lötyögő kijelző.
- Gyenge illesztések: alig egy éves használat után szemmel láthatóak az öregedés jelei.
- Kontakthibák jönnek elő: garanciáztatni kell a gépet, mert a kijelző valahol kontakthibás lett, ellilult a képernyő.
Csak néhány az eddig tapasztalt hibákból. Olyan szinten vacak lett ez a széria, hogy alig egy éves forgalmazás után, már nem is kapható. Ez persze nem vigasztalja azokat, akik már megvásároltak egy ilyen nem mellesleg ThinkPad márkával ellátott gépet. De most tényleg, ha a ThinkPad ilyen, akkor milyen lehet a többi? Az Acer UltraEconomy Aspire bigyó? Nem akarom tudni.
Ami a változatosságot illeti, egymás mellé téve a gépeket, egy dolog tűnik fel: mind ugyanaz, csak más gyártótól (esetleg más színben). Ugyanaz az Intel Celeron/Pentium esetleg nagy tapsvihar közepette i3-as CPU, AMD-t összesen egyet láttunk, az se volt használható, 500 GB/1 TB-os HDD és 4 GB, esetleg bizonyos kivételezett esetekben 8 GB memória. Ráadásul a kijelző is, mintha mindegyik, gyártótól függetlenül ugyanazzal az undorító HD Ready képes (ha képes) panellel lenne felszerelve. Egyszerűen csúnya kép van rajtuk és normális távolságból, szabad szemmel is kivehetőek voltak a pixel határok.
Ezt akarják az utca emberére rásózni, aki beszédül az áruházba? Aztán megy a sírás-rívás, hogy nem fogy hagyományos számítógép, átvették az okostelefonok az uralmat. De miről is beszélünk itt most? Drágán kapunk hulladékot, ami ráadásul már most elavultnak számít, de két év múlva már jó eséllyel használhatatlan lesz? Nem mintha az okostelefonok olyan jól bírnák és igen, két év alatt el fog avulni (vagy garancia idő vége után egy hónappal tönkre fog menni), de legalább a megvételkor nem egy roncshalmaz. Akinek egy kicsi esze is van, nem vesz ebből a kínálatból gépeket.
Ha egy kicsit jobban megkapargatjuk a felszínt (és nem a gépeket, mert lejön róluk a festés), akkor látható, hogy ezek az alsó kategóriás, de nem olcsó gépek miért is olyanok, amilyenek: a komponensek árai és a marginális profit miatt.
A helyzet az, hogy a számítógép egyik legfontosabb alkatrészét, a processzort, napjainkban mindössze két vállalat gyártja: az AMD és az Intel. Sajnálatos módon az AMD elmúlt (legalább) 8-10 éve nem sikerült a legjobban. Ennek oka egyrészt az, hogy balekok a notebook gyártók is, elég csak a fentebb említett Acert „bigyót” említeni, de van két cikkünk AMD-s notebook konfigurációról, mely dióhéjban akár arról is szólhatna, hogy „Hogyan csesszünk el egy notebbok-ot”: az egyik a Lenovo Thinkpad Edge E335 teszt, a másik pedig a Lenovo G50-45 teszt: Ultra hordozható gép, AMD Beema alapokon.
Másrészt persze ott van az, hogy az AMD sorozatosan rossz döntéseket hozott, nem volt megfelelő és versenyképes gyártástechnológiája, ami nélkül hiába volt több esetben is igazán fejlett és jó processzor design-ja, nem volt túl sok esélye az Intellel szemben. Persze, azt is látni kell, hogy az AMD túl korán lépett az "x86 Moore-törvény utáni" korszak útjára: Arra számított, hogy kis fogyasztással, de fejlett utasításkészlettel (persze úgy, hogy a programok is aktívan használják azokat) és a hatékonyságot csúcsra járatva lehet a jövő hírnöke. Az irány jó és dicséretes, saját meglátásom szerint teljesen frankón belőtték mi lesz az elkövetkező években, azonban túl hamar, túl korán léptek, még az x86 kifulladása és a fejlett programok létrejötte előtt indultak ebbe az irányba. Hiszen mit ér a csillió+1 darab új, gyorsan és hatékonyan végrehajtható processzor utasítás, ha sokszor minimum egy lassan húsz évvel ezelőtti architektúrára fordítják a programokat? A legrosszabb, mikor a bináris i486 (igen, az Intel-féle 80486 CPU, 1989-ben megjelent architektúrája) kompatibilis, de a i686 (Pentium Pro, 1995) vagy a hagyományos x86-64 (AMD Opteron, 2003 vagy Intel Nocona magos Xeon, 2004) sem nevezhető fejlettnek így 2016-ban.
Hogy mi indokolja mégis, az ilyen régi architektúrák támogatását? A nosztalgián kívül az égvilágon semmi. Persze, van néhány olyan rendszer, vagy olyan elcseszett SoC, mely igényelné a matuzsálemi architektúra támogatását, de ezek igen marginálisak. Vagy lehetne mondjuk az Ubuntu esetén akár egy „történelmi” ág, ahol minden program a régebbi architektúrákkal kompatibilisen fordul és lehetne egy „modern” ág, ami mondjuk 2010-ben és később megjelent processzorokat és utasításokat támogat. Persze, a programokat is úgy kellene fejleszteni, hogy az optimalizációk érjenek is valamit. Lehet erre mondani, hogy így „kikényszeríthetnék” a gépvásárlást, de legyünk őszinték: Most nem ez megy? Csak most nem az a gond, hogy nem indul el a program, hanem az, hogy használhatatlanul lassú. Az eredmény ugyanaz: A hardvert frissíteni kell. Modern utasításkészletet használva gyorsabb, hatékonyabb és energiatakarékosabb alkalmazásokat lehetne használni.
Hogy ez pontosan mennyi pluszt jelentene? Játszunk egy hipotetikus játékot: Tegyük fel, hogy asztali felhasználásra dobunk minden 2010 előtti architektúrát. Ez Intel esetén a Nehalem architektúrát jelenti minimum feltételnek, AMD esetén pedig a K10-et, abból is a Phenom II utasításai lennének a minimum küszöb.
Persze, nálam is megszólalt a csengő, hogy hé, de hát a Conroe Core2Duo még a mai napig használható kisebb dolgokra, netezésre vagy SSD-vel az idősebb korosztálynak teljesen jó, de próbáljunk meg reálisak lenni: Ezek öreg, mai szemmel nézve elavult és energiafaló architektúrák. Nyilván, ha lehetne mondjuk egy „történelmi” ág az adott disztribúció csomagjai közt, akkor ezek a gépek még mindig simán használhatóak lennének, hiszen a mostanihoz képest semmi sem változna. Ha kevésbé vagyunk szigorúak és azt mondjuk, hogy a fentebb említett CPU már modernnek számít, akkor az „engedékeny” verziózásnál Intel esetén minimum követelménynek az első Core architektúrás, NetBrust fűtőegység utáni processzorokat jelentené. Woodercest, Clovertown, Conroe és felette. AMD esetén a K10-es CPU architektúra lehetne a cél, ami igaz 2007 szeptemberi, de a K8 első fecskéi 2003-asok, azaz az első 64 bites AMD processzor szintje lenne → nem nyernénk vele semmit. Persze, ebből a modern ágból mindenképp dobni kellene a 32 bites architektúrák támogatását.
Szóval, mennyit nyernénk vele? Ha minden maradna úgy, ahogy most van, és csak a gcc kapna egy -march=core2 kapcsolót, akkor átlagosan (és természetesen programtól függően) jó néhány százalékot nyernénk. Persze, ez is néhány százalékkal több mint a semmi, ráadásul mondhatjuk, hogy ingyen is van. Elsődlegesen (de messze nem kizárólag) a multimédiás tartalmakat feldolgozó/előállító (=sokat matekozó) alkalmazások nyernek sokat azzal, ha erősen optimalizálják őket, nem csak fordítói, hanem programkód oldalon is. Gondolok itt a rengeteg számítást végző játékokra, az operációs rendszereknek immár szerves részévé vállt grafikai hatásokra, a tömörítő alkalmazásokra vagy egy egyszerű videólejátszó programra, melynél cél a minél hatékonyabb működés (mert ugye roppant idegesítő a zúgó CPU ventilátor filmnézés közben). Az optimalizálás jótékony hatásának egy kis szeletéről kicsit több, mint egy éve írtam is egy cikket: p7zip, szótárméret és a hardened kernel, avagy teljesítményteszt a backupból!.
A második legjobb példám az optimalizálásra az Asteroids@home BOINC project: Ott a hagyományos optimalizálatlan alkalmazás mellett SSE2, (S)SSE3, AVX (és cuda, de ez most nem érint minket) utasításkészlet családot is használják. Bár a kép nem feltétlen fekete-fehér itt sem, mivel olyan dolgok is bejátszanak, hogy az AVX miatt jobban melegedik a CPU → visszaveszi az órajelét → összességében lassabb a feldolgozás, de általánosan elmondható, hogy célfeladat esetén azonos hardveren rengeteget jelent a megfelelő optimalizálás. Bár az Asteroids@Home-mal nem végeztem komolyabb kutatást, annyit megtettem, hogy manuálisan kényszerítem az AVX optimalizált alkalmazás használatát Naradán az eddigi automatikus SSE3 helyett. ~190WU (Workunit, munkacsomag) alapján az SSE3 → AVX különbség 10-30 percet jelent, csomagtól függően. Ha azt nézzük, hogy a munkacsomagok nagyjából azonos méretűek, nem rossz. A tesztelt csomagok közt volt olyan, amit Narada AVX-el megoldott 1 perc 31 másodperc alatt, míg a másik gép, optimalizálatlan alkalmazással és régi, Core2Duo E6550 processzorral 3 óra 5 perc alatt dolgozott fel. Persze, ez egy elég durva és mondhatni marginális eltérés, de szép!
Visszakanyarodva az AMD-re és a drága notebook-okra: az ő rossz döntései miatt az Intel piaci dominanciát szerzett, amit mint minden jó kapitalista, most ő is kiélvez azzal, hogy kb. annyiért adja a processzorokat, amennyiért nem szégyelli, és nem szégyellős… Ezért is drágák a hagyományos számítógépek, mert drágák az alkatrészek (főleg itthon), különösen a CPU. Ezzel szemben az okos eszközös piacon verseny van: habár az ARM architektúra dominál, az ARM Holdings konstrukciótól függően inkább csak licenceket, terveket, fejlesztéseket ad el, melyekből a Qualcomm, Samsung, Apple, MediaTek és a többiek csinálnak kézzel fogható központi egységet, SoC-ot, melyek már egymással versengenek.
Félreértés ne essék, nem az AMD elmúlt ~10 évét akartam ilyen faramuci módon magyarázni vagy védeni az AMD álláspontját a „gonosz” Intellel szemben. Sokkal inkább a két gyártó által meghozott döntéseken keresztül szerettem volna a PC piac jelenlegi helyzetét úgy bemutatni, ahogy én látom (anélkül, hogy a tisztességtelen eszközökről beszéltünk volna, természetesen).
Tehát, miért is döglődik a PC piac?
- Nincs árlehajtó piaci verseny a szereplők közt
- Vackot árulnak, drágán
- Az olcsó eszközök már a boltok polcain elavultak
- A drága, régi és elvileg bejáratott márkanév se feltétlen jelent már garanciát a minőségre
- Hiába fejlettek a hardverek, ha többségében még mindig 20-30 éves utasításokkal hajtjuk őket.
Azt még szeretném hozzátenni így a végére, hogy ha nem vigyázunk, akkor a CPU piacon megismert, és a mai napig szenvedett helyzet fenyegeti a diszkrét videókártya piacot is: Ha nem vigyázunk, akkor az nVidia olyan piaci fölényt fog elérni, melyet ésszerű keretek közt az AMD nem fog tudni ledolgozni. Nem azt mondom, hogy tessék mindenáron AMD-t vásárolni, hanem azt, hogy ha van egy AMD VGA x ezer forintért, egy nVidia VGA x ezer forintért és hol az egyik, hol a másik gyorsabb 1-2 marginális százalékkal, akkor érdemes azt is figyelembe venni, hogy a kisebbik (AMD) szereplő támogatásával nem csak magát a gyártót támogatod, hanem a legközelebbi VGA vásárlásodba fektetsz be.
u.i.: Találtam egeret és billentyűzetet.