Skip navigation

Dnešní datacentra nechtějí být vázána na jediného dodavatele výpočetní infrastruktury, tzv. vendor-lock. Požadují navíc pro svoje služby a chod zejména vysoký výkon, dostupnost a nízkou spotřebu jak pro napájení energií, tak pro chlazení. Jak probíhal vývoj v datacentrech co se týče platforem a jak vendor-lock postupně rezavěl až postupně prakticky vymizel, popisuje následující článek.

 

Datacentra dříve

Datacentrum znamenalo od šedesátých až sedmdesátých let sálový počítač. Někdy jich bylo více, někdy od více specializovaných dodavatelů. Vždy měly vlastní (proprietární) procesory, vlastní operační systémy. Takové situaci říkáme vendor-lock, uzamčení k jednomu výrobci. Efektivita byla nízká a spotřeba energie byla enormní – v podstatě byl každý rád, že datacentrum jakž takž běželo. Jsou známy případy, kdy v letních měsících stříkali na střechu budovy se sálovým počítačem kvůli ochlazení vodu.

 

Požadavky datacenter dneška

Dnešní požadavky na datové centrum jsou podstatně vyšší, než aby „jen fungovalo“, dříve prakticky jen pro ERP, tj. počítání celkových financí, mezd, případně další podnikové agendy. U datacenter současnosti, jak už privátních (firemních), tak „veřejných“ (poskytujících sdílené služby), jde jednak o podstatné zvýšení výkonu pro provoz nejrůznějších dalších aplikací, jednak o co nejnižší spotřebu energie, která vedle orientace na standard také podstatně snižuje provozní náklady, jednak o bezpečnost dat.

 

Datacentra umožňují rozšiřovat a řídit výpočetní a komunikační kapacitu daleko pružněji, než u samotné organizace (on-premise). Podporují tím trend současné doby, kdy IT už není jen IT, ale přímo podporuje nejen obchodní výsledky, včetně státní správy, která se v poslední době rychle elektronizuje, ať si každý říká, co chce. Stačí si uvědomit rozdíl v rychlosti vyřízení občanského nebo řidičského průkazu, případně výpisu z rejstříku trestů – dříve a dnes.

 

LR_Kokura1.jpg

 

Internet věcí také podstatně zvýší nároky na kapacitu

Internet věcí (IoT) se už také hlásí o svoje. Raketově roste množství připojených zařízení, a s tím požadavky na výpočetní a komunikační kapacitu, což opět nahrává datacentrům a cloudovým technologiím. Do roku 2020 má být v IoT připojeno až 20 miliard zařízení. Jen v regionu střední Evropy bude v blízko době instalováno přes 200 milionů chytrých měřičů elektřiny a plynu s předáváním dat pro řízení dodávek ve špičkách.

 

Soumrak sálových počítačů

Sálové počítače začaly být (historicky) v privátních datacentrech postupně nahrazovány unixovými systémy, opět však s proprietárními (vlastními) specializovanými procesory a s vlastními firemními mutacemi operačního systému Unix. Vyráběla je řada výrobců, mezi nejznámější patřily společnosti IBM, HP, Sun Microsystems, Digital Equipment (procesory Alpha – tuto platformu Intel později koupil a patenty použil), Cray (jeho serverovou divizi koupil Sun Microsystemc) a další. Vendor-lock byl na vrcholu.

 

Wintel a Linux – zabiják RISCů a Unixu

Svět IT se začal měnit v 90. letech, kdy začal být přístupný stále většímu počtu firem – společnost Microsoft dala masám k dispozici levný operační systém Windows, Hewlett-Packard zase levné tiskárny.

 

Společnost Intel zase dala celému světu procesory platformy x86. Jedním z prvních byl osmibitový procesor Intel 8008, brzy následovala řada 8080, hned nato 8080A s posílenými sběrnicemi, pak 16bitový 8086 už s nejednoznačným překladem instrukcí do zdrojového kódu (dva různé výpočty stejné začaly probíhat paralelně a pomalejší či nevyhovující byl zahozen). Následovaly řady 80386 a 486, Pentium a dnes Intel Core. Dřívější výrobci počítačů, od Sun Microsystems až po Silicon Graphics a Intergraph kteří je stavěli na proprietárních procesorech a vlastních Unixech, začali být ohroženi. Jedním z prvních, kteří přešli na platformu x86 a operační systém Windows NT, určený pro pracovní stanice a servery, byl Intergraph. Zrodila se platforma Wintel a vendor-lock začal rezavět odspodu, od nasazení v pracovních stanicích.

 

Linux prohlubuje erozi nestandardních platforem

K tomu přišel počátkem 90. let Linus Torvalds s Linuxem, který vyvinul na právě té nejdostupnější platformě – x86, v podstatě na desktopu – a začal jej šířit jako open source. Linuxu a open source se chopila široká masa vývojářů.

 

Linux dnes běží na řadě platforem, ale „mateřská“ x86 znamená pro ty ostatní smrtící erozi. Nejrozšířenějším Linuxem v datacentrech je podle analytické společnosti IDC distribuce Ubuntu (cca 80 % nasazení v datacentrech); nechybí ani linuxový hypervisor – KVM (cca 60 %) – neplést si se serverovou ovládací konzolí KVM – Keyboard-Video-Mouse.

Vendor-lock dostal povážlivé trhliny.

 

Svět serverů se standardizuje

Firma VMware přišla s řešením hypervisoru, na kterém může běžet více konkurenčních operačních systémů. Operační systém Microsoft Windows Server dozrál do dnešní podoby systému vhodného pro podnikové nasazení. Microsoft přišel s konkurenčním řešením hypervisoru Hyper-V, kde na jednom hardwaru může běžet více instancí OS Windows).

Intel vyvinul procesor Itanium pro serverová podniková nasazení, který se vyznačoval zejména posílením bezpečnostních prvků (například varovná systémová hlášení při nebezpečí poruchy a výpadku systému apod.).

 

Další pokrok znamenalo zrození řady procesorů Intel Xeon, který s sebou nese jak kompatibilitu x86, tak bezpečnostní prvky proti výpadku, ale i další, které do něj byly postupně zakomponovány. Vendor-lock začínal odpadávat vlastní vahou.

 

XeonChip_FB_4_ihmg2x.png

 

Intel Xeon – nový průmyslový standard pro servery a datacentra

Společnost Intel postupně rozdělila vývojovou linii procesorů x86 pro stolní a přenosné počítače od linie procesorů pro servery. Vrcholem současné nabídky Intel je rodina procesorů Intel Xeon. Jejich výhodou především obrovský nárůst výkonu. Dodávají se ve dvou variantách – Intel Xeon E5 pro běžné servery a Xeon E7 s posílenými prvky bezpečnosti RAS (Reliability, Availability, Serviceability), jak byly běžné právně u mainframů pro tzv. mission-critical computing.

 

Dnes existuje řada značkových dodavatelů serverů s procesory Intel Xeon – Dell, Fujitsu, HP, Lenovo, Cisco, a další. Například VCEVMware, Cisco a EMC (VCE a EMC jsou součástí skupiny EMC)..., kteří dodávají pro náročné výpočty a datacentra servery na standardní platformě x86. (V době psaní článku nabídla společnost Dell za EMC cca 67 miliard dolarů; 33,15 dolaru v hotovosti a ve zvláštních akciích.)

 

Například Servery Dell PowerEdge už za sebou mají dvacet let života a Ondřej Bačina, Enterprise Solutions Marketing Manager Dell, předvedl na Dell Solutions Tour na podzim 2015 model PowerEdge 4200, který byl v Komerční bance právě k tomuto výročí odstaven právě po dvaceti letech za účelem prezentace na této konferenci. „S kolegy z Intelu jsme spočítali, že nárůst výkonu u současného srovnatelného modelu je 200násobný, nemluvě o kapacitě storage, která tehdy činila 10 GB a dnes je v řádu terabajtů.“

 

Když už byla zmíněna otázka storage, i k ukládání dat už má Intel co říci, vyrábí totiž výkonné serverové SSD disky a. nedávno uvedl novou sérii SSD disků pro servery i pro datová centra.

 

Další nenápadní dodavatelé standardů

Na trhu je však mnoho nenápadných dodavatelů, o nichž vědí mnohdy jen ti, kteří datacentra stavějí – mezi největší OEM výrobce tohoto střihu patří asijští hráči jako Supermicro, Asus, QCT (Quanta), Tyan a AIC.

 

Kromě obou těchto skupin si stavějí vlastní servery (ale také síťové prvky a další) na platformě Intel největší poskytovatelé cloudu – Google, Amazon, Yahoo, Microsoft apod. Vše s ohledem na maximální efektivitu ohledně výkonnosti, spotřeby a bezpečnosti, jakou jim Intel poskytuje.

 

Nejnáročnější aplikace už na platformě Intel x86

Na platformě Intel x86 dnes běží náročné aplikace, jako například in-memory computing, která přímo podporuje zpracování velkých dat - big data. Příkladem může být SAP HANA, kde může běžet jak SAP, tak GIS nebo CAD.

 

Společným jmenovatelem pro všechny je se svými procesory Intel. Nový průmyslový standard nastolený Intelem znamená, že vendor-lock tím v mnoha případech prakticky skončil. Některé proprietární platformy jsou sice pro určité speciální úlohy stále ještě rychlejší, avšak oproti Intelu podstatně dražší. Je tomu tak kvůli malosériové výrobě, a tím i malé rozšířenosti. Sami jejich výrobci přiznávají, že není daleko doba, kdy se výkonové křivky s Xeonem protnou, a to bude prakticky znamenat jejich zánik.

 

Vendor-lock už dnes lze velmi snadno obejít, bez šperháku.

 

Inovovat znamená přežít

V současné době je dalšímu pokroku v miniaturizaci nejblíže opět Intel, který už delší dobu vyrábí 22nm technologií (Ivy Bridge ), postupně přechází na 14nm technologií, a na obzoru je již i 10nm technologie s 3D tranzistory (Skylake), což opět přinese snížení spotřeby. Jde o neustálý boj a inovace.

 

Jedním ze základních hesel spoluzakladatele Intelu, kterým byl Andy Groove a velký stratég, totiž bylo „jen paranoidní přežívají, nebo také „Byznys zkrachuje buď proto, že opustí své zákazníky, nebo že zákazníci opustí jej.“

 

Jak přežít v IT, včetně datacenter, a moci nabízet služby na úrovni doby? Jednou z šancí je inovovat svoji serverovou infrastrukturu na nové, výkonnější, bezpečnější a energeticky úspornější zařízení.

 

Datacentra a Intel

Nezanedbatelnou výhodou nových procesorů Intel x86 Xeon je právě díky stále se „zmenšující“ technologii (tj. užší šířce polovodičového kanálu P-N) stále nižší spotřeba. Ta dnes mnohdy hraje při stavbě datacentra rozhodující roli, protože servery a storage spotřebovávají elektrickou energii nejen při svém chodu, ale i na chlazení. Intel dokonce podporuje monitoring a řízení a energetické politiky serverů v datových centrech už z úrovně samotných procesorů pomocí softwarového produktu Intel Data Centre Manager.

 

Například rozdíl v uchlazení o 5° Celsia znamená nárůst spotřeby energie pro chlazení o nějakých 20 %. Proto někteří výrobci začali dodávat „horké“ servery, takže také obráceně – Google hovoří při zvýšení teploty o 1 °C ve svých datacentrech o úspoře 4 % celkových nákladů na elektrickou energii. Datacentrum společnosti Master Internet zase využívá technologii Dell Fresh Air 2.0, která umožňuje chlazení prostřednictvím tzv. freecoolingu. „Naše servery, podporující Dell Fresh Air 2.0, mohou fungovat dokonce i při 45°C,“ sdělil při otevření tohoto datacentra Leoš Vondrák, Solutions manažer v Dellu. A softwarový Vendor-lock už prakticky neexistuje.

 

Datacentra a cloud

Dnešní datacentra nabízejí různé služby, od hostingu po cloud. Základní premisou cloudu je (webový) katalog služeb, možnost uživatelské konfigurace služeb a účtování. K „naklikání“ si potřebného výkonu patří počet serverů – od virtuálních až po fyzické, počet procesorů (výkon a licencování softwaru), velikost paměti a  diskového prostoru. Účtuje se na principu pay-as-you-go, například pro jednorázový náročný výpočet, otestování řešení před zakoupením vlastní infrastruktury apod. Mezi základní služby poskytované datacentry jsou IaaS (Infrastructure as a Service), PaaS (Platform as a Service) a SaaS (Software as a Service).

 

Datacentra dneška už pracují se standardem

Příkladem spolupráce společnosti Intel s provozovateli datacenter může být lokální Cloud4Com, Master Internet, České Radiokomunikace, Prozeta, ale i další. Ostatní platformy jsou sice schopny pro služby nabídnout, zejména pro IaaS, ale většinou pouze tehdy, když si je zákazník dodá do racků sám – elektrická přípojka a chlazení jsou stejné všem, jen ty ostatní pravděpodobně spotřebují energie víc. Takové softwarové podpory je možno dosáhnout jen na základě široce rozšířeného a přijatého průmyslového standardu, kterým je platforma x86.

 

Stále existují logické snahy výrobců serverů o připoutání zákazníků k jejich řešení, ať už jde o některé speciální hardwarové konstrukce, jako například blade-servery, nebo jejich vlastní softwarová řešení server managementu, který je opět vázán na firemní hardware.

Z pohledu de facto standardu x86 však vendor-lock už prakticky neexistuje. V podání procesorů Intel Xeon jde o naplnění tří nejdůležitějších požadavků dneška – výkonu, bezpečnosti a úspornosti.

Data Centre Audit 2015 provedený společně s Computing dokládá, že využití cloudu rozhodně nevykazuje známky ochabnutí.

 

Cloud computing bude i nadále nezadržitelnou silou v krajině datových služeb. Potvrzují to nejnovější zjištění, která zveřejnil Computing Data Centre Audit 2015.

 

Dnes tvoří většinu datového objemu virtualizovaná a tradiční in-house prostředí, nicméně velmi silnou alternativou se velice rychle stává cloud. Audit provedený ve Velké Británii ukázal, že adopce cloudových služeb ze strany velkých firem vzrostla za posledních dvanáct měsíců ze 48 na plných šedesát procent, přičemž cestu razily hlavně hybridní cloudové instalace. Téměř polovina všech firem (46 %) dnes používá kombinaci veřejných a soukromých cloudových řešení.

 

Velkou oblibu cloudu lze vysvětlit několika důvody. Přední IT odborníci dotazovaní v rámci auditu zdůrazňovali, že instalace cloudových služeb vyžaduje menší náklady na hardware, údržbu i personál. Flexibilita cloudu navíc umožňuje firmám škálovat podle toho, jak rostou a používat ty nejmodernější nástroje zabezpečení.

 

Podle výzkumu je jedním z největších faktorů ovlivňujících strategii datových center v uplynulých třech letech výše nákladů na technologii datových center (37 procent). Mezi respondenty panuje přesvědčení, že firemní úložná zařízení jsou nákladná, licenční poplatky jsou stále složitější a že firmy platí stále více za produkty a služby, které vlastně nutně nepotřebují.


intel_info_graphic_AW-01.jpg

 

Výraznou změnu přinesly do firemních datových center paměti typu flash: v současné době je používá anebo plánuje používat 45 procent firem oslovených v průzkumu. Nicméně navzdory tomu, že cena pamětí typu flash poklesla za posledních osmnáct měsíců o 75 procent, je tato technologie vnímána stále jako nákladná a jako cenově nejpříznivější řešení je vnímána kombinace flashové paměti a HDD.

Aktuálně popisuje 53 procent firem svá datová centra jako „silně virtualizovaná“, nicméně výzkum ukazuje, že rychlost virtualizace se v příštích 24 měsících zpomalí. Bude to částečně vlivem pokračujícího nárůstu cloudu a novějších technologií, ale hlavně tím, že firmy už dosáhly maximální úrovně virtualizace. S tím, jak se původní fáze virtualizace chýlí ke konci, se firmy zaměřují stále více na integraci a přidávání hodnoty těmto stávajícím virtualizovaným prostředím.

 

Jak vypadá datové centrum budoucnosti?

Téměř polovina respondentů (44 procent) se domnívá, že potřeba vlastních datových center nikdy nezmizí. Zároveň ale očekávají, že největší oblastí růstu bude cloud nebo kolokace. Téměř tři čtvrtiny (73 %) firemních odborníků předpokládají, že jejich využití cloudu v následujícím roce vzroste, a to se odráží v klíčových oblastech výdajů, kdy cloud poskočí na druhé místo:

- Infrastruktura interních datových center - 32 procent

- Cloud - 22 procent

- Služby datových center (kolokace/spravované služby) - 19 procent

 

Výstřižek1.JPG

 

Zaměstnavatelé dnes dle očekávání požadují jiné kompetence k řízení nových datových středisek. Potřeba tradičních provozních dovedností a znalosti hardwaru se snižuje s tím, jak roste potřeba nových DevOps. Roste význam automatizace a orchestrace a rozvoj cloudu položí větší důraz na manažerské schopnosti typu jednání a dodávání služeb. Větší pozornost je rovněž věnována znalosti legislativy na ochranu dat. Směrnice EU o ochraně dat se v roce 2017 stane zákonem, a i když přináší zjednodušení regulace v odvětví, obsahuje tvrdé tresty za porušení integrity dat (pět procent globálního obratu). Zatímco dozrávání cloudových platforem žene vpřed změny v IT infrastruktuře, novější technologie jako softwarově-definovaná úložná řešení, networking, OpenStack a konvergovaná infrastruktura mají stále velký kus cesty před sebou. Všechny výše zmíněné technologie si vedly velmi špatně v oblasti povědomí, testování a instalací. Softwarově-definovaná úložná řešení se ukázala jako dosud nejrozšířenější, ale jen šest procent respondentů uvedlo, že ji skutečně používají.

 

Průzkum jasně ukazuje, že i když starý model datových center je zastaralý, přechod k novým technologiím bude probíhat velmi pomalu.

 

Metodologie

Výsledky průzkumu Data Centre Audit 2015 byly kompilovány počítačově ve třech částech.

-          Nejprve byly provedeny hloubkové, průzkumné rozhovory s předními IT odborníky, manažery datových center a odborníky na infrastrukturu.

-          Byl proveden celostátní průzkum mezi 380 klíčovými IT odborníky z firem v počtu 100 až 5000 zaměstnanců a z různých odvětví včetně výroby, maloobchodu, veřejného a třetího sektoru.

-          Poté byly prováděny další rozhovory s IT odborníky.


Více informací

Pokud jde o maximální procesorový výkon a zabezpečení, Intel nabízí ověřené čipy řady Xeon i pro ty nejvýkonnější superpočítače na světě. Procesory Intel Xeon ale můžete mít i v pracovním počítači nebo notebooku.

 

Intel vyrábí procesory pro všechny segmenty, ať už se jedná o telefony, tablety, ultrabooky, počítače v krabičce, chytrá zařízení nebo datacentra. Speciálním segmentem jsou ale servery a profesionální stanice, které vyžadují pokročilejší technologie procesorů řady Xeon.

 

Notebooky i počítače pro profesionály

 

S novou 14nm architekturou Skylake, která přináší nižší spotřebu a vyšší výkon i v těch nejnáročnějších aplikacích, uvedl Intel i novou řadu procesorů Xeon E3-1200 v5 a Xeon E3-1500M v5. Zatímco řada procesorů Xeon E3-1200 v5 je určena pro profesionální desktopové počítače, čipy Xeon E5-1500M v5 jsou pak pro profesionální notebooky. Poprvé je tak možné mít Xeony i v mobilním nasazení a v rámci notebooku tak dostupné kdekoli, kde budete potřebovat.

 

Základní výhodou procesorů Xeon pro desktopové nasazení v pracovních stanicích je kompatibilita se stávajícími základními deskami se socketem LGA-1151. Není tak nutné kupovat specializované serverové základní desky. Čipy Xeon ale nabízí spoustu výhod oproti běžným procesorům Intel Core. Jaké to jsou?

 

Velká nabídka výkonných čtyřjádrových modelů

 

Všechny nové čipy Xeon určené pro profesionální stanice a notebooky jsou vybavené čtyřmi jádry, takže poskytují dostatek výkonu i pro náročnější aplikace pro grafiku, CAD, matematické výpočty a další oblasti, které dokáží využít výkonu vícejádrových procesorů.

 

Počet výpočetních jader je ale jedna část výkonu, druhou je samozřejmě frekvence. Modely Xeon pro desktopy a notebooky jsou dostupné s frekvencí od 3 GHz až po 4 GHz s technologií Turbo Boost 2.0. V případě mobilních Xeonů je to až 3,8 GHz s režimem Turbo.

 

Vybírat si lze ale nejen podle maximálního výkonu, ale také s ohledem na spotřebu. Nejvýkonnější desktopové modely mají TDP 80 W, úspornější řada s modely Xeon E3-1260L v5 a Xeon E3-1268K v5 je přizpůsobená pro TDP 45 W a 35 W a nejúspornější Xeony pro počítače mají TDP 25 W. I v rámci těchto modelů je ale stále k dispozici výkon čtyř plnohodnotných procesorových jader s frekvencí až 3,2 GHz (Turbo Boost 2.0).

 

Nízká spotřeba je důležitá především v notebooku, kde jsou nové mobilní Xeony dostupné ve čtyřjádrovém provedení s TDP 45 W nebo 25 W.

 

9942_xeon_die_LR.jpg

 

Profesionální integrované grafiky

 

Oproti běžným čipům Intel Core mají vybrané modely Xeonů řady E3-1200 v5 a E3-1500M integrované grafiky zaměřené na náročnější použití. Dle konkrétního modelu mají Xeony integrované grafiky Intel HD P530 nebo Intel Iris Pro P580. Obě grafiky jsou určeny pro náročnější práci s programy jako Autodesk AutoCAD, Adobe Photoshop, Adobe After Effects, Autodesk Inventor, Autodesk Revit, SolidWorks a další. Grafiky mají certifikaci pro více než 15 profesionálních programů od výrobců jako Siemens, PTC, Dassault, Bentley, Autodesk nebo Adobe.

 

U výkonnější varianty integrované grafiky Intel Iris Pro P580 je součástí i samostatná rychlá paměť eDRAM s kapacitou až 128 MB, která zlepšuje zpracování většího množství dat z oblasti grafiky nebo obecných výpočtů. Výhodou tak je, že v mnoha oblastech použití není nutné používat samostatnou grafickou kartu, což snižuje spotřebu, hluk i náklady.

 

Oba integrované grafické čipy podporují moderní technologie jako je DirectX 12.1, OpenGL 4.4, OpenCL 2.0 a také Intel Quick Sync Video pro akceleraci zpracování videa. Zvládnou rovněž obsluhovat až tři monitory s rozlišení 4K zároveň, což se hodí pokud potřebujete pracovat s více plochami zároveň se spoustou otevřených aplikací. Pro vylepšení kvality přehrávání videa slouží technologie Intel Clear Video HD, bezdrátový přenos obrazu pak zajišťuje Intel Pro Wireless Display.

 

Zabezpečení a ochrana paměti

 

Pokud chcete používat pracovní stanici nebo notebook pro kritické výpočty a práci, čipy Xeon podporují operační paměti ECC (Error Correcting Code), které obsahují automatickou kontrolu chyb dat s případnou opravou v reálném čase.

 

V rámci velkého množství dat, která se skrze operační paměť přenáší, může v důsledku různých externích okolností dojít ke změně hodnoty bitu jedné buňky. A i když v běžném využití to není žádný problém, v profesionálním nasazení s důležitými aplikacemi je třeba tento druh pamětí používat.

 

Pokud tedy vyžadujete co nejlepší stabilitu systému a správná data bez poškození, jsou nové Xeony určené přímo pro vás. V serverové oblasti, kde dochází k výpočtům z náročných oblastí financí, vědy, analýzy a podobně, se operační paměti ECC používají už desítky let a jsou součástí například i vesmírných sond a lodí.

 

Mezi dalšími technologiemi pro ochranu celé platformy je také Intel SGX (Software Guard Extensions), Intel RST (Rapid Storage Technology) pro rychlou obnovu dat při poškození disku a akceleraci načítání dat, Intel DPT (Data Protection Technology) nebo Intel Platform Protection Technology (TXT, Bios/OS Guard 2.0).

 

Zaměřeno na firmy i profesionály

 

Procesory řady Intel Xeon E3-1200 v5 a Xeon E3-1500M disponují i dalšími technologiemi, které jsou důležité jak při nasazení v podnicích, tak i při profesionálním použití.

 

Čipy tak podporují Intel vPro pro zabezpečení a rychlou správu počítačů či notebooků i na dálku, včetně ochrany proti různým druhům pokročilých virů, rootkitů a dalšího malwaru, včetně ochrany šifrovaných dat. Pro provozování různých operačních systémů s využitím maximálního výkonu procesoru nechybí ani virtualizační technologie Intel VT-x (EPT) nebo VT-d.

 

Profesionální notebooky vybavené novými Xeony mají podporu nového rozhraní Thunderbolt 3 s oboustranným miniaturní portem USB-C, ke kterému lze připojit spoustu příslušenství zároveň, třeba přes různé druhy dokovacích stanic nebo adaptérů. Díky vysoké propustnosti Thunderboltu 3 lze provozovat současně i několik zařízení přes jediný kabel, takže pokud například přijdete ke svému pracovnímu místu, můžete zapojit monitory s vysokým rozlišením včetně rychlé sítě či USB portů pouze přes jeden kabel.

 

Procesory Intel Xeon pro pracovní stanice i notebooky jsou vhodné i pro menší a střední podniky, z velké nabídky modelů lze vybrat ideální konfigurace právě pro vaše potřeby.

Není tomu tak dávno, kdy se hovořilo o tom, že další miniaturizace mobilních telefonů již není možná kvůli fyzickým omezením rozhraní člověk-stroj, tedy že ovládací prvky nelze dále zmenšovat s ohledem na velikost lidských prstů. Rok se s rokem sešel a trh zaplavují wearables, miniaturní elektronická zařízení určená k nošení na těle, ovládaná hlasem, dotykem či spolupracující s dalšími zařízeními.

Technika pokročila tak, že je možné zabudovat senzory a bezdrátovou komunikaci téměř do libovolného předmětu, který člověk nosí na sobě či při sobě, od každodenních až po mimořádné. Navzdory tomu se však stále nacházíme v období, které bude jednou nazýváno „dřevní dobou“ nositelné elektroniky a pamětníci na ni budou vzpomínat stejně, jako si dnes někteří připomínají doby, kdy nosili mobilní telefon v kufříku.

Zatímco například koncept brýlí, jež musí uživatel oslovit a které navíc vzbuzují nelibost u okolí kvůli vestavěné kameře, se příliš neuchytil, chytré náramky a hodinky mizí z virtuálních i skutečných pultů rychlostí blesku. Výsledky prodejů potvrzují předpovědi analytiků – podle globální analytické společnosti CCS Insight[1] budou v roce 2018 chytré brýle představovat pouhá 2 % prodaných nositelných zařízení, zatímco chytré hodinky a náramky celkem 87 %. Další 3 % trhu by měla patřit různým přívěškům, prstenům a dalším elektronickým šperkům, zbytek připadne na chytré kamery a jiná zařízení. Právě chytré kamery zachycující všechny životní okamžiky bude podle výše citovaného odhadu při sobě nosit 2,5 % obyvatel rozvinutých zemí, tedy jeden člověk ze čtyřiceti.


TH-CW-Base1b+CAD.jpg


Na co vlastně nosit další zařízení?

Když na trh přicházely chytré mobilní telefony, mnoho lidí odložilo hodinky, protože jim stačí pohled na displej. Hodinky na ruce však stále zůstávají „ve hře“ jako symbol společenského statusu nebo životního stylu. Dnes se hodinky vrací na zápěstí jako chytré zařízení, v „lidové“ podobě i v luxusním provedení jako nový symbol statusu.

Dokladem toho je například novinka na trhu, inteligentní náramkové hodinky značky TAG Heuer, které vznikly ve spolupráci tradičního švýcarského výrobce luxusních hodinek se společnostmi Intel a Google. TAG Heuer Connected jsou hodinky klasického střihu s titanovým pouzdrem a safírovým sklem, které však kryje transflexní vícedotykový LTPS LCD displej dokonale kopírující tradiční ciferník. Uvnitř vodě, prachu a tlaku odolného pouzdra namísto hodinového strojku tepe až v taktu 1,6 GHz dvoujádrový procesor Intel Atom doplněný 1 GB operační paměti a 4 GB pro ukládání dat, gyroskopem, snímačem náklonu, mikrofonem, Wi-Fi, Bluetooth a dalšími technologiemi. Ano, to vše se vtěsnalo do hodinek, které vám neutrhnou zápěstí.

Neúprosné principy trhu diktují, že k tomu, aby se nové zařízení rychle uchytilo, musí být líbivé a něčím výjimečné. Chceme-li však, aby se na trhu rovněž dlouhodobě etablovalo – nikoli pouze zazářilo a pohaslo – musí být také skutečně užitečné. V tuto chvíli mezi wearables jednoznačně dominují takové, které se týkají zdraví a kondice. Většina ostatních v současné době neposkytuje dostatečně přínosné informace, aby se o ně spotřebitelé zajímali déle, než opadne prvotní nadšení z nové technické hračky.

Právě v oblasti zdraví a zdravotnictví nalezne podle předpovědí nositelná elektronika nejčastější využití i do budoucna – většinou ve spojení s jiným důležitým technickým trendem dneška, analýzou tzv. velkých dat –, a to nejen při sledování zdravotního stavu a životních funkcí pacientů, ale i při výzkumu různých chorob a hledání nových metod léčby. Již dnes vedle individuálního zdravotního využití wearables slouží například při výzkumu Parkinsonovy choroby a hledání nových způsobů, jak usnadňovat život pacientům, kteří jí trpí.


SAR8A80.FT6045 TH CARRERA CONNECTED MOOD PACKSHOT 2015 - DIAL OFF.jpg


Má nositelná elektronika podnikové využití?

Intuitivní odpověď by nejspíš zněla „tak určitě“, jak s oblibou říká jistý okruh veřejně známých osobností. Jak ale využití wearables v praxi vidí podniky ve skutečnosti?

Výsledky průzkumu, který provedl odborný server Tech Pro Research[2], ukazují, že 92 % dotázaných IT odborníků zná koncept nositelných zařízení, avšak v pouhých 11 % se taková zařízení využívají ve své organizaci, případně jsou zaváděna nebo je na jejich zavedení vyčleněn rozpočet. Další čtvrtina organizací plánuje nositelná zařízení v budoucnu zavést, avšak dosud na to nemá vyčleněné rozpočtové prostředky. Zbývající téměř dvě třetiny dotázaných říkají, že jejich podnik o zavedení nositelné elektroniky u zaměstnanců neuvažuje.

Důležitým zjištěním je rozdíl mezi očekávanými přínosy zavedení nové techniky a skutečností. Mnoho dotázaných doufalo, že wearables zlepší komunikaci, produktivitu a vztahy se zákazníky, což se v mnoha případech i stalo. Jiná očekávání přínosů, např. zlepšení sběru a zpracování dat nebo usnadnění přístupu k informacím, se však nenaplnily.

Dlužno poznamenat, že stejně jako i jiných nastupujících technologií se pohled na přínos wearables v podnikové praxi bude v čase měnit, s největší pravděpodobností i v poměrně krátkodobém horizontu. Přispěje k tomu nejen pokračující miniaturizace a komoditizace modulů pro nositelná zařízení (viz např. Intel Curie), ale také rozvoj internetu věcí (či internetu všeho), o němž jsme psali v jednom z předchozích příspěvků.

 


[1] Predikce CCS Insight Wearables Forecast, srpen 2014

[2] Studie Wearables in business: Deployment plans, anticipated benefits and adoption roadblocks, duben 2014

Miliony lidí po celém světě, včetně jednoho milionu pacientů ve Spojených státech či bezmála osmdesáti tisíc Čechů, si každoročně vyslechne diagnózu rakovina. Co by se ale stalo, kdyby namísto bolestivé chemoterapie, jež dokáže zabít vedle rakovinových buněk i ty zdravé, mohli být tito pacienti léčeni jako jednotlivci na základě sekvencování jejich specifického genomu a léčbu by šlo postavit jim konkrétně na míru? A co kdyby tohle všechno mohlo proběhnout během 24 hodin?

 

Na konferenci Intel Developer Forum jsem oznámil, že se pokusíme tento scénář převést do reality prostřednictvím ambiciózního řešení na bázi platformy jako služby. Toto řešení dostalo název Collaborative Cancer Cloud (Cloud na boj proti rakovině). Jde o velmi přesnou analytickou lékařskou platformu, jež umožňuje institucím bezpečně sdílet genomická, zobrazovací a klinická data pacientů za účelem objevů, které budou moci zachraňovat životy. Umožní analyzovat distribuovaným způsobem obrovské datové objemy z míst po celém světě a zároveň ochrání zabezpečení dat všech konkrétních pacientů.

 

Cílem je zajistit výzkumným pracovníkům a lékařům možnost stanovovat pacientům diagnózu vycházející z jejich genomu a ošetřujícím lékařům pak poskytnout potřebná data pro cílenou léčbu. Máme představu, že do roku 2020 by se toto vše mohlo odehrát během 24 hodin – tedy za jediný den. Cílem je pomoci onkologickým centrům po celém světě – a nakonec i centrům pro další choroby – bezpečně sdílet soukromá klinická i výzkumná data mezi sebou a vytvářet tak větší datové sady, z nichž bude profitovat další výzkum a na jejichž základě bude možné stanovit specifickou léčbu jednotlivých pacientů.

 

 

Vzestup přesné medicíny

Přesná medicína – druh medicíny, který bere ohled na individuální rozdíly v genech lidí, na prostředí i životní styl – je jedním z velkých témat oblasti velkých dat a představuje zdroj obrovské změny v medicíně. Vědu o genomu nahlížíme jako první vlnu přesné medicíny a spolupracujeme s partnery na podpoře genomických sekvencérů, aplikací a cloudové genomické analýzy. Collaborative Cancer Cloud je ukázkou kombinace technologií Intel nové generace a pokroků v biologii, kdy je možné vyvíjet řešení, jež umožňují vývojářům, výzkumníkům a klinickým lékařům rychleji a levněji pochopit jakoukoli chorobu, jež má genetický komponent, tedy včetně rakoviny.

 

Cloud v jeho počáteční fázi spustí společnost Intel a Knightův institut pro boj proti rakovině při oregonské Zdravotně-vědecké univerzitě (OHSU). Očekáváme, že do roku 2016 se připojí dvě další instituce, což vyřeší problém dostatečného objemu dat a povědomí mezi lékaři. Pak budeme moci otevřít tuto zabezpečenou síť desítkám dalších institucí – anebo jim umožníme vytvořit si vlastní – na urychlení vědeckého pokroku a zvýšení možností přesné léčby pro lékaře. Ti budou moci tyto poznatky rovněž uplatnit pro personalizovaný výzkum jiných chorob, o nichž se ví, že mají genetický základ, včetně Alzheimerovy choroby, cukrovky, autismu a dalších.

Prostate_cancer_with_Gleason_pattern_4_low_mag.jpg

Ve stejném rámci se též snažíme nabídnout otevřený kód a zajistit, že na vývoji interoperabilních řešení bude pracovat co nejširší báze dodavatelů. Otevření tohoto kódu podpoří interoperabilitu napříč různými cloudy a umožní analýzu napříč podstatně širší datovou sadou – což nabídne lepší možnosti pro osobně zacílenou péči.

 

Podpůrná snaha

Možná si řeknete: „Neviděli jsme něco takového už předtím?“ I v minulosti jsme byli svědky uzavírání smluv mezi nejrůznějšími institucemi na využití analytiky velkých dat, přičemž data měla přinést informace vedoucí k lepší léčbě rakoviny. Naše zaměření na sjednocení a distribuci soukromých datových sad tak doplňuje úžasnou práci, která byla odvedena s cílem zpřístupnit veřejné datové sady pro výzkum. V CCC si každý z partnerů udrží kontrolu nad daty svých pacientů, zatímco vědomostní základna poroste a bude mít stále větší dopad. Chceme využít sílu těch dat, tak abychom pomohli ošetřujícím lékařům, výzkumným pracovníkům a pacientům. Abychom jim poskytli lepší znalostní databázi, která bude zároveň lépe zabezpečená a bude zajišťovat ochranu soukromí. Bezpečným sdílením klinických a výzkumných dat mezi různými institucemi při ochraně soukromí pacientů může celá lékařská komunita profitovat z poznatků, které se objeví ve velkých datových objemech.

 

2.JPG

 

Přesná medicína bude nakonec jen tak přesná, nakolik jí to data umožní. Máme-li lépe pochopit složité choroby typu rakoviny, je třeba, aby lékařské odvětví spolupracovalo s technologickým a aby se zpřístupňovaly poznatky vycházející ze zabezpečené analýzy veřejných i soukromých datových sad a aby z toho profitoval zákazník. A pokud se toto podaří, pak budeme moci zdlouhavou a nejistou proceduru stanovení diagnózy proměnit v něco, co se odehraje během jednoho dne.

 

Pokud vás zajímá naše spolupráce s OHSU, doporučujeme tyto odkazy

OHSUs Exacloud

Collaborative Analytics for Personalized Cancer Care

 

O přesné medicíně a výzkumu kódu genomu se více dozvíte zde a zde:

  • Rozšíření rodiny procesorů Intel® Xeon® D-1500 a nových ovladačů Intel® Ethernet posílí výkon i šířku pásma a umožní síti dodávat informace koncovým zákazníkům i firmám.
  • Intel spolupracuje s předními firmami v odvětví po celém světě. América Móvil* si zvolila Intel za technologického partnera pro modernizaci sítě.
  • Intel rozšířil svůj síťový ekosystém pro rozvoj a instalace otevřených řešení a oznámil spolupráci s Red Hat* prostřednictvím řešení Intel® Network Builders Fast Track.

 

Společnost Intel dnes představila nové produkty a strategické aliance, které mají urychlit přechod k agilnějším sítím lépe připraveným na spolupráci s cloudem. Právě takové sítě mohou uspokojit dnešní poptávku po nových telekomunikačních, cloudových a datových službách a vyrovnat se s požadavky zařízení a služeb blízké budoucnosti.

 

K internetu se připojují miliardy zařízení – od chytrých telefonů po celé továrny –, což přináší nové případy využití a příležitosti, které podporují neobvyklý růst sítě a nároky na úložnou kapacitu. Dnešní sítě nejsou navrženy tak, aby poskytovatelům služeb umožňovaly rychle nebo levně rozšiřovat infrastrukturu. Má-li být realizován potenciál internetu věcí a nabídnut lepší komfort uživatelům mobilních zařízení, je třeba změnit architekturu komunikačních sítí, zlepšit jejich programovatelnost a integrovanou flexibilitu tím, že infrastruktura bude s to vypořádat se s očekávaným nárůstem objemu a složitosti datových toků.

5082_Xeon_D_Processor.jpg

„Sítě jsou vystaveny mimořádným nárokům, které sílí s připojováním nových zařízení a nabídkami nových digitálních služeb,“ říká Sandra Riverová, viceprezidentka divize datových center a generální manažerka Network Platform Groups ve společnosti Intel. „Budování informačních zdrojů prostřednictvím komunikační infrastruktury a používání standardizovaného přístupu nabízí poskytovatelům služeb základ pro vybudování rychlých sítí připravených na cloud, které jim umožní náležitě rozšířit jejich servisní kapacity.“

 

Intel rozšiřuje ekosystém a portfolio produktů, aby vytvořil základnu pro budování sítí připravených na cloud

Intel úzce spolupracuje s leadery odvětví včetně firem jako Cisco*, SK Telecom* a Verizon* za účelem přechodu k flexibilnějším a rychlejším sítím a položením základu pro budoucí sítě 5G. Intel nabízí špičkovou technologii, která rozšiřuje možnosti sítí i jejich propustnost, a rozvíjí ekosystém, který umožní nabízet standardizovaná řešení.

Tuzemští podnikatelé ještě ani zdaleka nestačili vstřebat, co z praktického hlediska pro jejich IT, výrobu nebo obchod vlastně znamená „třetí platforma“ (third platform) či „souběh sil“ (nexus of forces), jak o nich ve svých studiích hovoří analytické společnosti, a už tu máme další fenomén, který útočí ze všech stran a všemožné studie, články a analýzy se nás snaží přesvědčit, že tentokrát opravdu, ale opravdu nejde o pouhou marketingovou bublinu nebo další hračku pro „ajťáky“. Ironii však stranou. Ano, řeč je o „internetu věcí“ (Internet of Things), také označovaném zkratkou IoT.  A právě v něm se setkávají technologie jako cloud, analýza velkých dat, mobilita, M2M komunikace, autonomní stroje a další – ve skutečnosti umožňují jeho vznik.


Velké vize, velká čísla, velké peníze

Podle prognostiků bude do roku 2020 k internetu připojeno přes sedm miliard lidí a podniků a nejméně 35 miliard zařízení, vyskytují se ale i odvážné vize o 200 miliardách propojených „entit“. Jejich vzájemné interakce – komunikace, vyjednávání a transakce – vytvoří nový digitální svět. A „ušetřen“ nezůstane nikdo – největší význam internet věcí pravděpodobně získá v průmyslu a obchodu, avšak upotřebení podle prognóz nalezne i ve veřejné správě, zdravotnictví, bezpečnosti dopravě i v domácnostech.

O tom, jaká nakonec bude realita, se můžeme jen dohadovat, ale o statistiku v tomto případě až tolik nejde. Jde především o byznys. Velikost trhu, který okolo internetu věcí vzniká, se odhaduje řádově na desítky miliard dolarů. A není to zdaleka pohled technologický nebo infrastrukturní – vždyť zabudovat do téměř jakéhokoli zařízení čip pro základní komunikaci a manipulaci s daty stojí dnes několik málo centů. Skutečná hodnota internetu věcí spočívá ve využitelnosti informací. Již dnes se velcí hráči na poli IT předhánějí, kdo rychleji, lépe a efektivněji pomůže smysluplně využívat data, která proudí rychle se rozrůstajícím ekosystémem vzájemně propojených uživatelů, procesů, strojů, zařízení, spotřebičů, vozidel, snímačů a dalších „inteligentních“ prvků prakticky ve všech oborech lidské činnosti.

Když už zde hovoříme o velikosti trhu, záleží samozřejmě na tom, co vše do vymezení pojmu „internet věcí“ zahrneme. Definice se totiž různí a hranice v praxi rozhodně nejsou ostré. Internet věcí lze popsat jako rozsáhlou síť sítí s velkým množstvím různorodých, jedinečně identifikovatelných koncových bodů a platforem, které komunikují bez lidského zásahu. Podle jiné definice se jedná o zařízení a systémy, kde o reakci na podnět rozhoduje stroj, nikoli člověk. „Věcí“ v takovém internetu může být téměř cokoli, co lze opatřit vlastní IP adresou a propojit s čímkoli jiným, rovněž opatřeným IP adresou.

Coming-soon-page-ng-moodboard-banner-965x500_Final_17.jpg


Jedna lednička povídala…

Internet věcí je tedy založený téměř výhradně na interakci a komunikaci typu machine-to-machine (M2M). Většinu chytrých IoT zařízení potom nenajdeme v domácnostech, ale v továrnách, skladech, dopravních systémech, obchodech a zdravotnických zařízeních. Proč? Protože sítě inteligentních zařízení poskytují životně důležitá data pro sledování zásob, řízení výroby, zvyšování efektivity, úsporu nákladů a ochranu zdraví a záchranu životů.

 

Podle odhadů společnosti Intel bude připadat 40,2 % internetu věcí na průmyslové podniky (např. pro realtimovou analýzu dodavatelského řetězce, řízení robotizovaných provozů apod.), 30,3 % na zdravotnictví (sledování zdravotního stavu na dálku, elektronické záznamy, bezpečnost ve farmacii), 8,3 % na maloobchod (sledování zásob, analýza kupního chování atd.), 7,7 % na bezpečnost (biometrické zámky, snímače a hlásiče) a 4,1 % na dopravu (plně či částečně autonomní vozidla, navigace, inteligentní systémy dopravy).

 

Tento vývoj však s sebou nepochybně přináší také rostoucí nároky na související infrastrukturu – podle výzkumu společnosti Harbor Research (Smart Systems Forecast Model 2015) vygenerují v roce 2020 jen samotná IoT zařízení závratných 194 petabytů dat. Takový objem vstupů je samozřejmě ideálním zdrojem podkladů pro sofistikované analýzy na bázi dalšího z fenoménů soudobého IT, známého pod názvem Big Data. Zatěžovat síťovou infrastrukturu obřími toky nezpracovaných dat proudících směrem od strojů přímo do datového centra se nejeví jako právě ekonomické řešení, různí výrobci hardware proto ve spolupráci s Intelem přicházejí s řešeními předsunutých gateway (například Dell Edge Gateway 5000), jejichž úkolem je primární přijetí, zpracování a vyhodnocení dat velmi blízko jejich samotnému zdroji. Do datacentra tak již proudí pouze konsolidovaná a především smyslupná data v mnohem nižších objemech.

 

StL_Phase_2_front.jpg

Internet věcí tak změní nejen interní procesy či infrastrukturu a otevře tak nové příležitosti, ale zásadně ovlivní například i vztahy mezi dodavateli a odběrateli – je pravděpodobné, že například umožní odbourat nejrůznější prostředníky – distributory a maloobchodníky – a navazovat tak vztahy přímo s koncovými zákazníky. V mnoha případech se dokonce zákazníky stanou autonomní stroje, které budou za lidského zákazníka rozhodovat. Internet věcí změní také některé základní právní normy, jako jsou ochrana osobních údajů nebo majetku.

 

S internetem věcí se zkrátka budeme setkávat stále častěji, ve zjevné i skryté podobě – od tiskáren, které si samy objednají docházející inkoust přes vozidla, která z dopravního systému města zjistí, kde je nejbližší volné parkoviště, po provozně-logistické systémy, které zajistí, že se požadovaný inkoust ocitne uživateli na stole. Mnoho z toho, co internet věcí představuje, zatím vypadá jako science fiction, nebo alespoň donedávna vypadalo. Jak nedávno poznamenal jeden známý český IT novinář: „Bojím se domyslet, co internet věcí způsobí. Odmítne mi lednička vydat jogurt s tím, že zrovna lajkuje sousedově pračce status na Facebooku?“

Jaká bude budoucnost počítačových čipů?

 

Na první Mezinárodní konferenci o pevných obvodech konané v kampusu Pennsylvánské univerzity ve Philadelphii roku 1960 představil mladý počítačový vědec jménem Douglas Engelbart elektronickému průmyslu pozoruhodně jednoduchý, leč převratný koncept „škálování“.


Dr. Engelbart, který později přispěje k vývoji počítačové myši a dalším technologiím v oblasti osobních počítačů, přišel s teorií, že s tím, jak se elektronické obvody budou zmenšovat, jejich komponenty budou stále rychlejší, budou vyžadovat méně energie a budou levnější na výrobu – to vše stále se zrychlujícím tempem.

 

V publiku tehdy seděl Gordon Moore, pozdější zakladatel společnosti Intel, největšího světového výrobce čipů. Dr. Moore princip škálování kvantifikoval v roce 1965 a představil něco, co se mělo stát „magnou chartou“ počítačového věku. Předpověděl, že počet tranzistorů vyleptaných na čip se bude po dobu minimálně deseti let každoročně zdvojnásobovat, což povede k astronomickému nárůstu výpočetního výkonu.

 

Jeho předpověď se objevila v časopise Electronics v dubnu 1965 a dostala název Mooreův zákon. Nešlo o zákon fyzikální, spíše o pozorování ekonomiky mladého odvětví, přičemž formulovaná teze vydržela v platnosti téměř půl století.


27-MOORE-JP2-blog427.jpg


Jeden tranzistor, široký zhruba jako bavlněné vlákno, stál počátkem šedesátých let v přepočtu asi jako dnešních osm dolarů; Intel byl založen v roce 1968. Dnes se na čip velikosti nehtu vtěsnají miliardy tranzistorů a jejich ceny poklesly na zlomek centu.

 

Toto zlepšení založené na  prosté premise, že počítačové čipy toho dokáží víc a víc a budou stát méně a méně, pomohlo Silicon Valley přinést obrovský pokrok celému světu, od osobních počítačů přes chytré telefony po širokou síť vzájemně propojených počítačů, které pohánějí internet.

 

V poslední době však zrychlování předpovězené Mooreovým zákonem kulhá. Rychlost čipů se téměř přestala zvyšovat před deseti lety, prodlevy mezi jednotlivými generacemi se protahují, cena jednotlivých tranzistorů stagnuje.

 

Odborníci na technologie nyní mají za to, že nové generace čipů budou přicházet pomalu, možná každé dva a půl až tři roky. A mají obavu, že uprostřed příští dekády může přijít vystřízlivění, poněvadž tranzistory, sestávající už jen z několika molekul, narazí na fyzikální zákony a přestanou spolehlivě fungovat. To bude konec Mooreova zákona, pokud nedojde k novému technologickému průlomu.

 

Abychom převedli podmínky Mooreova zákona do antropomorfních pojmů: „Šedne a stárne,“ říká technologický ředitel výrobce komunikačních čipů Broadcom Henry Samueli. „Ještě není mrtvý, ale ošetřovatelku bychom už mu shánět měli.“

 

V roce 1995 dr. Moore zákon upravil a konstatoval, že ke zdvojnásobení bude docházet v dvouletých intervalech. I tak je ale překvapen, jak dlouho jeho předpověď vydržela. „Původní předpověď byla na deset let a tehdy mi to přišlo moc,“ prohlásil vědec nedávno na konferenci v San Francisku, jež se konala právě na oslavu padesáti let existence zákona.

 

Ale stále zde visí ve vzduchu zlověstná otázka, co se stane, pokud magická kombinace zvyšující se rychlosti, padajících energetických nároků a nižších cen už nebude dále udržitelná.

 

Dopad bude cítit daleko za hranice počítačového průmyslu, říká Robert P. Colwell, bývalý konstruktér Intelu, jenž spoluřídil vývoj mikroprocesoru Pentium, když působil jako čipový architekt u Intelu v letech 1990 až 2000.

 

„Podívejte se například na automobily,“ říká dr. Colwell. „Co hnalo v posledních třiceti letech vpřed jejich inovace? Mooreův zákon.“ Většina inovací v automobilovém průmyslu v ovladačích motoru, ABS, navigaci, zábavních a bezpečnostních systémech má svůj původ ve stále levnějších polovodičích, vysvětluje.

 

Tyto obavy jdou tak trochu proti příběhu věčně mladého Silicon Valley. Po více než tři desetiletí odvětví tvrdí, že počítače budou rychlejší, budou mít větší kapacitu a budou čím dál rychleji levnější. Bylo to označováno za „internetový věk“, ba dokonce za singularitu, bod, v němž výpočetní výkon překoná lidskou inteligenci, tvrzení, které mnozí v Silicon Valley vyznávají s téměř náboženským zápalem.

 

Když jsou vaše myšlenky takhle vzletné, může být náraz na fyzikální hranice zdrcující.

 

„Zásadním problémem je podle mě to, že jsme se dostali za onen bod ve vývoji počítačů, kdy si lidé automaticky kupují poslední a nejlepší počítačový čip, plni důvěry, že bude lepší než to, co už mají doma,“ říká dr. Colwell.

 

Fyzikální zákony

Čipy se vyrábějí z kovových drátů a tranzistorů na polovodičové bázi – malých elektronických vypínačů kontrolujících proudění elektřiny. Nejdokonalejší tranzistory a dráty jsou menší než vlnová délka světla a nejvyspělejší elektronické vypínače jsou menší než biologický virus.

 

Čipy se vyrábějí výrobním procesem zvaném fotolitografie. Ta byla vynalezena v padesátých letech a od té doby se stále zdokonaluje. Dnes funguje tak, že paprsky ultrafialového světla jsou promítány skrze skleněné desky potažené částí vzorce obvodu vytlačeného do kovové masky připomínající mapu městských ulic.

 

Každá mapa umožňuje nasvítit na povrchu čipu jiný vzorec tak, aby bylo možné oddělit kov a polovodičové materiály, takže zbyde ultra-tenký sendvič drátů, tranzistorů a dalších komponent.

 

Tyto masky jsou používány k nasvícení stovek přesných kopií každého čipu, které jsou pak usazovány na naleštěné pláty křemíku, které mají v průměru zhruba 30 centimetrů.

 

Stroje zvané „krokovače“, které stojí kolem 50 milionů dolarů jeden, pohybují maskou po plátu a opakovaně nasvěcují každý vzorec obvodu povrchu plátku a střídavě ukládají a odleptávají kovové a polovodičové komponenty.

 

Hotový počítačový čip může vyžadovat až 50 kroků expozice a maska musí padnout naprosto přesně. Každý krok zvyšuje možnost chyb.

 

„Pracoval jsem na mnoha částech polovodičového procesu,“ říká Alan R. Stivers, fyzik, jehož kariéra v Intelu začala v roce 1979 a který před odchodem do penze v roce 2007 pomáhal uvést desítku generací polovodičů. „Litografie je zdaleka nejtěžší.“

 

Aby výrobci čipů mohli vybudovat zařízení, která jsou menší než vlnová délka světa, museli zavést řadu triků jako „ponorná“ litografie, která používá vodu k ostřejšímu lomu světla a zvýšení rozlišení. Též zavedli techniku nazvanou litografie „mnohačetných vzorců“, která používá separátní kroky s maskami pro dosažení ostřejších hran a dalšímu zeslabení kovových drátů a jiných čipových komponent.

 

S tím, jak se velikost komponent smrskla na několik molekul, se konstruktéři obrátili pro pomoc k počítačové simulaci, jež ovšem vyžaduje obrovský výpočetní výkon. „V podstatě se snažíte obalamutit fyzikální zákony,“ říká Walden C. Rhines, šéf společnosti Mentor Graphics z Wilsonville v Oregonu vyvíjející software pro automatizaci.

 

Pokud je škálování poprvé popsané dr. Engelbartem u konce, jak se mohou velcí výrobci čipů vyhnout konci Mooreova zákona? Mohou využít softwaru nebo nových designů čipů, které dostanou ze stejného počtu tranzistorů vyšší výpočetní výkon.

 

A existuje naděje, že stejná kreativita, které držela Mooreův zákon při životě tak dlouho, bude moci i teď zajistit další pokroky čipové technologie.

 

Je-li slovy Davida M. Brookse z Harvardovy univerzity křemík „plátnem, na které malujeme,“ mohou konstruktéři rozhodně udělat víc než jen zmenšovat plátno.


6th_Gen_Intel_Core_die_flat_1000.jpg

Křemík by rovněž mohl ustoupit exotickým materiálům pro výrobu rychlejších a menších tranzistorů a nových druhů paměťových úložných zařízení; stejně tak by se namísto elektronických komunikačních spojení mohla používat optická, říká Alex Lidow, fyzik, který je zároveň šéfem společnosti Efficient Power Conversion Corporation, jež sídlí v kalifornském El Segundo a zabývá se výrobou specializovaných čipů.

 

Existuje několik kandidátů na revoluci, například kvantové počítače, které – pokud se ukáží jako praktické – by mohly výrazně urychlit zpracování informací, a spintronika, která v budoucnosti možná přesune výpočetní operace na úroveň komponentů velikosti atomu.

 

V nedávné době se objevila vlna optimismu ohledně nové techniky výroby zvané litografie extrémně ultrafialovým zářením neboli EUV litografie. Ta pracuje se světelnými vlnami v délce desetiny nejkratších vln tvořících světelné spektrum. Pokud se osvědčí, umožní ještě menší kabely, navíc výrazně zjednoduší proces výroby čipů.

 

Pro komerční využití však nebyla technologie dosud ověřena.

 

ASML, nizozemský výrobce krokovačů částečně vlastněných Intelem, letos prohlásil, že obdržel významnou objednávku na EUV krokovače od klienta ze Spojených států a většina lidí z oboru se domnívá, že jde o Intel. To by znamenalo, že Intel má před zbytkem odvětví výrazný náskok.

 

Představitelé Intelu – na rozdíl od hlavních konkurentů jako Samsung a Taiwan Semiconductor Manufacturing Company neboli TSMC – tvrdí, že budou schopni vyrábět v dohledné budoucnosti stále levnější čipy a vyvracejí názor, že cena tranzistorů stagnuje.

 

I když ale v Intelu věří, že dokáží vzdorovat měnící se realitě zbytku odvětví, přece jen zcela nedokázali popřít zákony fyziky.

 

„Intel neví, co dělat s blížícím se koncem Mooreova zákona,“ prohlásil dr. Colwell.

 

V červenci Intel prohlásil, že uvedení technologie 10nm (pro srovnání, lidský hlas je silný zhruba 75 000 nanometrů) odsune do roku 2017. Zpoždění znamená rozchod s tradicí společnosti uvádět na trh generace s menšími dráty a tranzistory jeden rok a novými funkcemi rok na to.

 

„Poslední dva technologické přechody naznačily, že naše kadence je bližší dvou a půl letům než dvěma letům,“ řekl generální ředitel Intelu Brian Krzanich během konferenčního hovoru s analytiky.

 

Už žádné jízdy načerno

Z optimistické perspektivy na tyto problémy můžeme říct, že zpomalení vývoje čipů povede k větší konkurenci a kreativitě. Mnoho výrobců polovodičů nedisponuje špičkovými továrnami, které si staví čtyři výrobci čipů: GlobalFoundries, Intel, Samsung a TSMC.

 

Zpoždění mohou umožnit ostatním výrobcům čipů konkurovat na trzích, které nevyžadují špičkový výkon, prohlásil David B. Yoffie, profesor na Harvard Business School.

 

A dokonce pokud zmenšující se velikost tranzistoru neučiní procesory rychlejší a levnější, minimálně sníží objem spotřebovávané energie.

 

Ultra energeticky úsporné počítačové čipy, které se začnou objevovat na konci této dekády, nebudou v některých případech dokonce potřebovat ani baterie – budou poháněné solární energií, vibracemi, radiovými vlnami nebo třeba potem. Mnoho z nich bude mít podobu sofistikovaných čidel, bezdrátově vetkaných do centralizovaných výpočetních systémů ve výpočetním cloudu.

 

K jakým produktům tyto čipy povedou? To ještě nikdo neví, nicméně konstruktéři produktů budou nuceni změnit své uvažování o tom, co vyvíjejí, namísto, aby jen čekali na to, až budou čipy výkonnější. Díky Mooreově zákonu se počítače zmenšovaly a zmenšovaly, nicméně v zásadě zůstávaly u stejného konceptu čipů, hardwaru a softwaru v uzavřené krabici.

 

„Návrháři v minulosti byli líní,“ říká Tony Fadell, konstruktér, jenž vedl tým, který navrhl původní iPod a následně řídil hardwarový design iPhonu, než založil firmu Nest Labs, která vyvíjí zařízení pro chytrou domácnost jako termostaty a detektory kouře.

 

Carver Mead, fyzik, který původně přišel se souslovím Mooreův zákon, s tím souhlasí. „Vlastně jsme se vezli zadarmo. Je to šílené, ale teď se nám to vrátilo.“

 

A skutečně, Mooreův zákon by mohl klidně platit další desetiletí. A pokud nebude, pak budou muset lidi začít být kreativnější.

 

Článek Johna Markoffa je převzatý z New York Times

Společnost Seznam.cz od března roku 2015 provozuje vlastní unikátní datové centrum, v němž většina instalovaných serverů běží na platformě Intel. To nese název Kokura a fyzicky se nachází na okraji Prahy v lokalitě Horních Počernic. Možnost do něj nahlédnout jsem dostal přibližně po půl roce od spuštění provozu, kdy je již vše v plném rutinním nasazení. Při té příležitosti jsem si nenechal utéct možnost vyzpovídat Vlastimila Pečínku, technického ředitele společnosti Seznam.cz a celého projektu.

Seznam.cz si s myšlenkou vlastního datového centra vážněji pohrával přibližně od poloviny roku 2012. V první fázi se společnost věnovala vnitřnímu třídění myšlenek o tom, jak by měl projekt vypadat, následně pak zadala dvěma externím firmám za úkol vytvořit nezávislé studie. Ke konci roku už měl management Seznamu v rukou dvě studie proveditelnosti a obě dávaly projektu zelenou.

Pro měření ekonomičnosti projektu si vedení společnosti stanovilo ukazatel TCO na kW IT. Ten si klade za cíl změřit, kolik peněz se vynaloží na jednotku instalovaného příkonu serveru. V tomto ohledu porovnává studie proveditelnosti projekt Kokura s pronajatým prostorem datacenter provozovaných u komerčních partnerů.

Počátkem roku 2013 se tak vedení rozhodlo vybudování vlastního datacentra skutečně realizovat. Následovalo rozhodování o výběru pozemku a řešení realizačního plánu projektu. O volbě pozemku rozhodovala hlavně tři kritéria: existence územního rozhodnutí, dostupnost adekvátních rozvodů elektřiny a dostupnost optiky. Když se našel vhodný pozemek ke koupi, bylo nutné ještě vyřešit změnu územního rozhodnutí a také příslušná stavební povolení. Legislativní kroky nicméně trvaly trochu déle, než se předpokládalo, takže všechna potřebná razítka získal Seznam až v červnu 2014.

Již v květnu tohoto roku byl ale odhalen základní kámen, o měsíc později následovalo první kopnutí do země a za dalších zhruba osm měsíců byla stavba hotova. V březnu 2015 přišly na řadu zátěžové zkoušky a od dubna se již do Kokury stěhovaly servery z datového centra TTC. Vyhrazené tříměsíční okno se v tomto případě smrsklo na polovinu, takže za zhruba šest týdnů bylo hotovo.

Zajímavostí je skutečnost, že Seznam pro provoz centra založil zvláštní společnost - Seznam.cz datová centra, s.r.o. „Ta je manažersky nastavená tak, aby vykazovala provozní zisk. A jejím jediným zákazníkem je právě Seznam.cz,“ upřesňuje Vlastimil Pečínka. Ten v současnosti počítá s tím, že Kokura bude z hlediska prostorových kapacit pro umístění serverů dostačovat zhruba na deset let. A až čas ukáže, jestli to byl od managementu správný tip či nikoliv.

Seznam.cz - datacentrum - II - 11.jpg

Vyplatí se vůbec vlastní datacentrum?

Datové centrum Kokura je určeno pouze pro účely Seznam.cz. Vlastník centra díky tomu může spoustu věcí ovlivnit, zejména to, jaký hardware používá, jak s ním chce nakládat, jak ho bude chladit, atd. Vedení firmy si spočítalo, že při velikosti Seznamu se jedná o ekonomicky příznivé rozhodnutí a už nedává smysl platit si externí infrastrukturu.

Podle Pečínky je posuzování ekonomického přínosu vlastního datacentra pro každou společnost specifické, protože záleží na tom, jak k příslušnému ekonomickému modelu která společnost přistupuje. „Seznam.cz, byť dnes působí do značné míry na mediálním trhu, je zároveň vnitřně hodně technologický. Společnost však technologie neprodává, ale používá je pro vlastní potřebu a zajištění konkurenční výhody oproti jiným mediálním firmám,“ vysvětluje Pečínka.

Pro Seznam však za výstavbou datacentra nestála čistě ekonomická úvaha. Potřeboval totiž sebedůvěru, že veškeré související kroky zvládne, a tu získal především jako dlouholetý významný partner jak v TTC, tak v Naganu (patřícím pod Cetin), v němž si své servery ponechal až dodnes. S provozovateli datacenter, jejichž kapacity si pronajímal, dříve technický tým Seznam.cz prošel veškerými problémy plynoucími z  provozu. Podle Pečínky se toho o správě datacentra nejvíce naučíte právě tehdy, když řešíte nějaký průšvih z reálného světa. Na tom Seznam vyrostl a i díky tomu jeho vedení získalo potřebnou sebedůvěru.

Pokud jde o celkový objem investice do Kokury, dal si Seznam za cíl, že jej kompletní centrum bude stát zhruba 200 milionů Kč. Zatím firma proinvestovala zhruba 150 milionů. Za ty peníze má v provozu jeden plný sál infrastruktury. Ten druhý je zatím prázdný a čeká na své vybavení technologiemi, racky či chlazením. Celých 200 milionů by se mělo dle plánu proinvestovat do konce příštího roku.

Návratnost investice se podle Pečínky pohybuje přibližně mezi 6 až 8 lety. Detailní výpočet zahrnuje celou řadu proměnných, například to, jak se bude vyvíjet cena elektřiny nebo jak poroste Seznam.cz jako jediný zákazník. Není bez zajímavosti, že samotná elektřina v Kokuře tvoří méně než 50 % OPEX – tedy provozních nákladů. U starších datacenter to mohou být klidně i tři čtvrtiny.

Intel - Seznam cz - 29_finLR.jpg

Lednička, kapičky a vzduch

S výše zmíněnými provozními náklady a energiemi souvisí i systém chlazení. Kokura využívá na české poměry celkem netypický koncept nepřímého free-coolingu. Management od počátku věděl, že nechce klasické chlazení – tzn. kompresor, který vyrábí chlad a ten se rozvádí vodou. I díky tomu, že firma stavěla na zelené louce, mohla budovu navrhnout tak, aby měla dvě chladicí jednotky hned vedle sálu. Není tak třeba žádné jiné distribuce ani žádného média na to, aby byl chladný vzduch doručen na sál. Je totiž foukán přes stěnu z chladících jednotek.

Nepřímý free-cooling spočívá v dělení na dva okruhy - venkovní vzduch představuje tzv. vnější okruh, uvnitř datacentra pak funguje tzv. vnitřní okruh. Na deskovém výměníku se oba vzduchy setkávají a venkovní ochlazuje ten vnitřní. Na výměníku obvykle dochází ke ztrátě kolem 4 stupňů Celsia. To znamená, že pokud je na sále potřeba stálá teplota 20 stupňů, tak do 16 stupňů venkovní teploty stačí jen „otáčet oba vzduchy proti sobě“.

Když venku nastoupí teploty nad 16 stupňů, musí se již začít „vyrábět“ chlad – nabízí se samozřejmě myšlenka okamžitě pustit kompresory (podobný koncept jako u ledničky), jenže to spotřebovává elektřinu a je to tudíž drahé, proto Seznam systém ještě doplnil o tzv. adiabatické přichlazování. „To spočívá v tom, že jsou venku před nasáváním vzduchu rozprašovány kapičky vody. Efekt je podobný, jako když si kapičky vody rozprašujete hadicí na zahradě – najednou se prudce ochladí,“ uvádí příklad Vlastimil Pečínka. Díky rozprašování vody je možné srazit další čtyři stupně venkovní teploty. Takže až do 20 stupňů venkovní teploty není třeba pouštět kompresory.

Při vyšší teplotě už kompresory běží a musejí dochladit teplotní rozdíl. Běží ale třeba jen minutu, předchladí si vzduch a potom se třeba na deset minut vypnou. Díky tomu se ukazatel PUE (Power Usage Effectiveness) v reálném provozu pohybuje kolem hodnoty 1,2. To znamená, že provozovatel dá na každou jednotku elektřiny spotřebovanou na provoz serverů jen 0,2 jednotky do chlazení. Dnes je pořád běžným standardem PUE 1,5. V ČR se ovšem setkáte i s datovými centry, která mají hodnotu PUE 1,7 nebo dokonce přes 2.

PUE se obvykle průměruje do celého roku, ale není bez zajímavosti, že například v polovině října bylo okamžité PUE okolo 1,18 a v největších letních parnech dosahovalo PUE nárazově až 1,6. Zimní měsíce napomohou dostat se k „ideální“ hodnotě 1,2.

Seznam.cz - datacentrum - II - 10.jpg

Jak se využívají technologie Intel

Servery v datacentru Kokura běží na platformě Intel, jejíž volba byla podle Pečínky zcela přirozenou reakcí na historický vývoj na trhu serverů a disků. Servery jsou vytíženy hlavně z hlediska I/O operací, tzn. čtení z disku či sítě, samotná výkonná CPU tak nevytěžuje ani zdaleka ze 100 % jejich výkonu.

Každým rokem Seznam nakoupí značné množství hardwaru, patří z tohoto hlediska v ČR k významným zákazníkům. V roce 2007 začala firma s virtualizací - u obnovy hardwaru byl proto u Seznam.cz dříve poměr až 1:7 – na sedm vyřazených strojů stačil jeden nový. V poslední době platí, že při zachování provozních potřeb nahradí firma jedním novým strojem v průměru necelé tři starší.

Z hlediska storage využívá Seznam v Kokuře klasickou kombinaci SSD a klasických disků. Kromě toho disponuje funkčním prototypem PODů - Point of Delivery. „Jde o alokační jednotku, rack poskládaný ze serverů s lokální storage, kde se SSD nachází v každém stroji, byť ony stroje byly původně koncipovány jako bezdiskové,“ dodává Vlastimil Pečínka a pokračuje: „Cílem je mít na disku operační systém – s tím má společnost lepší zkušenosti, než ho bootovat po síti. A SSD jsou využívány také jako disková cache.“

Jedna z optimalizačních úloh, jež lidé ze Seznamu nyní řeší, spočívá v tom, že část distribuované aplikace drží tzv. metadata (vypsat obsah schránky, udělat náhled na e-mail apod.). Limitace diskového subsystému na této aplikaci pak říká, kolik je „jedním kusem železa“ možné obsloužit uživatelů. „Tato optimalizace spočívá v tom, že Seznam samozřejmě chce, aby to nebylo například 100 tisíc uživatelů na jeden nod, ale aby jich tam bylo třeba 200 tisíc, což je determinováno především možnostmi I/O subsystému“ prozrazuje Pečínka. Výsledkem experimentů byly zkoušky různých variací a kombinací SSD a klasických SATA disků a následné nalezení kombinace s co nejlepším poměrem počtu uživatelů na hardware.

Pečínka dále tvrdí, že kdyby to šlo, tak se rád obratem zbaví mechanických částí pevných disků, které jsou nehospodárné a „topí“: „SSD jsou rychlejší, energeticky méně náročné a s menšími požadavky na chlazení. To jsou ale až sekundární důvody pro jejich volbu, tím primárním je samozřejmě nesrovnatelná rychlost.“ Seznam je podle něj ale závislý především na I/O, takže problémem zůstává jejich kapacita a cena. Naštěstí se ale první zvyšuje a druhé snižuje.

Pokud jde o poměr HDD a SSD, pak Seznam stále využívá drtivou většinu klasických disků. Už ale interně testoval terabajtové SSD disky a taková kapacita pro něj již začíná být velice zajímavá. Pečínka si myslí, že je to již otázka pouze dvou nebo tří let, než trh definitivně zlomí ve prospěch SSD – ty se tak definitivně stanou primární volbou a pohyblivé disky budou sloužit výhradně pouze pro archivaci.

LR_Kokura1.jpg

Kokura – provoz a bezpečnost

Seznam diverzifikoval svůj provoz do dvou datových center v průběhu roku 2007, přičemž tehdy se ještě jednalo o koncept „spící Růženka“. Veškerý provoz tehdy běžel z jednoho datového centra, zároveň však bylo vše nainstalováno i do druhého datacentra, kam nešel žádný traffic. To tak jen čekalo, kdyby primární centrum náhodou „spadlo“. Tento stav se však stal brzy neudržitelným, a tak se Seznam postupně přiklonil k plné paralelizaci do dvou datacenter.

Vývojáři obratem začali psát aplikace tak, aby fungovaly ve dvou datových centrech zároveň. Když jedno vypadne, tak se traffic automaticky přelije do druhého datového centra. Firma toho využívá, když instaluje nové verze svých aplikací. Většinou se jedná o celou řadu komponent, které úzce spolupracují, je proto lepší je odstavit od provozu, upgradovat, otestovat a pak teprve pustit zpět k uživatelům. „Aby to uživatel nepoznal, tak po dobu upgrade vše běží z jednoho datového centra na staré verzi, vývojáři Seznamu připravují novou a následně se mezi nimi jen přepne,“ doplňuje svůj výklad Pečínka. Obě centra dnes jedou v aktivním režimu, takže když v prohlížeči zadáte www.seznam.cz, tak ani nevíte, jestli se připojujete do Kokury nebo do Nagana, provoz se neustále přelévá.

Pokud jde o bezpečnost, je Seznam.cz podle Pečínky zcela pravidelným terčem pokusů o infiltraci, nejedná se ale o žádné velké útoky. Poslední velká vlna DoS (Denial of Service) napadení přišla v roce 2012. Pro jistotu ale disponuje vlastním CSIRT týmem (Computer Security Incident Response Team).  Ten je součástí projektu Fénix, který vznikl jako platforma nad NIXem (český peeringový uzel).