České Radiokomunikace

Trendy v DC: Edge computing, hyperkonvergence a bezpečnost

Trendy v DC: Edge computing, hyperkonvergence a bezpečnost
Se stále rostoucím významem informačních technologií a s jejich pronikáním do dalších oblastí našich životů roste i poptávka po využívání služeb velkých datových center. Tlaky, které na ně vznikají, se odrážejí v jejich proměnách a v nasazování nových, stále pokročilejších technologií. Podívejme se zde na nejvýznamnější trendy, které aktuálně mění nebo v nejbližších měsících změní jejich tvář.

Computing bez serverů

Prvním zásadním trendem, který mění nejen datová centra, ale především způsob provozování a využívání informačních technologií jako celku, je cloud computing. Tento přístup samotný sice není žádnou novinkou, ale jeho další stupeň, označovaný pojmem „Serverless computing“, už rozhodně ano.

Pojem „Serverless computing“, podle mnohých, mimochodem, dost nešťastně zvolený, samozřejmě neznamená, že by se IT operace v budoucnu obešly bez serverů, ale zdůrazňuje, že servery jsou kdesi v pozadí a uživatele vlastně vůbec nemusejí zajímat - a tím méně by se snad měl starat o jejich správu. Klient nemusí řešit otázky výpočetního výkonu, storage nebo síťových prostředků, jen je využije, když je potřebuje. Totéž sice slibuje i cloud, typicky IaaS (infrastruktura jako služba), ale Serverless computing tuto představu posouvá na vyšší úroveň.

V rámci Serverless computingu typicky uživatel – nebo nějaká jeho aplikace – spustí svůj kód kdesi v datovém centru poskytovatele, aniž by se staral o alokaci prostředků nebo o správu zdrojů. Spuštěný proces zabere určitý čas a určité zdroje, odpovídající částka je pak odečtena z účtu klienta. A to je vše. Mnohdy může jít o haléře – například když se jedná o provedení krátkého procesu vyvolaného jedním z mnoha klientových senzorů zapojených v internetu věcí (IoT).

Jde tedy o další stupeň odstínění uživatele od IT infrastruktury: jedinou jeho starostí je nechat spustit proces. Bez potřeby plánování, bez starosti o výkon a load balancing, o úložnou kapacitu nebo o šířku dostupného přenosového pásma. Možnou třešničkou na dortu jsou pak předpřipravené sady funkcí, které klient může v rámci svých procedur využívat.

 

Servery vždy nablízku

I když je trendem provozovat stále více aplikací v cloudu u poskytovatele služeb – a díky zdokonalující se komunikační infrastruktuře už vzdálenost od koncových bodů nebývá problémem, existují případy, kdy je třeba provést zpracování dat co nejblíže a co nejrychleji. A tady vstupuje do hry další trend, takzvaný Edge computing, tedy computing na okraji sítě.

Systém Edge computingu ideálně zahrnuje síť miniaturních datových center, která jsou k dispozici blízko zdrojům dat, takže do nich lze tato data – například z již výše zmiňovaných senzorů internetu věcí – přenést s minimálním zpožděním a ihned je zpracovat, případně na ně okamžitě reagovat. Předzpracovaná data pak mohou být s nižšími nároky na přenosové pásmo přenesena do centrálního datového centra.

 

Hyperkonvergované systémy

Od pohledu shora nyní pojďme přímo na úroveň hardwaru, tedy ke konkrétním výpočetním systémům, úložným systémům a sítím. Zde jsou aktuálním trendem takzvaná hyperkonvergovaná řešení, která v sobě kombinují všechny tyto tři části IT infrastruktury. Provozovatelé datových center tak mohou pracovat se zařízeními, která v sobě obsahují již od výrobce sladěný hardware a software - server pro výpočty, systém pro ukládání dat a síťové prvky, a to vše spravované z jedné integrované konzole. Pro zajištění škálovatelnosti je přitom možno propojit více takových zařízení do jednoho celku nabízejícího sdílený rezervoár zdrojů pro požadované úlohy.

Výhodou hyperkonvergovaných zařízení je především fakt, že jsou již od výrobce odladěná – a vybavená softwarem pro virtualizaci serverů, softwarově definovaný storage nebo virtualizovaný networking. Odborníci o tomto typu produktů často hovoří jako o řešení vhodném pro ty, kdo by z důvodu efektivity sice rádi využívali infrastrukturu cloudu u poskytovatele služeb, ale potřebují mít své systémy pod kontrolou. Hyperkonvergované systémy jim do značné míry právě toto poskytují – díky snadnému používání a dostatečné škálovatelnosti. Existují ale pochopitelně i jiné scénáře nasazení.

 

Umělá inteligence a automatizace

Tlak na efektivitu informačních technologií se odráží i ve snaze maximálně automatizovat jejich správu, a to mimo jiné za využití umělé inteligence (AI). Trendem, který by se měl ještě intenzivněji projevit v nejbližších měsících, je nasazování systémů využívajících neuronových sítí a hlubokého učení k analýze chování prvků datového centra a k automatickému řešení možných problémů či k optimalizaci výkonu. Díky získání velkého množství dat z běžného fungování datacentra by měly být tyto systémy schopny stále přesněji předpovídat další vývoj a podle potřeby ho korigovat, a to v různých oblastech: od sledování a optimalizace chlazení po optimalizaci ukládání dat.

Umělá inteligence by měla hrát stále větší roli i u dvojice již výše zmíněných trendů: Jak v případě edge computingu a miniaturních datových center, tak u hyperkonvergovaných systémů má přispět k jejich maximální automatizaci.

 

SSD jsou stále populárnější

Sestupme nyní ještě o úroveň níže, konkrétně k hardwaru úložných systémů. Stále populárnějším základem storage jsou SSD (solid-state drive) a postupně nyní nahrazují klasické disky i v datových centrech. Jejich výhody jsou zřejmé: Jsou jimi především vysoká rychlost a nízká spotřeba. S rostoucí kapacitou vyráběných SSD a s relativně příznivými cenami tak budou nepochybně SSD stále častěji nahrazovat klasické pevné disky.

Nasvědčují tomu ostatně i konkrétní údaje: Nejvýznamnější výrobci SSD vykázali za loňský rok dvojciferné růsty prodejů a nejinak tomu zřejmě bude i letos. Analytici Gartneru přitom očekávají, že vzhledem k  růstu výrobních kapacit by mohlo v roce 2019 dojít k dalšímu poklesu cen SSD, což by dále urychlilo jejich vítězné tažení světem IT. Gartner také předpovídá, že v roce 2021 bude polovina datových center používat SSA (solid-state array, tedy disková pole složená z SSD) pro  high-performance computing a zpracování big data, zatímco loni to bylo méně než 10 %.

 

Stále větší důraz na bezpečnost

Jestliže je v úvodu řeč o rostoucím významu informačních technologií a o jejich pronikání do dalších a dalších oblastí života, pak je nutno jedním dechem dodat, že spolu s tímto trendem roste i zodpovědnost, s jakou je třeba přistupovat k bezpečnosti IT. Důraz na stále vyšší bezpečnost a spolehlivost provozu – a tím i vysokou dostupnost, případně zotavení po katastrofě - je dalším z významných trendů v datových centrech dneška.

Zabezpečení datových center lze v zásadě rozdělit na tři oblasti: fyzickou bezpečnost, tedy především technologické a personální zabezpečení objektu datového centra, provozní bezpečnost, zajištěnou kvalitní a udržovanou podpůrnou i IT infrastrukturou a odpovídajícími monitorovací a řídicí systémy (DCIM), a datovou bezpečnost, tedy ochranu proti neoprávněnému přístupu z vnějšku i zevnitř datového centra, a to například prostřednictvím firewallů nebo šifrování dat.

Jako příklad uveďme datové centrum Českých Radiokomunikací DC TOWER v Praze na Žižkově. Z hlediska fyzické bezpečnosti odpovídá požadavkům NBÚ na bezpečnostní třídu 3 a má prověrku na úroveň Tajné. Pokud jde o provozní bezpečnost, je jeho design v souladu s většinou požadavků na TIER III podle Uptime Institute a navíc má i certifikaci dle standardu ANSI TIA 942, který slouží jako základ pro připravovanou evropskou normu EN 50 600. Součástí SLA jsou nejen parametry napájení, teploty a vlhkosti, ale také konektivita a již zmíněná fyzická bezpečnost. Z hlediska datové bezpečnosti je zde pak k dispozici mimo jiné třeba dedikovaná ochrana proti DoS i DDoS útokům, komplexní  firewall i webový aplikační firewall.

 

Petr Mandík