Et datasenter er et fysisk anlegg som bedrifter bruker for å huse sine forretningskritiske applikasjoner og informasjon. Som de utvikler seg fra sentralisert lokale fasiliteter til kant deployeringer til offentlig cloud-tjenester, er det viktig å tenke langsiktig om hvordan å opprettholde sin pålitelighet og sikkerhet.
Hva er et datasenter?
datasentre er ofte referert til som en enkelt ting, men i virkeligheten er de består av en rekke tekniske elementer.,ul>
Dette er komponenter som DET er behov for å lagre og håndtere de mest kritiske ressurser som er avgjørende for den løpende drift av en organisasjon., På grunn av dette, pålitelighet, effektivitet, sikkerhet og konstant utvikling av datasentre er vanligvis en topp prioritet. Både programvare og maskinvare sikkerhetstiltak er et must.
I tillegg til teknisk utstyr, et datasenter også krever en betydelig mengde fasiliteter infrastruktur for å holde den maskinvare og programvare som er oppe og kjører. Dette inkluderer strøm undersystemer, avbruddssikker strømforsyning (UPS), ventilasjon og kjøling systemer, backup generatorer og kabler for å koble til eksterne nettverk operatører.,
Data center arkitektur
Alle selskaper av vesentlig størrelse vil trolig ha flere datasentre, muligens i flere regioner. Dette gir organisasjonen fleksibilitet i hvordan det vil sikkerhetskopiere informasjon og beskytter mot naturlige og menneskeskapte katastrofer som flom, storm og terrortrusler. Hvordan data center er architected kan kreve noen av de vanskelige beslutninger, fordi det er nesten ubegrensede muligheter. Noen av de viktigste hensynene er:
- Gjør virksomheten krever speilet datasentre?,
- Hvor mye geografiske mangfold er nødvendig?
- Hva er den nødvendige tid til å gjenopprette i tilfelle av strømbrudd?
- Hvor mye plass som er nødvendig for ekspansjon?
- Bør du leie en privat data center, eller du kan bruke en co-location/managed service?
- Hva er båndbredde og krav til strøm?
- Er det en foretrukket operatør?
- Hva slags fysisk sikkerhet er nødvendig?
Svar på disse spørsmålene kan hjelpe deg å avgjøre hvor mange datasentre for å bygge og der., For eksempel, en financial services fast i Manhattan sannsynlig krever kontinuerlig drift som alle strømbrudd kan koste millioner. Selskapet vil trolig bestemmer seg for å bygge to datasentre i nærheten av dette overnattingsstedet, som for eksempel New Jersey og Connecticut, som er sider av hverandre. En hel data center kan deretter bli stengt ned uten tap av operasjoner fordi selskapet kunne kjøre av bare ett av dem.,
Imidlertid en liten professional-tjenester firmaet kanskje ikke trenger umiddelbar tilgang til informasjon og kan ha en primær data center i sine kontorer og tilbake informasjon opp til en alternativ område i land på en nattlig basis. I tilfelle et strømbrudd, vil det starte en prosess for å gjenopprette informasjonen, men ville ikke ha samme aktualitet som en bedrift som er avhengig av real-time data for konkurransefortrinn.
Mens datasentre er ofte assosiert med bedrifter og web-skala cloud tilbydere, faktisk alle størrelser bedrift kan ha et datasenter., For enkelte små og mellomstore bedrifter, data center kan være et rom som ligger i deres lokaler.
standarder
for Å hjelpe IT-ledere å forstå hva slags infrastruktur for å distribuere, i 2005, American National Standards Institute (ANSI) og Telecommunications Industry Association (TIA) publiserte standarder for datasentre, som definert fire atskilte perioder med design og implementering av retningslinjene. En Tier 1 datasenter er i utgangspunktet en modifisert server rom, mens en Tier Fire data center har de høyeste nivåene av systemets pålitelighet og sikkerhet.,
Som er tilfelle med alle ting, teknologi, data sentre er for tiden gjennomgår en betydelig overgang, og data center i morgen vil se betydelig forskjellig fra det de fleste organisasjoner er kjent med i dag.
Bedrifter blir stadig mer dynamisk og distribuert, noe som betyr at den teknologien som driver datasentre må være fleksible og skalerbare., Som server virtualization har økt i popularitet, er mengden av trafikken beveger seg sideveis over data center (Øst-Vest) har overskygget tradisjonelle klient-server-trafikk, som beveger seg inn og ut (Nord-Sør). Dette er å spille ødeleggelse med data-center ledere som de forsøker å møte kravene i denne epoken av DET.
Her er viktige teknologier som vil utvikle seg datasentre fra å være statisk og stivt miljøer som er holdingselskaper tilbake til væske, smidig fasiliteter i stand til å møte kravene til en digital bedrift.,
Edge computing og micro data sentre
Edge computing er et stadig mer populært paradigme hvor mye av beregningsorientert arbeid som tradisjonelt ville ha skjedd i en sentralisert data center skjer nærmere kanten av nettverket, der data er samlet inn. Det betyr mindre forsinkelse for programmer som trenger i nærheten-real-time handling, og en reduksjon i mengden av data båndbredde behov. Micro data sentrene er kompakte enheter som kan samle inn, bearbeide, analysere og lagre data fysisk tett på enheter som innhenter det, og plassere dem på stedet gjør edge computing mulig., Micro data sentre er utplassert i støtte fra en rekke bruksområder, blant annet 5G nettverk, tingenes Internett utrullering og innhold levering nettverk.
Det finnes en rekke leverandører i mikro data center plass, noen med bakgrunn i andre tilstøtende områder som IaaS eller samlokalisering tjenester. Micro data sentre er ofte (men ikke alltid) er solgt som pre-montert utstyr, og «micro» dekker et ganske bredt spekter av størrelser—de kan variere fra én 19-tommers rack til en 40-fots container—og administrasjon kan bli tatt vare på av leverandøren eller outsourcet til en administrert tjenesteleverandør.,
rollen cloud
Historisk, virksomheter hadde et valg om å bygge sine egne datasentre eller ved hjelp av en hosting leverandør eller en managed service partner. Kommer den siste ruter skiftet eierskap og økonomi til å drive data center, men de lange ledetider som kreves for å implementere og administrere teknologien fortsatt forble. Fremveksten av Infrastruktur som en Tjeneste (IaaS) fra cloud tilbydere som Amazon Web Services og Microsoft Azure har gitt bedrifter et alternativ der de kan klargjøre et virtuelt datasenter i skyen med bare noen få museklikk., I 2019, for første gang foretak brukt mer årlig på cloud infrastruktur tjenester enn de gjorde på fysisk datasenter hardware, og mer enn halvparten av servere som selges gikk inn cloud tilbydere’ datasentre.
Likevel, den lokale lokale data center ikke kommer bort helst snart. I et 2020-undersøkelsen fra Uptime Institute, 58% av respondentene sa at de fleste av deres arbeidsmengde forble i bedriftens data sentre, og de oppga mangel på synlighet i det offentlige rom skyer og ansvar for oppetid som en grunn til å motstå bytte.,
Mange organisasjoner får det beste av begge verdener ved hjelp av en hybrid-cloud tilnærming, der noen arbeidsbelastninger er avlastet til en offentlig sky, mens andre, som krever mer hands-on kontroll eller sikkerhet fortsatt kjøre i lokalt datasenter.
Software-definert nettverk (SDN)
En digital virksomhet kan bare være så smidig som sin minste smidig komponent. og det er ofte nettverket. SDN kan gi et nivå av dynamikk aldri har opplevd før.,
Hyperconverged infrastruktur (HCI)
En av de operasjonelle utfordringene av datasentre er å brolegge sammen den rette blandingen av servere, lagring og nettverk for å støtte krevende programmer. Deretter, når infrastrukturen er deployert, IT-drift er behov for å finne ut hvordan å skalere opp raskt uten å avbryte programmet. HCI forenkler at ved å gi en lett-å-distribuere apparatet, basert på råvare-maskinvare, som kan skalere ut ved å legge til flere noder i distribusjon. Det er HCI tilbud fra en rekke høyprofilerte leverandører.,
HCI kan levere en rekke fordeler over tradisjonelle datasentre, blant annet skalerbarhet, cloud integrering, og enklere konfigurasjon og administrasjon. Tidlig bruk saker for HCI kretset rundt desktop virtualization, men teknologien nå har en rekke nisjer, inkludert eksternt kontor/kontor-distribusjoner, test-og utviklingsmiljøer, sikkerhetskopiering og gjenoppretting av data, og for logging og analyse.,
Beholdere, microservices, service masker
Application utvikling er ofte bremset ned av hvor lang tid det tar å klargjøre infrastruktur det går på. Dette kan i betydelig grad hemme en organisasjons evne til å flytte til en DevOps-modellen. Containere er en metode for å virtualisere en hel runtime miljø som tillater utviklere å kjøre programmer og deres avhengigheter i et selvstendig system. Containere er meget lett og kan være skapt og ødelagt raskt så de er ideelle for å teste hvordan programmer kjøres under visse betingelser.,
Containerized programmer er ofte delt inn i individuelle microservices, som hver omfatter en liten, diskret del av funksjonaliteten, og som samhandler med hverandre for å danne en komplett søknad. Jobben med å koordinere de enkelte beholdere falls til en arkitektonisk form som er kjent som en tjeneste mesh, og mens tjenesten mesh gjør mye arbeid for å abstrakte kompleksitet bort fra utviklerne, er det behov for sin egen omsorg og vedlikehold., Service-mesh automatisering og ledelse bør være integrert i de omfattende data center nettverk-management system—spesielt som beholder distribusjoner bli mer tallrike, komplekse og strategisk.
Microsegmentation
Tradisjonell datasentre har alle sikkerhets-teknologi i kjernen, slik at trafikken går i Nord-Sør retning, er det passerer gjennom sikkerhetskontrollen verktøy og beskytter virksomheten., Fremveksten av Øst-Vest-trafikk betyr at trafikken går brannmur, intrusion prevention systems og andre sikkerhetssystemer og aktivere malware å spre seg svært raskt. Microsegmentation er en metode for å lage sikre soner innenfor et datasenter hvor ressursene kan være isolert fra hverandre, slik at hvis et brudd skjer, skade blir minst mulig. Microsegmentation er vanligvis gjort i programvaren, noe som gjør det svært smidig.
Ikke-flyktig minne express (NVMe)
Alt er raskere i en verden som blir stadig mer digitalisert, og det betyr at data er behov for å bevege seg raskere., Tradisjonell lagring protokoller for eksempel small computer system interface (SCSI) og Advanced Technology Attachment (ATA) har eksistert i flere tiår og har nådd sin grense. NVMe er en lagringsplass protokoll utviklet for å akselerere overføring av informasjon mellom systemer og solid state disker mye bedre overføringshastigheter.
Og NVMe er ikke bare begrenset til å koble til ssd-minne chips: NVMe over Stoffer (NVMe-av) tillater etablering av super-rask lagring nettverk med latencies som rival direct attached storage.,
GPU computing
Central processing units (Cpuer) har drevet data-center infrastruktur i flere tiår, men Moore ‘ s Lov kjører opp mot fysiske begrensninger. Også nye arbeidsbelastninger for eksempel analytics -, maskin-læring og IoT kjører behov for en ny type beregne modell som overstiger det som Cpuer kan gjøre. Grafikk prosessenheter (Gpu-er), når bare brukes for spill, fungerer fundamentalt forskjellige som de er i stand til å behandle mange tråder i parallell.,
Som et resultat, Gpu er å finne en plass i den moderne datasenter, som er stadig mer i oppdrag med å ta på AI og nevrale nettverk oppgaver. Dette vil medføre en rekke endringer i hvordan data sentre er architected, fra hvordan de er koblet til nettverket til hvordan de er avkjølt.
datasentre har alltid vært kritisk til suksess for bedrifter i nesten alle størrelser, og det vil ikke forandre. Imidlertid flere måter å distribuere data center og teknologier som gjennomgår en radikal omlegging., For å bidra til å bygge et veikart for fremtiden data center, husker at verden blir stadig mer dynamisk og distribuert. Teknologier som kan akselerere at skift, er de som vil være nødvendig i fremtiden. De som ikke vil trolig holde rundt for en stund, men vil bli stadig mindre viktig.