ett datacenter är en fysisk anläggning som företag använder för att hysa sina affärskritiska applikationer och information. När de utvecklas från centraliserade lokaler till kantutplaceringar till offentliga molntjänster är det viktigt att tänka långsiktigt om hur man behåller sin tillförlitlighet och säkerhet.
Vad är ett datacenter?
datacenter kallas ofta som en singulär sak, men i verkligheten består de av ett antal tekniska element.,ul>
dessa är de komponenter som den behöver för att lagra och hantera de mest kritiska resurser som är avgörande för de kontinuerliga verksamhet av en organisation., På grund av detta är tillförlitligheten, effektiviteten, säkerheten och den ständiga utvecklingen av datacenter vanligtvis en högsta prioritet. Både programvara och hårdvara säkerhetsåtgärder är ett måste.
förutom teknisk utrustning kräver ett datacenter också en betydande mängd anläggningsinfrastruktur för att hålla hårdvaran och programvaran igång. Detta inkluderar power delsystem, avbrottsfri strömförsörjning (UPS), ventilations-och kylsystem, backup generatorer och kablage för att ansluta till externa nätoperatörer.,
datacenter arkitektur
alla företag av betydande storlek kommer sannolikt att ha flera datacenter, eventuellt i flera regioner. Detta ger organisationen flexibilitet i hur den säkerhetskopierar sin information och skyddar mot naturliga och konstgjorda katastrofer som översvämningar, stormar och terroristhot. Hur datacentret är architected kan kräva några av de svåra besluten eftersom det finns nästan obegränsade alternativ. Några av de viktigaste övervägandena är:
- kräver verksamheten speglade datacenter?,
- hur mycket geografisk mångfald krävs?
- vad är den tid som krävs för att återhämta sig vid ett avbrott?
- hur mycket utrymme krävs för expansion?
- ska du hyra ett privat datacenter eller använda en samlokalisering / hanterad tjänst?
- vad är bandbredden och strömkraven?
- finns det en rekommenderad bärare?
- vilken typ av fysisk säkerhet krävs?
svar på dessa frågor kan hjälpa till att avgöra hur många datacenter att bygga och var., Till exempel kräver ett finansiellt tjänsteföretag på Manhattan sannolikt kontinuerlig verksamhet, eftersom eventuella avbrott kan kosta miljoner. Företaget skulle sannolikt besluta att bygga två datacenter i närheten, såsom New Jersey och Connecticut, som är spegelplatser av varandra. Ett helt datacenter kan sedan stängas av utan förlust av verksamhet eftersom företaget kunde springa av bara en av dem.,
ett litet företag för professionella tjänster kanske inte behöver omedelbar tillgång till information och kan ha ett primärt datacenter på sina kontor och säkerhetskopiera informationen till en alternativ webbplats över hela landet på nattlig basis. I händelse av ett avbrott skulle det starta en process för att återställa informationen men skulle inte ha samma brådska som ett företag som förlitar sig på realtidsdata för konkurrensfördelar.
medan datacenter ofta är associerade med företag och web-scale molnleverantörer, kan faktiskt alla storlekar företag ha ett datacenter., För vissa SMB kan datacentret vara ett rum som ligger i deras kontorsutrymme.
industristandarder
för att hjälpa IT-ledare att förstå vilken typ av infrastruktur som ska användas 2005 publicerade American National Standards Institute (ANSI) och Telecommunications Industry Association (TIA) standarder för datacenter, som definierade fyra diskreta nivåer med design-och genomföranderiktlinjer. Ett Tier 1-datacenter är i grunden ett modifierat serverrum, medan ett tier Four-datacenter har de högsta nivåerna av systemets tillförlitlighet och säkerhet.,
som är fallet med all teknik, datacenter genomgår för närvarande en betydande övergång, och morgondagens datacenter kommer att se väsentligt annorlunda ut än den som de flesta organisationer är bekanta med idag.
företag blir alltmer dynamiska och distribuerade, vilket innebär att tekniken som driver datacenter måste vara smidig och skalbar., Som servervirtualisering har ökat i popularitet, mängden trafik som rör sig i sidled över datacentret (Öst-Väst) har dvärg traditionella klient-server trafik, som rör sig in och Ut (Nord-Syd). Detta spelar förödelse med datacenter chefer som de försöker uppfylla kraven i denna tid av det.
här är nyckeltekniker som kommer att utveckla datacenter från att vara statiska och styva miljöer som håller företag tillbaka till flytande, smidiga anläggningar som kan uppfylla kraven från ett digitalt företag.,
Edge computing och micro data centers
Edge computing är ett alltmer populärt paradigm där mycket av det beräkningsarbete som traditionellt skulle ha hänt i ett centraliserat datacenter händer närmare kanten av nätverket, där data samlas in. Det innebär mindre fördröjning för applikationer som behöver åtgärder i nära realtid och en minskning av mängden databandbredd som behövs. Micro datacenter är kompakta enheter som kan samla in, bearbeta, analysera och lagra data fysiskt nära de enheter som samlar in den, och placera dem på plats gör edge computing möjligt., Mikrodatacenter distribueras till stöd för ett antal användningsområden, inklusive 5G-nätverk, Internet of Things rollouts och innehållsleveransnätverk.
det finns ett antal leverantörer i Micro data center utrymme, vissa med bakgrund i andra angränsande områden som IaaS eller colocation tjänster. Micro data centers säljs ofta (men inte alltid) som förmonterade apparater, och ”micro” täcker ett ganska brett utbud av storlekar-de kan sträcka sig från en enda 19—tums rack till en 40-fots fraktbehållare-och administration kan tas hand om av säljaren eller läggas ut på entreprenad till en hanterad tjänsteleverantör.,
molnets Roll
historiskt sett hade företagen ett val att bygga egna datacenter eller använda en webbhotellsleverantör eller en hanterad servicepartner. Att gå de senare rutterna skiftade ägande och ekonomin att driva ett datacenter, men de långa ledtiderna som krävs för att distribuera och hantera tekniken var fortfarande kvar. Ökningen av infrastruktur som en tjänst (IaaS) från molnleverantörer som Amazon Web Services och Microsoft Azure har gett företag ett alternativ där de kan tillhandahålla ett virtuellt datacenter i molnet med bara några musklick., I 2019 spenderade företag för första gången mer årligen på molninfrastrukturtjänster än de gjorde på fysisk datacenterhårdvara, och mer än hälften av de sålda servrarna gick in i molnleverantörernas datacenter.
ändå kommer det lokala datacentret på plats inte att försvinna någon gång snart. I en 2020-undersökning från Uptime Institute sa 58% av respondenterna att de flesta av deras arbetsbelastningar var kvar i företagsdatacenter, och de citerade brist på synlighet i offentliga moln och ansvar för drifttid som en anledning att motstå omkopplaren.,
många organisationer får det bästa av båda världarna genom att använda en hybrid-cloud-strategi, där vissa arbetsbelastningar laddas av till ett offentligt moln medan andra som kräver mer praktisk kontroll eller säkerhet fortfarande körs i det lokala datacentret.
Software-defined networking (SDN)
ett digitalt företag kan bara vara lika smidigt som sin minst smidiga komponent. och det är ofta nätverket. SDN kan ge en nivå av dynamik som aldrig tidigare upplevt.,
Hyperconverged infrastructure (HCI)
en av de operativa utmaningarna för datacenter måste samla ihop rätt blandning av servrar, lagring och nätverk för att stödja krävande applikationer. Sedan, när infrastrukturen är utplacerad, måste IT-verksamheten ta reda på hur man ska skala upp snabbt utan att störa applikationen. HCI förenklar det genom att tillhandahålla en lättanvänd apparat, baserad på råvaru hårdvara, som kan skala ut genom att lägga till fler noder i distributionen. Det finns hci erbjudanden från ett antal högprofilerade leverantörer.,
hci kan ge ett antal fördelar jämfört med traditionella datacenter, inklusive skalbarhet, molnintegration och enklare konfiguration och administration. Tidiga användningsfall för hci kretsar kring skrivbordsvirtualisering, men tekniken upptar nu ett antal nischer, inklusive fjärranslutna office/branch office-distributioner, test-och utvecklingsmiljöer, säkerhetskopiering och dataåterställning samt loggning och analys.,
Behållare, mikrotjänster, servicemaskor
applikationsutveckling saktas ofta av hur lång tid det tar att tillhandahålla den Infrastruktur den körs på. Detta kan avsevärt hindra en organisations förmåga att flytta till en DevOps-modell. Behållare är en metod för att virtualisera en hel runtime miljö som tillåter utvecklare att köra program och deras beroenden i ett fristående system. Behållare är mycket lätta och kan skapas och förstöras snabbt så att de är idealiska för att testa hur applikationer körs under vissa förhållanden.,
Containeriserade applikationer är ofta uppdelade i enskilda mikroservices, var och en inkapslar en liten, diskret bit av funktionalitet, som interagerar med varandra för att bilda en komplett applikation. Arbetet med att samordna de enskilda behållarna faller till en arkitektonisk form som kallas ett servicenät, och medan servicenätet gör mycket arbete för att abstrahera komplexitet från utvecklare, behöver det egen vård och underhåll., Service-mesh automation och hanteringsinformation bör integreras i din omfattande datacenter nätverk-ledningssystem-särskilt som containerdistributioner blir mer talrika, komplexa och strategiska.
Microsegmentation
traditionella datacenter har all säkerhetsteknik i kärnan, så när trafiken rör sig i nord-syd riktning, passerar den genom säkerhetsverktygen och skyddar verksamheten., Ökningen av öst-västlig trafik innebär att trafiken kringgår brandväggar, system för förebyggande av intrång och andra säkerhetssystem och gör det möjligt för skadlig kod att sprida sig mycket snabbt. Microsegmentering är en metod för att skapa säkra zoner inom ett datacenter där resurser kan isoleras från varandra så om ett brott inträffar minimeras skadan. Microsegmentering görs vanligtvis i programvara, vilket gör det mycket smidig.
non-volatile memory express (NVMe)
allt är snabbare i en värld som blir alltmer digitaliserad, och det betyder att data måste gå snabbare., Traditionella lagringsprotokoll som small computer system interface (SCSI) och Advanced Technology Attachment (ATA) har funnits i årtionden och når sin gräns. NVMe är ett lagringsprotokoll som är utformat för att påskynda överföringen av information mellan system och solid state-enheter, vilket förbättrar dataöverföringshastigheterna avsevärt.
och NVMe är inte bara begränsat till att ansluta till solid state memory chips: NVMe over Fabrics (NVMe-oF) möjliggör skapandet av supersnabba lagringsnätverk med latenser som konkurrerar direkt ansluten lagring.,
GPU computing
central processing units (processorer) har drivit datacenter infrastruktur i årtionden, men Moores lag löper upp mot fysiska begränsningar. Nya arbetsbelastningar som analytics, maskininlärning och IoT driver också behovet av en ny typ av beräkningsmodell som överstiger vad processorer kan göra. Grafikbehandlingsenheter (GPU), en gång endast används för spel, fungerar fundamentalt annorlunda eftersom de kan bearbeta många trådar parallellt.,
som ett resultat hittar GPU: er en plats i det moderna datacentret, som i allt högre grad har till uppgift att ta på sig AI-och neurala nätverksuppgifter. Detta kommer att resultera i ett antal skift i hur datacenter är utformade, från hur de är anslutna till nätverket till hur de kyls.
datacenter har alltid varit avgörande för framgången för företag av nästan alla storlekar, och det kommer inte att förändras. Men antalet sätt att distribuera ett datacenter och möjliggörande teknik genomgår en radikal förändring., För att hjälpa till att bygga en färdplan till det framtida datacentret, kom ihåg att världen blir alltmer dynamisk och distribuerad. Teknik som påskyndar denna förändring är de som kommer att behövas i framtiden. De som inte kommer sannolikt att stanna kvar ett tag men kommer att bli allt mindre viktiga.