Un data center è una struttura fisica che le aziende utilizzano per ospitare le loro applicazioni e informazioni business-critical. Man mano che si evolvono da strutture on-premise centralizzate a distribuzioni edge a servizi cloud pubblici, è importante pensare a lungo termine su come mantenere la loro affidabilità e sicurezza.
Che cos’è un data center?
I data center sono spesso indicati come una cosa singolare, ma in realtà sono composti da una serie di elementi tecnici.,ul>
Questi sono i componenti che È necessario per memorizzare e gestire le risorse più critiche, che sono di vitale importanza per il funzionamento continuo di un’organizzazione., Per questo motivo, l’affidabilità, l’efficienza, la sicurezza e la costante evoluzione dei data center sono in genere una priorità assoluta. Sia le misure di sicurezza software e hardware sono un must.
Oltre alle attrezzature tecniche, un data center richiede anche una notevole quantità di infrastrutture per mantenere l’hardware e il software attivi e funzionanti. Ciò include sottosistemi di alimentazione, alimentatori ininterrotti (UPS), sistemi di ventilazione e raffreddamento, generatori di backup e cavi per la connessione a operatori di rete esterni.,
Architettura data center
Qualsiasi azienda di dimensioni significative avrà probabilmente più data center, possibilmente in più regioni. Ciò conferisce all’organizzazione flessibilità nel modo in cui esegue il backup delle proprie informazioni e protegge da disastri naturali e causati dall’uomo come inondazioni, tempeste e minacce terroristiche. Il modo in cui il data center è progettato può richiedere alcune delle decisioni difficili perché ci sono opzioni quasi illimitate. Alcune delle considerazioni chiave sono:
- L’azienda richiede data center con mirroring?,
- Quanta diversità geografica è richiesta?
- Qual è il tempo necessario per recuperare in caso di interruzione?
- Quanto spazio è necessario per l’espansione?
- Dovresti affittare un data center privato o utilizzare un servizio co-location/managed?
- Quali sono i requisiti di larghezza di banda e potenza?
- Esiste un vettore preferito?
- Che tipo di sicurezza fisica è richiesta?
Le risposte a queste domande possono aiutare a determinare quanti data center costruire e dove., Ad esempio, una società di servizi finanziari a Manhattan probabilmente richiede operazioni continue in quanto qualsiasi interruzione potrebbe costare milioni. La società probabilmente deciderà di costruire due data center nelle immediate vicinanze, come il New Jersey e il Connecticut, che sono siti speculari l’uno dell’altro. Un intero data center potrebbe quindi essere chiuso senza perdita di operazioni perché l’azienda potrebbe eseguire solo uno di essi.,
Tuttavia, una piccola società di servizi professionali potrebbe non aver bisogno di accesso immediato alle informazioni e può avere un data center primario nei propri uffici e supportare le informazioni fino a un sito alternativo in tutto il paese su base notturna. In caso di interruzione, avvierebbe un processo per recuperare le informazioni ma non avrebbe la stessa urgenza di un’azienda che si basa su dati in tempo reale per un vantaggio competitivo.
Mentre i data center sono spesso associati a imprese e fornitori di cloud su scala Web, in realtà qualsiasi azienda di dimensioni può avere un data center., Per alcune PMI, il data center potrebbe essere una stanza situata nel loro spazio ufficio.
Standard di settore
Per aiutare i leader IT a capire quale tipo di infrastruttura implementare, nel 2005, l’American National Standards Institute (ANSI) e Telecommunications Industry Association (TIA) hanno pubblicato standard per data center, che definivano quattro livelli discreti con linee guida di progettazione e implementazione. Un data center di livello 1 è fondamentalmente una sala server modificata, mentre un data center di livello quattro ha i più alti livelli di affidabilità e sicurezza del sistema.,
Come nel caso di all things technology, i data center stanno attualmente subendo una transizione significativa e il data center di domani apparirà significativamente diverso da quello con cui la maggior parte delle organizzazioni ha familiarità oggi.
Le aziende stanno diventando sempre più dinamiche e distribuite, il che significa che la tecnologia che alimenta i data center deve essere agile e scalabile., Poiché la virtualizzazione dei server è aumentata in popolarità, la quantità di traffico che si muove lateralmente attraverso il data center (Est-Ovest) ha sminuito il traffico client-server tradizionale, che si muove dentro e fuori (Nord-Sud). Questo sta giocando il caos con i responsabili dei data center nel tentativo di soddisfare le esigenze di questa era dell’IT.
Ecco le tecnologie chiave che evolveranno i data center da ambienti statici e rigidi che stanno trattenendo le aziende a strutture fluide e agili in grado di soddisfare le esigenze di un’impresa digitale.,
Edge computing e micro data center
L’edge computing è un paradigma sempre più popolare in cui gran parte del lavoro computazionale che sarebbe tradizionalmente avvenuto in un data center centralizzato avviene più vicino al bordo della rete, dove vengono raccolti i dati. Ciò significa meno ritardi per le applicazioni che necessitano di un’azione quasi in tempo reale e una riduzione della quantità di larghezza di banda dei dati necessaria. I micro data center sono unità compatte in grado di raccogliere, elaborare, analizzare e archiviare i dati fisicamente vicino ai dispositivi che li raccolgono e posizionarli in loco rende possibile l’edge computing., I micro data center vengono distribuiti a supporto di una serie di usi, tra cui reti 5G, implementazioni di Internet of Things e reti di distribuzione dei contenuti.
Ci sono un certo numero di fornitori nello spazio micro data center, alcuni con sfondo in altre aree adiacenti come IaaS o servizi di colocation. I micro data center sono spesso (ma non sempre) venduti come apparecchi preassemblati e “micro” copre una gamma abbastanza ampia di dimensioni-possono variare da un singolo rack da 19 pollici a un container da 40 piedi—e l’amministrazione può essere curata dal fornitore o esternalizzata a un fornitore di servizi gestiti.,
Il ruolo del cloud
Storicamente, le aziende avevano la possibilità di creare i propri data center o di utilizzare un fornitore di hosting o un partner di servizi gestiti. Andando questi ultimi percorsi spostato la proprietà e l’economia di gestione di un data center, ma i lunghi tempi di consegna necessari per distribuire e gestire la tecnologia ancora rimasto. L’ascesa di Infrastructure as a Service (IaaS) da fornitori di cloud come Amazon Web Services e Microsoft Azure ha dato alle aziende un’opzione in cui possono eseguire il provisioning di un data center virtuale nel cloud con pochi clic del mouse., In 2019, per la prima volta le aziende hanno speso più annualmente per i servizi di infrastruttura cloud rispetto all’hardware del data center fisico e più della metà dei server venduti è andata nei data center dei fornitori di cloud.
Tuttavia, il data center locale locale non scomparirà presto. In un sondaggio 2020 dell’Uptime Institute, il 58% degli intervistati ha affermato che la maggior parte dei carichi di lavoro è rimasta nei data center aziendali e ha citato la mancanza di visibilità nei cloud pubblici e la responsabilità per l’uptime come motivo per resistere allo switch.,
Molte organizzazioni stanno ottenendo il meglio di entrambi i mondi utilizzando un approccio ibrido-cloud, in cui alcuni carichi di lavoro vengono scaricati su un cloud pubblico, mentre altri che richiedono più hands-on di controllo o di sicurezza ancora eseguito nel data center locale.
Software-Defined Networking (SDN)
Un business digitale può essere agile solo come la sua componente meno agile. e questo è spesso la rete. SDN può portare un livello di dinamismo mai sperimentato prima.,
Hyperconverged Infrastructure (HCI)
Una delle sfide operative dei data center è dover mettere insieme la giusta miscela di server, storage e reti per supportare applicazioni esigenti. Quindi, una volta distribuita l’infrastruttura, le operazioni IT devono capire come scalare rapidamente senza interrompere l’applicazione. HCI semplifica questo fornendo un’appliance facile da distribuire, basata su hardware commodity, che può essere scalabile aggiungendo più nodi nella distribuzione. Ci sono offerte HCI da un certo numero di fornitori di alto profilo.,
HCI può offrire una serie di vantaggi rispetto ai data center tradizionali, tra cui scalabilità, integrazione cloud e configurazione e amministrazione più semplici. I primi casi d’uso per HCI ruotavano attorno alla virtualizzazione del desktop, ma la tecnologia ora occupa una serie di nicchie, tra cui distribuzioni di uffici remoti/filiali, ambienti di test e sviluppo, backup e ripristino dei dati, registrazione e analisi.,
Contenitori, microservizi, mesh di servizio
Lo sviluppo delle applicazioni è spesso rallentato dal tempo necessario per il provisioning dell’infrastruttura su cui viene eseguito. Ciò può ostacolare in modo significativo la capacità di un’organizzazione di passare a un modello DevOps. I contenitori sono un metodo di virtualizzazione di un intero ambiente di runtime che consente agli sviluppatori di eseguire applicazioni e le loro dipendenze in un sistema autonomo. I contenitori sono molto leggeri e possono essere creati e distrutti rapidamente, quindi sono ideali per testare il funzionamento delle applicazioni in determinate condizioni.,
Le applicazioni containerizzate sono spesso suddivise in singoli microservizi, ciascuno incapsulante un piccolo, discreto pezzo di funzionalità, che interagiscono tra loro per formare un’applicazione completa. Il compito di coordinare quei singoli contenitori cade in una forma architettonica nota come service mesh, e mentre la service mesh fa molto lavoro per astrarre la complessità dagli sviluppatori, ha bisogno della propria cura e manutenzione., Le informazioni relative all’automazione e alla gestione delle mesh di servizio dovrebbero essere integrate nel sistema di gestione delle reti di data center completo, soprattutto perché le distribuzioni di container diventano più numerose, complesse e strategiche.
Microsegmentation
I data center tradizionali hanno tutta la tecnologia di sicurezza al centro, così come il traffico si muove in direzione Nord-Sud, passa attraverso gli strumenti di sicurezza e protegge il business., L’aumento del traffico Est-ovest significa che il traffico aggira i firewall, i sistemi di prevenzione delle intrusioni e altri sistemi di sicurezza e consente al malware di diffondersi molto rapidamente. La microsegmentazione è un metodo per creare zone sicure all’interno di un data center in cui le risorse possono essere isolate l’una dall’altra, quindi se si verifica una violazione, il danno è ridotto al minimo. La microsegmentazione viene in genere eseguita nel software, rendendolo molto agile.
Non-volatile memory express (NVMe)
Tutto è più veloce in un mondo che sta diventando sempre più digitalizzato, e questo significa che i dati devono muoversi più velocemente., I protocolli di archiviazione tradizionali come Small computer System Interface (SCSI) e Advanced Technology Attachment (ATA) sono in circolazione da decenni e stanno raggiungendo il loro limite. NVMe è un protocollo di archiviazione progettato per accelerare il trasferimento di informazioni tra sistemi e unità a stato solido migliorando notevolmente le velocità di trasferimento dei dati.
E NVMe non si limita solo alla connessione a chip di memoria a stato solido: NVMe over Fabrics (NVMe-oF) consente la creazione di reti di storage super-veloci con latenze che rivaleggiano con direct attached storage.,
GPU computing
Central Processing Units (CPU) hanno alimentato l’infrastruttura dei data center per decenni, ma la legge di Moore è in esecuzione contro limitazioni fisiche. Inoltre, nuovi carichi di lavoro come l’analisi, l’apprendimento automatico e l’IoT stanno determinando la necessità di un nuovo tipo di modello di calcolo che superi ciò che le CPU possono fare. Le unità di elaborazione grafica (GPU), una volta utilizzate solo per i giochi, operano fondamentalmente diverse in quanto sono in grado di elaborare molti thread in parallelo.,
Di conseguenza, le GPU stanno trovando un posto nel moderno data center, che è sempre più incaricato di assumere AI e attività di rete neurale. Ciò comporterà una serie di cambiamenti nel modo in cui i data center sono progettati, da come sono connessi alla rete a come sono raffreddati.
I data center sono sempre stati fondamentali per il successo di aziende di quasi tutte le dimensioni e questo non cambierà. Tuttavia, il numero di modi per distribuire un data center e le tecnologie abilitanti stanno subendo un cambiamento radicale., Per aiutare a costruire una roadmap per il futuro data center, ricordiamo che il mondo sta diventando sempre più dinamico e distribuito. Le tecnologie che accelerano questo cambiamento sono quelle che saranno necessarie in futuro. Quelli che non lo fanno probabilmente rimarranno in giro per un po’, ma saranno sempre meno importanti.