1white paper www.zerounoweb.it
u n p r o g e t t o i n p a r t n e r s h i p c o nW
HI
TE
P
AP
ER
istemi all-flash. Servizi cloud storage. Architetture di hybrid
cloud storage. Software defined storage. Hyperconverged system. Ecco,
secondo la società di analisi e consulenza Forrester, le cinque tec-
nologie e strategie che, sapientemente implementate, concretizzano
quello che la società definisce Disruptive Storage: una riformulazione
della parte delle infrastrutture It dedicate alla memorizzazione, all’ar-
chiviazione, alla messa in sicurezza di dati e applicazioni in grado di
rispondere alle sempre più evolute e stringenti esigenze delle Line of
business (Lob), dei partner e dei clienti delle aziende.
Per stilare questo elenco, la società si è basata sull’analisi dei
contenuti di 84 colloqui condotti nel 2014 con altrettante aziende che
si sono rivolte a Forrester per avere consulenza sul tema dello storage.
La maggior parte dei manager It che si sono rivolti alle società (39%)
sono responsabili Infrastructures & Operations (I&O), ovvero le figu-
re quotidianamente impegnate a rispondere alle richieste di nuovi o
maggiori o più performanti servizi storage a supporto delle crescenti
e cangianti esigenze del business. Interessante però il fatto che al se-
condo posto dei richiedenti spiegazioni e consigli si siano piazzati gli
Enterprise architect, con il 27% delle inquiry.
Questo conferma come la modernizzazione dell’infrastruttura
storage non risponda più alla semplice necessità di sostituire hardware
e software storage obsoleto o potenziare il supporto di memorizza-
zione e archiviazione a soluzioni già esistenti, ma miri a rispondere
Forrester ha analizzato i principali temi
riguardanti lo storage emersi nel corso
di colloqui con decine di aziende nel 2014.
Il report che ne è derivato consente di districarsi
tra tecnologie che vanno dai sistemi all-flash
all’hybrid storage all’insegna di maggiore
gestibilità, performance e apertura al cloud.
I consigli della società di analisi
storage
scenario
Il Disruptive Storage al servizio dei nuovi business model
Sd i R i c c a r d o C e r v e l l i
2white paper www.zerounoweb.it
alle necessità di applicazioni, architetture di delivery e business model
innovativi. Il fatto che i Cio abbiano rappresentato solo il 19% di chi si
è rivolto a Forrester sul tema storage può essere dovuto, alla scelta, da
parte di molti Chief information officer, di lasciare l’approfondimento
di questo argomento infrastrutturale a chi poi lo deve affrontare diret-
tamente. Chiudono la classifica i Sourcing and vendor manager (9%)
e i responsabili di Application development and delivery (6%): figure
che svolgono, l’una un ruolo successivo alla definizione dei beni e dei
servizi necessari, l’altra che invece dovrebbe operare in stretta collabo-
razione con gli I&O e gli Enterprise architect, lasciando però a questi
ultimi il compito di comprendere e scegliere le tecnologie e le strategie
storage più idonee ed efficienti (figura 1).
Le priorità emergentiSoftware defined storage (Sds), performance e hybrid cloud
sono stati i tre argomenti più affrontati nel corso delle interviste, ri-
spettivamente con il 22, il 20 e il 19% delle ricorrenze. A seguire le
public cloud (11%) e altri (28% in totale) (figura 2). L’attenzione al Sds
la dice lunga sull’aspirazione a rendere le infrastrutture storage più
flessibili, riconfigurabili, dotate di tassi sempre maggiori di automazio-
ne, e ben monitorabili, anche al fine di poter effettuare analisi dei costi
per workload o per line of business, e di conseguenza il chargeback.
Questo dovrebbe fornire un ulteriore aiuto alle Lob a definire i prezzi
delle offerte aziendali costituite da servizi tecnologici, evitando ina-
spettate perdite economiche.
Il tema performance (che nel primo semestre 2013, quando ven-
ne condotta un’indagine analoga, era stato argomento solo del 5% di
inquiry) è altrettanto cruciale e si può ricollegare, fra l’altro, alla com-
petizione che si sposta sempre più sul terreno dei servizi digitali e alla
crescita delle opportunità di utilizzare analytics su dati transazionali e
Big data. L’hybrid cloud, che secondo Forrester rappresenta il modello
infrastrutturale che si imporrà nel prossimo futuro, con tutte le carte in
regola per durare a lungo, risponde anch’esso a esigenze già individua-
te analizzando il tema Sds e quello performance.
Con cloud ibridi, infatti, le aziende non devono necessariamente
installare al proprio interno tutte le risorse computazionali, di storage
e applicative, in quanto possono integrare in modo elastico e sinergico
ciò che è on-premises con risorse praticamente senza limiti, manu-
tenute da terzi e innovative reperibili sulla “nube”. Integrando con i
servizi storage on-premises, cloud storage service distribuiti su tutta la
superficie del pianeta, inoltre, le aziende possono velocizzare l’accesso
a dati e applicazioni da parte di uffici remoti, lavoratori in trasferta e
clienti lontani.
Forrester propone l’esempio delle aziende del settore media ed
entertainment, che spesso si trovano nella necessità di distribuire in
tutto il mondo contenuti di dimensioni molto grandi e finora erano
costrette a trasferirli alle sedi locali o via satellite o su supporti digi-
tali tramite corriere. I costi correlati a queste ultime due modalità di
distribuzione possono essere evitati con il ricorso a piattaforme cloud
pubbliche – e siamo al terzo argomento – che offrono servizi cloud
FIGURA 1Il campione di riferimento
dei colloqui condotti da Forrester sul tema storage
fonte: Forrester
scenario
white paper
storage altamente scalabili in termini di capacità e distribuiti su tutto il
pianeta grazie a siti connessi fra loro ad alta velocità. Altri settori che
la società di analisi ritiene più potenzialmente interessati alle funzio-
nalità dell’hybrid cloud per la distribuzione geografica di contenuti e
applicazioni di grandi dimensioni e sensibili alle performance sono l’oil
& gas e l’healthcare.
Le tecnologie abilitantiMolti interlocutori di Forrester hanno chiesto in che cosa consi-
sta effettivamente il Software defined storage.
Lo “standard Forrester” del Sds prevede che, affinché si possa
parlare di Software defined storage, vi siano tre elementi:
1. un’ambiente di storage virtualization che consente di far
collaborare silos storage eterogenei;
2. uno strato di Application Programming Interface (Api) pro-
visioning in grado di facilitare l’automazione e il resources discovery;
3. un livello di Storage Quality of Service (QoS), con strumenti
per assicurare i livelli di performance richiesti, regolare i consumi di
risorse di caching e di alte velocità, effettuare il chargeback.
La società di ricerche ritiene che molte aziende dispongano di
almeno due di questi tre elementi, ma la maggior parte non sia ancora
riuscita ad armonizzarli fra loro.
L’argomento performance oggi chiama in causa in modo deci-
so la All-flash technology (Afa). Diversi It manager si sono dichiarati
delusi dalle performance offerte dai sistemi ibridi. Gli Afa, secondo lo
studio della società americana, consentono realmente oggi ai work-
load più performance-oriented di non vedere più lo storage come un
collo di bottiglia. Considerato che i prezzi delle tecnologie flash sono
in discesa, per Forrester gli All-flash array oggi possono essere conside-
rati un’alternativa ai tradizionali sistemi storage Tier 1 basati su dischi.
Si consiglia in particolare di riservarli alle applicazioni (o alle parti di
applicazioni) più sensibili alle performance, come, per esempio, i data-
base. Si rivela necessaria, in questo caso, una buona collaborazione fra
Le architetture storage hyperscale, in particolare quelle
basate su tecnologie open source come Ceph di OpenStack,
permettono di creare infrastrutture scalabili linearmente
da poche centinaia di TB a svariate decine di PB. In modo
semplice e cost effective.
I mondi dei servizi cloud, dei media, della ricerca e sviluppo,
dell’elaborazione di big data provenienti dalle interazioni social
o dall’Internet of Things. Sono alcuni esempi degli ambiti che
richiedono architetture storage innovative rispetto alle tradizionali
San (Storage area network) e Nas (Network attached storage). Ma
differenti anche rispetto a quelle, altrettanto rivoluzionarie, come
l’All-flash tecnology, ideale per l’accelerazione di ambienti che
richiedono elevatissime performance a livello di storage primario
(tipico esempio i database relazionali), o i sistemi hyper convergence,
destinati al supporto di applicazioni molto specializzate.
“Le architetture storage di cui stiamo parlando – spiega Andrea
Sappia, Sales Consultant Manager di Fujitsu Italia – sono quelle che
oggi vengono definite come ‘hyperscale’, tecnologie di archiviazione
in grado di fornire elevate prestazioni, ma soprattutto di scalare
linearmente in modo orizzontale, fino a erogare capacità che
raggiungono le decine di Petabyte. Il tutto a partire dall’installazione
di rack di qualche centinaio di Terabyte, cui in caso di necessità
scenario
FIGURA 2Le priorità emergenti
fonte: Forrester
Obiettivo: repository ultrascalabili di informazioni
intervista
3 www.zerounoweb.it
storage
4white paper
responsabili I&O e sviluppatori.
E per quanto riguarda i public cloud service e l’hybrid cloud?
Oltre quanto abbiamo già scritto sopra, ovvero l’utilità laddove sia
necessaria una grande elasticità della capacità storage e la potenzia-
lità per migliorare e rendere più economica la distribuzione di dati e
applicazioni in remoto e in mobilità, Forrester segnala anche il fatto
che molti utenti e Lob hanno iniziato a usare servizi cloud storage di
propria iniziativa. Un’altra evidenza è che il cloud storage può, in mol-
ti casi, sostituire i Network attached storage (Nas) e i siti di disaster
recovery tipo off-site tape. La connessione fra risorse on-premises e
on-the-cloud richiede l’uso di cloud gateway hardware o software, che
possono essere visti dall’It manager o direttamente dall’utente finale
come un semplice Nas, che in modo trasparente si preoccupa di gestire
il traffico da e per l’azienda e il cloud.
Un ultimo accenno lo meritano gli Hyperconverged system. Mol-
ti It manager hanno chiesto alla società di analisi chiarimenti su quale
ruolo questi sistemi possono avere all’interno di un’infrastruttura sto-
rage. I sistemi convergenti sono caratterizzati dal fatto che, all’interno
di contenitori dal form factor standard, sono presenti e pre-integrati i
server, lo storage e il networking. Questo facilita i responsabili It a for-
nire in tempi molto rapidi risorse di elaborazione e storage senza dover
far intervenire esperti server, storage e networking a svolgere ognuno
la propria parte. Il fatto che sia i moduli server sia quelli storage posso-
no essere aggiunti a lotti di dimensioni predefinite di una certa entità,
non permette, però, secondo Forrester, a queste soluzioni di garantire
un elevato grado di granularità nella scalabilità verticale (scale up). Per
questa ragione, la società di analisi sconsiglia di partire con ambienti
con diversificate e stringenti esigenze di capacità e performance – per
esempio infrastrutture general purpose in grandi organizzazioni - per
introdurre gli Hyperconverged system. Per contro, questi rappresenta-
no un’ottima opzione per la server virtualization, le Virtual Desktop
Infrastructure (Vdi) o il disaster recovery. Per di più lo storage integrato
è di livello enterprise e, grazie alla semplice aggiunta di moduli, può
essere scalato senza che sia necessario operare su una Storage area
network (San), con il ricorso agli skill opportuni. Gli Hyperconverged
system, quindi, si rivelano molto interessanti, fra gli altri, negli uffici
remoti e nelle aziende con poche risorse It interne.
possono essere aggiunti con facilità nuovi nodi storage, senza aver
dovuto inizialmente progettare un’infrastruttura con un determinato
dimensionamento”.
Siamo di fronte, quindi, a qualcosa di diverso dal classico approccio
consistente nell’acquistare array con un numero prestabilito
di spazi disco vuoti, da riempire al momento del bisogno fino
al raggiungimento di un tetto massimo di unità. “Con questo
metodo – continua Sappia – dopo la saturazione dell’infrastruttura
storage esistente, le aziende corrono il rischio di dover sostituire
l’architettura storage o addirittura di passare a soluzioni di fascia
superiore, con conseguente necessità di affrontare complessi e
costosi progetti di migrazione, e che comportano interruzioni di
servizio”.
Da circa un anno, la risposta di Fujitsu alla domanda di ‘hyperscale
storage’ si chiama Eternus CD10000 che può supportare fino a 224
dischi, raggiungendo una capacità di circa 50 PB di dati. Quale la
caratteristica più distintiva della soluzione rispetto ad altre offerte
della concorrenza? “La principale è l’impiego del software open
source OpenStack Ceph, che consente di aggiungere in maniera
lineare fino a diverse centinaia o migliaia di nodi storage in
cluster. Questa tecnologia è in grado di ‘parallelizzare’ l’utilizzo di
questi nodi in modo che le performance e, soprattutto, la capacità
dell’infrastruttura siano, in ogni stadio della sua crescita, le somme
delle performance e delle capacità dei singoli nodi presenti. È per
questa ragione che una soluzione come CD10000 è ideale per gli
ambienti come il cloud o l’archiviazione di dati semistrutturati o non
strutturati (come quelli prodotti e da condividere nei centri di ricerca
genomica o nel mondo del broadcasting video e dei repository di
immagini) nei quali le architetture hyperscale si dimostrano le più
scalabili in maniera, peraltro, cost effective”. (R.C.)
www.zerounoweb.it
scenario
Andrea Sappia, Sales Consultant
Manager, Fujitsu Italia
5white paper www.zerounoweb.it
ome disegnare correttamente una strategia di evoluzione dello
storage in rapporto alle specificità organizzative e del business dell’a-
zienda? Quanto le tecnologie “software defined” possono realmente
essere “disruptive”, consentendo quella capacità di risposta alle va-
riabili di business che fino ad oggi è sempre stato difficile garantire?
Sono alcune delle domande alle quali si è cercato di rispondere nel
recente Breakfast con l’Analista, organizzato da ZeroUno, in colla-
borazione con Fujitsu e Intel. “Si tratta di domande - ha introdotto
Stefano Uberti Foppa, Direttore di ZeroUno, che si inseriscono in
un contesto di profonda trasformazione: cambiamenti nella struttu-
ra classica di alcuni mercati che non permettono più ai tradizionali
incumbent di vivere di rendita; passaggio da una logica di possesso
del prodotto a quella di fruizione di un servizio; necessità di portare
avanti una innovazione continua che si allinei alle nuove esigenze
competitive dell’impresa. Si tratta di trend che hanno un forte impatto
sui sistemi informativi aziendali”. Ecco quindi che è indispensabile
non fossilizzarsi su scelte infrastrutturali stabili negli anni: “Bisogna
saper operare nella discontinuità - prosegue il direttore di ZeroUno
- definendo alcuni pillar infrastrutturali che consentano di cambiare
con rapidità, abbandonando la logica a silos. Stiamo entrando - ricor-
da Uberti Foppa - nell’App Economy, dove il software, da supporto
al business, diventa ‘il’ business”. Si tratta dunque di capire qual è
il modello cui le aziende devono fare riferimento per affrontare con
successo questo processo trasformativo.
“Una risposta codificata da Gartner - ricorda il direttore - è
quella del modello bimodale che consiste nell’operare su due diret-
trici: una di sviluppo infrastrutturale capendo, con un passo da ma-
ratoneta, quali sono gli elementi che caratterizzano un’infrastruttura
agile, in grado di rispondere velocemente alle esigenze del mercato;
un’altra, più da velocista, che è quella della business innovation su
base digitale che comporta scelte applicative digital driven, ma anche
un ridisegno organizzativo dell’It per essere là dove si sviluppa il bu-
siness digitale. Oggi, nel nostro incontro, ci focalizziamo sulla prima e,
in particolare, sullo storage, tema centrale - conclude Uberti Foppa -
rispetto alla capacità di poter gestire volumi di dati sempre maggiori,
dove bisogna ragionare in termini di architetture aperte, basate su
open standard, che rendano disponibili i dati là dove servono, ai pro-
fili utenti che ne hanno bisogno, abbandonando la verticalità a silos”.
Il tema, in definitiva, è capire fino a che punto un’azienda è in
grado di fare una scelta disruptive.
Sistema ibrido: approccio vincenteCollocando il ridisegno dell’architettura storage all’interno del
più ampio ridisegno dei sistemi informativi, Nicola Restifo, Ricerca-
tore Senior dell’Osservatorio Cloud & Ict as a Service della School of
Management del Politecnico di Milano, riprende l’inquadramento
di Uberti Foppa, aggiungendo un elemento quantitativo che evidenzia
Quali sono gli snodi infrastrutturali sui quali i
responsabili dei sistemi informativi si devono
focalizzare per ripensare un It che sia in grado
di rispondere al momento di grande
trasformazione che le imprese, e la società in
generale, stanno vivendo? L’approccio Software
Defined, unito all’implementazione di sistemi
ibridi (on premise e in cloud), può rappresentare
la risposta possibile. Ma come affrontarlo?
executive breakfast
Ripensare l’infrastruttura It
in modo business oriented
C
d i P a t r i z i a F a b b r i
6white paper
la complessità crescente: “Oggi i dati destrutturati rappresentano il
17% dei dati utilizzati e gestiti in azienda, con una crescita del 31%
anno su anno; inoltre l’84% dei dati ha un’origine esterna”, affer-
ma Restifo che, passando all’analisi degli investimenti delle aziende
per l’evoluzione dei sistemi informativi, rileva come quelli relativi alla
Cloud Enabling Infrastrucutre (ossia le scelte compiute per rendere
sempre più flessibile l’infrastruttura fino a integrare la nuvola pub-
blica in maniera scalabile), abbiano oggi raggiunto il valore di 1050
milioni di euro nel 2015, con una crescita del 21% sul 2014: “Quello
che vediamo svilupparsi è un modello ibrido con la valorizzazione del
patrimonio interno (applicativo e infrastrutturale) dove per l’inno-
vazione si può fare affidamento sulla scalabilità esterna data dalla
nuvola pubblica. E il sistema informativo ibrido - prosegue Restifo
- vede il paradigma del Software Defined Datacenter applicato a tutti
i livelli dell’infrastruttura di un data center. Tipicamente - continua il
ricercatore - si parte da un approccio orientato alle risorse computa-
zionali fino ad arrivare alla gestione dello storage e degli aspetti di
networking, anche se, per il momento, per quanto riguarda lo storage,
il livello della domanda non è così avanzato come per la parte compu-
tazionale” tuttavia andando ad analizzare le priorità di investimento
della Cloud Enabling Infrastructure si rileva che la virtualizzazione
dell’infrastruttura storage è a un buon 4° posto.
Software defined = open standard“Fornire una chiara definizione di cosa significa software de-
fined data center è fondamentale perché spesso è una terminologia
che viene utilizzata per ricollocare in realtà un’offerta tradizionale,
basata su software proprietari. Invece - precisa Davide Benelli, Busi-
ness Program Manager di Fujitsu - qui stiamo parlando di un aspetto
fondamentale: parallelamente allo sviluppo di sistemi agili, flessibili,
si è sviluppata un’offerta software, come per esempio OpenStack,
nata in un contesto abilitante le infrastrutture cloud. Il problema è
quello di integrare questi software open source, nativi per ambienti
cloud, nell’infrastruttura esistente. Realizzare - spiega Benelli - infra-
strutture di questo tipo non è facile, come non lo è gestirle e manute-
nerle; per questo, per chi non sposa l’approccio ‘do it yourself’, Fujitsu
offre un’infrastruttura storage, Eternus CD 10000, basata sul sistema
open source Ceph e ottimizzata per i progetti cloud e OpenStack (vedi
riquadro a pag.8)”.
Sottolinea l’importanza della scelta OpenStack anche Andrea
Luiselli, Enterprise Technology Specialist di Intel: “Open standard è
ormai il nostro mantra da diversi anni e fin dall’inizio lavoriamo in
maniera attiva con la community OpenStack, alla quale abbiamo for-
nito tutte le nostre Api affinché la nostra tecnologia sia aperta a tutti”.
Luiselli prosegue poi evidenziando quelli che, a suo parere, sono be-
nefici e criticità di un approccio software defined: “L’adozione di open
standard favorisce la competizione e consente agli utenti di poter sce-
gliere, contribuendo anche a calmierare i prezzi. Un aspetto negativo
può invece essere rappresentato dal fatto che l’astrazione del software
dall’hardware può avere un impatto sulla capacità computazionale di
www.zerounoweb.it
quest’ultimo; per questo Intel ha lavorato molto su questo aspetto con
OpenStack, facendo in modo che determinate funzionalità, ossia de-
terminate ‘chiamate’, vadano direttamente sull’hardware ottimizzan-
done le performance”.
RIPoRTARE lo svIluPPo soFTWARE All’InTERno
Uno degli elementi emersi durante il dibattito che è seguito
alle presentazioni, è che seppure vi sia la consapevolezza che la scelta
ibrida è probabilmente quella più opportuna per rispondere alle esi-
genze del mercato, essa presenta comunque problemi di governance
che vanno affrontati attentamente: “L’ibrido rappresenta un ottimo
punto di equilibrio tra infrastruttura esistente e innovazione – affer-
ma Renato Stucchi, Responsabile Infrastrutture di Atm-Azienda
Trasporti Milanesi - e sicuramente è interessante il discorso di ri-
tornare ad avere un presidio interno del software. Questo comporta
ovviamente una crescita interna in termini di competenze, ma in ogni
caso bisogna sempre misurarsi con l’infrastruttura esistente: magari
riusciamo a sviluppare soluzioni bellissime che devono però poi esse-
re gestite e manutenute in un’infrastruttura tradizionale. Il problema
del governo non è dunque banale”. Concorda appieno Paolo Sassi,
Group It Director di Artsana, che aggiunge: “Oggi lo sviluppo è si-
curamente più rapido e riusciamo a rispondere più velocemente alle
richieste del business, ma l’equilibrio tra innovazione e infrastruttura
esistente è sempre delicato. Per quanto riguarda l’innovazione biso-
gna comunque sempre mantenere alta l’attenzione sui costi, non tan-
to per questioni di budget, ma per poter rapidamente tornare indietro
nelle scelte fatte nel caso queste si rivelassero inadeguate”.
Alcuni manager del mondo bancario presenti al confronto rile-
vano invece la difficoltà a sperimentare soluzioni innovative quando
sono in essere contratti molto vincolanti con gli outsourcer. Antonio
Polimeno, Head of Digital, Channels Adm and Information Integra-
tion di Barclays Bank, concorda infine sulla necessità di riportare
all’interno le risorse di sviluppo: “Si tratta di un vero e proprio mi-
glioramento in termini di efficienza, perché l’utilizzo di sviluppatori
all’estero, tipicamente in India, comporta spesso una difficoltà di co-
municazione che si traduce o in tempi molto lunghi o in soluzioni che
non corrispondono esattamente ai desiderata”.
executive breakfast
7white paper www.zerounoweb.it
dati sono più pregiati dell’oro” è il motto di Darz (Darmstadt
Data Center), provider full sevice tedesco che offre un’ampia gamma
di servizi negli ambiti della co-location, dei managed service e della
consulenza, con progetti “cuciti” su misura per i clienti. Oltre ad avere
collocato il data center nel luogo più sicuro dello stato tedesco di
Hesse, in quella che era la camera blindata della banca centrale dello
stato, Darz si impegna a mantenere i più alti livelli di qualità e sicurez-
za in termini di data center infrastructure, dovendo anche sottostare a
una legislazione relativa alla protezione dei dati molto severa.
Per quanto riguarda i requisiti di flessibilità e agilità, si sono
fatti ancora più stringenti con la decisione di entrare nel Deutsche
Börse Cloud Exchange (Dbce), un marketplace di risorse IaaS che
unisce diversi fornitori di risorse cloud nel quale è necessario garan-
tire precisi criteri per quanto riguarda la data protection; tra questi,
per esempio, la possibilità, per i futuri clienti, di definire in quale stato
della Federazione tedesca desiderano che i propri dati risiedano (ri-
spettando quindi la normativa della specifica regione dove sono col-
locati i dati). “Diamo molto valore alla qualità e alla sicurezza”, dice
Lars Göbel, Head of Sales and IT Operations, Darz. “Inoltre per noi era
anche importante avere una soluzione scalabile in grado di adattarsi
all’evoluzione del nostro business”.
Con il supporto del system integrator Profi Engineering Sy-
stems, è stata implementata un’infrastruttura completamente nuova,
il cui focus principale era la standardizzazione per assicurare la com-
patibilità completa con il framework OpenStack; per realizzarla, Profi
si è rivolta a Fujitsu sia per la parte computazionale sia per quella
storage. Per la componente storage, particolarmente strategica visti i
requisiti richiesti da Dbce per la collocazione e protezione dei dati e la
necessità di integrazione nel framework OpenStack, è stata scelta la
soluzione Eternus CD 10000, hyperscale storage system con processo-
ri Intel Xeon (vedi riquadro nella pagina successiva). Fujitsu ha fornito
Per costruire un’infrastruttura efficiente,
flessibile, sicura, multi-client, che permettesse
a Darz, provider tedesco di risorse
infrastrutturali, di entrare nel Deutsche Börse
Cloud Exchange, marketplace di risorse IaaS
dove fondamentale è l’integrazione
con il framework OpenStack, l’azienda ha scelto
lo storage system Eternus CD 10000
caso utente
Flessibilità, sicurezza e openess: i requisiti
per entrare nel marketplace tedesco
di servizi cloud“I
La sede di Darz in Germania
storage
ZeroUno Next Editore srl - Via Copernico, 38 - 20125 Milanowww.zerounoweb.it progetto grafico BluGraphicDesign
un pacchetto completo hardware e sof-
tware, gestito centralmente usando il
software OpenStack Ceph. “L’ambiente
fornisce a Darz una piattaforma di vir-
tualizzazione convergente, che si può
utilizzare per fornire storage e macchi-
ne virtuali e che offre una proporzione di prezzo/performance migliore
dei tradizionali approcci San,” spiega Armin Acheback, Head of Sales
di Profi, mostrando anche particolare soddisfazione per la flessibilità
di Eternus CD10000: “Si possono aggiungere nodi storage mentre il
sistema è in funzione e non si deve fermare la macchina nemmeno se
i nodi hanno bisogno di manutenzione”, spiega.
“Combinando la tecnologia Fujitsu con le abilità e l’esperienza
di Profi abbiamo realizzato un’infrastruttura con la qualità, la sicu-
rezza e la flessibilità che ci servivano per entrare
nel mercato Dbce”, afferma dal canto suo Göbel,
per il quale la capacità multi-client della soluzione
adottata è particolarmente importante: “È richie-
sto dal DBCE e garantisce che i clienti siano sem-
pre separati l’uno dall’altro”.
“Nel nostro settore esiste una costante
battaglia tra l’assicurare la competitività concen-
trandosi sull’efficienza dei costi e l’assicurare li-
velli di prestazioni mission-critical per i dati cloud
online. L’Eternus CD 10000 consente di offrire
un’interessante combinazione tra prezzi estrema-
mente competitivi e la tranquillità di sapere che
il sistema resterà sempre online”, ha concluso
Göbel (P.F.)
L’hyperscale storage system Fujitsu Eternus CD 10000 S2 consente uno
scale-out distribuito, quindi di aggiungere, scambiare e aggiornare i singoli
nodi storage in maniera organica, senza alcuna interruzione operativa.
Per un efficace bilanciamento di velocità di accesso, capacità e costi,
l’architettura di Eternus CD10000 S2 prevede quattro tipologie diverse
di nodi storage che possono essere combinate in base alle esigenze
dell’utente con una capacità rispettivamente di 44 TB, 92 TB, 140 TB e
188 TB; a questi si aggiungono i due nodi infrastrutturali Gateway Node e
Monitor Node. Il sistema consente di combinare fino a 224 nodi storage,
raggiungendo una capacità massima di 42 PB.
I pillar su cui si basa l’architettura di questo sistema sono i nodi storage,
quelli infrastrutturali e la reate a 10GB Ethernet, cruciale per garantire
elevati livlli di performance.
La compatibilità verso il basso implica la possibilità che i nodi più nuovi
funzionino a fianco di quelli di precedente generazione, salvaguardando
la protezione dell’investimento. Il sistema è basato sul software open
source OpenStack Ceph al quale sono stati aggiunti elementi funzionali
per la gestione completa che consentono di amministrare il sistema da
un unico pannello di controllo. Una delle caratteristiche peculiari di Ceph
è l’algoritmo Crash (Controlled Replication Under Scalable Hashing) che
consente di gestire l’allocazione dei dati lavorando con un distribuzione
pseudo-random e bilanciata che permette la distribuzione omogenea dei
dati tra tutti i dischi del sistema. (P.F.)
Eternus CD 10000: 224 nodi storage garantendo sempre la continuità operativa
la soluzioneLars Göbel, Head of Sales and IT Operations, Darz
L’hyperscale storage system Fujitsu Eternus CD 10000
8white paper www.zerounoweb.it
caso utente