Oltre i Supercomputer HPE traccia nuove vie | Digital4Trade
Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

infrastrutture

Oltre il Supercomputer: HPE traccia nuovi percorsi per l’innovazione digitale

di Loris Frezzato

18 Gen 2018

Nuovi modi di intendere la tecnologia come supporto al business di un futuro sempre più vicino. Il real time nell’analisi dei dati impone un ridisegno delle infrastrutture e dei servizi a corredo. Gli input sono stati dati all’ultimo evento mondiale HPE Discover

Basta accumulare e aggregare, bisogna organizzare e selezionare preventivamente per non farsi sommergere dalla grande, crescente, mole dei dati. Una organizzazione possibile solo dando valore ai dati già a livello periferico, prima ancora che arrivino al centro. Parte da questo concetto la strategia che sta dettando il ritmo delle nuove tecnologie di HPE che abilitano e potenziano il supercomputer e le sue declinazioni: gestire l’entrata dei dati per permettere al centro di analizzarli in maniera più veloce ed efficiente, in modo da risultare abilitanti per le elaborazioni spinte richieste dall’High Performance Computing per le applicazioni di Artificial Intelligence.

Stefano Venturi, amministratore delegato di HPE Italia

Valorizzare i dati per darli “in pasto” ai supercomputer

Una vision illustrata in occasione dell’ultimo evento mondiale HPE Discover (vedi il reportage dell’ultimo HPE Discovery tenuto a Madrid) e che Stefano Venturi, amministratore delegato di HPE Italia “traduce” per il mercato italiano: «La nostra missione consiste nel valorizzare i dati in possesso delle aziende, un flusso che aumenta progressivamente e a dismisura. HPE sta facendo in modo che l’intelligent edge collezioni i dati in maniera sostenibile: la mole di dati è, infatti, di proporzioni enormi e non si può procedere solo per aggregazione. Bisogna mettere intelligenza in periferia, prima ancora che i dati arrivino al centro, dove poi devono essere elaborati in maniera efficiente, dai supercomputer o da sistemi del tutto nuovi».

I supercomputer, da soli, non bastano. Ci pensa The Machine

Ma le nuove condizioni di produzione di dati impongono che anche la gestione al centro non possa più avvenire in maniera tradizionale. I supercomputer possono fare molto, ma a quanto pare non sono sufficienti. HPE affronta il tema con il progetto The Machine, stravolgendo, di fatto, il modo di costruire i server, il quale non prevede più la cpu al centro, dove invece è prevista un’unica memoria dove far risiedere i dati, con le varie CPU che li elaborano. Uno stravolgimento, quindi, delle infrastrutture IT, che si basano su «Computer non “muscolosi”, ma che riescono a lavorare moltissimo, e sfruttando un cloud che è sempre più ibrido» come dice Venturi.

IaaS e Multicloud per gestire la flessibilità

Una risposta all’esigenza di potenza e di flessibilità che sempre più le aziende stanno mostrando, a cui si affianca anche l’iniziativa HPE GreenLake (vedi l’intervista a Roberta Russo, HPE Pointnext Category Management Lead Southern Europe) , che interpreta il concetto di infrastrutture IT a consumo, installando presso il cliente tutta la capacità di cui si prevede potrà avere bisogno nei momenti di picco, pagando solo quello che di volta in volta viene utilizzata. Mentre sul fronte software Onesphere è la soluzione che HPE propone per un utilizzo ottimale delle piattaforme ibride, potendo agevolare la gestione di infrastrutture che utilizzano diversi cloud provider.

HPE potenzia il Data Driven Enterprise

Tanti gli annunci lanciati in occasione dell’HPE Discover, che Mauro Colombo, Country presales manager di HPE Italia, riassume e spiega brevemente:

Intelligent edge: ridurre il carico al centro

Il 70% dei dati viene generato in periferia, dalle persone e da sensori. Si parla che si arriverà a unità di Brontobyte per il 2020. Non si può più trasportarli tutti al centro o sul public cloud per elaborarli. È necessario portare dell’intelligenza anche in periferia, e l’acquisizione di Aruba Network sta proprio in questa logica, affinchè i dati raccolti dai sensori coinvolti in progetti IoT vengano associati e concentrati prima di essere elaborati.

Sicurezza trasversale e integrata

La sicurezza deve essere garantita ovunque e deve essere trasversale: periferia, centro e cloud. HPE ha quindi dato enfasi alle soluzioni Gen 10, lanciate lo scorso ottobre, con nuovo processore, alte performance e alta sicurezza già integrata nell’hardware grazie al fingerprint di silicio. La sicurezza di accesso al mondo wireless è invece garantita con ClearPass di Aruba, a cui è stata aggiunta ora una componente di AI, grazie a HPE Introspect, che analizza i comportamenti sulla rete e di comanda a ClearPass la chiusura o meno delle porte.

Memory driven computing & HPC

Sono diversi gli annunci su questo fronte: dall’acquisizione di SGI risalente a un anno fa, che porta in dote skill sull’HPC per elaborare dati sistemici. Segue il Superdome Flex, unica macchina per ora che è in grado di scalare da 6 fino a 48 tera. Infine, la succitata The Machine, il progetto che stravolge l’architettura dei server. Al momento HPE è in beta program, in sperimentazione del prototipo, sia per esplorazione spaziale o ricerca medica, tra cui l’analisi della malattia di Alzheimer.

Artificial Intelligence “estesa”

Che copra, cioè, dall’edge fino al core, coinvolgendo tutta la filiera. A questo tema contribuisce l’acquisizione di Nimble, in ambito storage, il cui software Infosight abilita la predictive maintenance potendosi adattare alle varie esigenze applicative. Un software che verrà esteso a tutta la piattaforma HPE nel corso dell’anno, sia al mondo computer sia al mondo autonomous data center.

Software defined & multi cloud

La maggior parte dei data center è ormai in forma ibrida, in vari gradi. HPE Onesphere è, come dicevamo poco sopra, il software che permette di funzionare come dashboard di monitoraggio. Inoltre rappresenta una piattaforma di provisioning di multi cloud che adegua il catalogo del provider cloud e dell’on premise in maniera automatica, monitorando i costi della parte private e public, per scegliere cosa e quanto spostare da una parte all’altra.

Technology ecosystem

L’innovazione si fa in team con i Global Technology Partner (Microsoft e Sap, per fare un esempio). Oltre a questi big, l’azienda di venture capital Hewlett Packard Pathfinder investe capitali su startup promettenti, in genere di software. A queste si aggiungono poi i partner locali, per portare innovazione sul territorio attraverso gli Innolab creati in partnership con distributori e system integrator (vedi i reportage delle inaugurazioni dei maggiori HPE Innovation Lab in Italia).

La Flexible Capacity si standardizza

I servizi Pointnext di flex consumption consentono di collegare il sistema finanziario alle esigenze dei clienti in maniera flessibile. Tra questi, HPE GreenLake è la standardizzazione di un offering di Flexible Capacity per soluzioni su misura. Sono disponibili pacchetti, tra cui Microsoft Azure Stack e Dockers.

 

 

 

 

  • arrow_upward
  • arrow_downward
  • share
    17 Share
Loris Frezzato

Prendetemi così: dopo decenni dedicati al trade, ancora trovo il modo di entusiasmarmi per un settore che non smette di cambiare. Caporedattore #Digital4Trade

Oltre il Supercomputer: HPE traccia nuovi percorsi per l’innovazione digitale

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *