Home » Virtualizzazione » In futuro, l’elaborazione sarà invisibile

In futuro, l’elaborazione sarà invisibile

Tech Page One

In futuro, l'elaborazione sarà invisibile

 

Nel futuro, i nostri computer saranno invisibili. Questa profezia non implica che tastiere e dispositivi scompariranno, lasciando spazio a sistemi di riconoscimento vocale con display olografici in grado di rilevare gesti ed emozioni umane contrassegnati elettronicamente. In realtà è anche così, ma non è questo il punto. Ricominciamo da capo.

In futuro, i computer che usiamo diventeranno invisibili, mentre la distinzione e i confini tra componenti hardware, software e di intelligence di rete diverranno sempre più tenui e interscambiabili.

Virtualizzazioni astratte di predecessori fisici

In futuro, l'elaborazione sarà invisibileQuali fattori condurranno a questa nuova forma di elaborazione? La risposta è abbastanza semplice, ma complessa all’atto pratico.

L’avvento e la successiva evoluzione dell’IT definita dal software ci ha dato la possibilità di utilizzare “blocchi” di potenza IT su larga scala per “descrivere e delineare” nuove macchine che di fatto altro non sono che virtualizzazioni astratte dei propri precedessori fisici.

Secondo la società di analisi IDC, ben presto la differenziazione tra componenti hardware (server, storage e reti) si ridurrà in maniera rilevante.

“In questo nuovo ambiente non sarà più sostenibile insistere sulle architetture proprietarie, perché esse avranno un costo proibitivo per i clienti – rispetto alle soluzioni aperte – o un costo di progettazione e installazione proibitivo per i fornitori”, sostiene IDC.

L’utilizzo di componenti “merchant silicon” è una realtà

In termini di concorrenza, le aziende che fanno affidamento su tecnologie proprietarie dovranno giocoforza cercare una differenziazione competitiva da una nicchia di mercato molto più ridotta. L’utilizzo di componenti elettronici di terzi, o “merchant silicon”è una realtà; IDC afferma che nel prossimo futuro i progetti dei nodi di rete diverranno open source e saranno trasformati in commodity (alcuni progetti open source esistono già oggi).

Come spiega Greg Ferro, “merchant silicon” è una definizione di marketing che indica l’uso di componenti standardizzati disponibili in commercio per creare reti o altri prodotti per l’elaborazione, e che spesso viene utilizzata in negativo dalle aziende che progettano i propri chip di silicio per spiegare che il loro processo è migliore e più efficiente.

Dove ci porta questa “riforma della rete”?

Dove ci condurranno dunque queste nuove realtà dell’elaborazione di rete? Sappiamo che la concorrenza tra vari sistemi operativi di rete è una realtà ampiamente diffusa. Le metodologie di rete sono nel pieno di una rivoluzione spinta dall’automazione e dall’apertura legate al software: è questo il punto di cui dobbiamo renderci conto.

Con la nuova trasformazione assisteremo a una maggiore integrazione delle reti e di tutte le relative tecnologie di supporto, facilitazione e potenziamento nell’infrastruttura IT unificata.

La distribuzione delle suddette tecnologie è ancora relativamente poco diffusa, ma è proprio per questo che ne stiamo discutendo adesso. Quando raggiungeremo la fase 2 della connettività di rete definita dal software inizieremo a creare un circolo più virtuoso di implementazione, supportato dalla condivisione di best practice e dallo sviluppo più ampio di standard di settore condivisi e concordati.

Per adesso, il nostro compito è di riconoscere, pianificare e sfruttare i cambiamenti già in atto nella rete.

 

 

Adrian Bridgwater

Adrian Bridgwater

Adrian è un giornalista esparto di tecnologia con oltre due decenni di esperienza nel settore. Agli esordi, ha iniziato a lavorare come news analyst per lo sviluppo di un software, e ad oggi si definisce evangelista tech e consulente per i contenuti. Ha speso quasi dieci anni concentrandosi su open source, analisi di dati e intelligence, soluzioni cloud, dispositivi mobili e gestione dati.

Ultimi post:

 

Tag: Virtualizzazione