• Google+
  • Commenta
11 luglio 2012

“High Performance Computing, Grids and Clouds”, Unical

DotNetCampus 2012 a Unical

Nell’ultima settimana di giugno, a Cetraro (Cs), si è chiuso il Convegno internazionaleHigh Performance Computing, Grids and Clouds“,  giunto alla sua XIa edizione biennale.

Unical

Unical

La manifestazione nota agli esperti del settore, è iniziata nel 1992 con la NATO tra gli sponsor internazionali.

Sono i temi significativi e avanzati delle tecnologie informatiche di maggiore impatto sui progressi scientifici e sue applicazioni con ricadute interessanti sulla società.

L’organizzazione scientifica e tattica di HPC 2012 è stata curata da Lucio Grandinetti, professore emerito dell’Unical, coadiuvato dalla partecipazione attiva e dal contributo scientifico di membri del Dipartimento di Elettronica, Informatica e Sistemistica.

Di particolare valore sono state le presentazioni di W. Tang, della Princeton University e G. Tallant, della Lockheed Martin Aeronautics, che hanno riguardato la fusione nucleare e la progettazione degli aeromobili di futura generazione.

Una giornata di presentazioni con tavola rotonda è stata votata all’analisi del futuro dei grandi supercalcolatori e alla loro capacità di trattamento di enormi quantità di dati, quelli, per intenderci, con un ordine di potenza di calcolo di un miliardo di miliardi di operazioni al secondo (exaflops).

Il carnet di relatori di tutto rispetto proveniva da grossi laboratori di ricerca degli Stati Uniti e del Giappone, come il Lawrence Radiation National Laboratory di Berkeley, l’IBM T.J. Watson Research Center, il Riken Advanced Institute of Computational Science di Tokyo, il Sandia National Laboratory, l’Argonne National Laboratory e l’AIST National Institute of Informatics di Tokyo.

Presenti personalità di prestigio dalle università di Princeton, Berkeley, Stanford, Chicago, Tokyo e Pechino (Tsinghua),  nonché specialisti e ricercatori di aziende informatiche multinazionali quali IBM, INTEL, Hewlett Packard.

I vantaggi derivanti dall’applicazione di questi sistemi ad alta prestazione hanno una portata esplosiva sul miglioramento dei risultati già raggiunti oggi con gli attuali elaboratori.

È stato presentato il supercalcolatore giapponese K (10 milioni di miliardi di operazioni al secondo), grazie al quale è stato possibile compiere simulazioni nel campo della protezione ambientale (terremoti, tsunami), della biomedicina (funzionamento del cuore), dell’astrofisica (origine dell’universo).

Nella efficace simulazione di problemi applicativi si è fatto assai competitivo anche il supercalcolatore cinese Tianhe, la cui entrata in scena ha definito l’emergenza della tecnologia cinese sui tradizionali leaders statunitensi e giapponesi.

In un’intera sessione con annessa tavola rotonda, si sono avvicendati ricercatori, rappresentanti di importanti progetti della Comunità europea, di università e di laboratori di ricerca, come quello di Cambridge della Microsoft.

L’applicativo di cui si è discusso, per innovatività e facile trasferimento su una ampia varietà di utilizzatori, è il Cloud, sistema di elaborazione distribuito, già noto all’opinione pubblica per le applicazioni fornite da Amazon (Cloud Drive, nuvole in cui archiviare la propria collezione di brani musicali, accessibili da qualsiasi dispositivo capace di andare in Rete) qui basta cercare Cloud per Amazon e esce fuori .

In informatica con il termine inglese cloud computing (in italiano nuvola informatica) si indica un insieme di tecnologie che permettono, tipicamente sotto forma di un servizio offerto da un provider al cliente, di memorizzare/archiviare e/o elaborare dati (tramite CPU o software) grazie all’utilizzo di risorse hardware/software distribuite e virtualizzate in Rete.

 Il cloud computing rende disponibili all’utilizzatore le risorse come se fossero implementate da sistemi (server o periferiche personali) “standard”. L’implementazione effettiva delle risorse non è definita in modo dettagliato; anzi l’idea è proprio che l’implementazione sia un insieme eterogeneo e distribuito – the cloud, in inglese nuvola – di risorse le cui caratteristiche non sono note all’utilizzatore. 

Immagazzinare sulla rete, utilizzando il cloud, renderà accessibili servizi di elaborazione anche alle medie e piccole imprese, cosa che, prima, era riservata solo a realtà dotate di proprie infrastrutture di calcolo e personale specializzato.

La sfida sarà quella di coniugare una gestione intelligente di quantità colossali di dati , la ricerca e creazione di sistemi tecnologici dedicati, chiamati BIG DATA, con i diritti alla privacy, evitando la

trappola di marketing“, “procurando di non aumentare il “digital divide” tra paesi ricchi e poveri (se l’accesso alle conoscenze memorizzate non sarà liberamente garantita a tutti) e di non favorire grandi corporation con «organismi policentrici” e “menti monocentriche” dislocate principalmente nei Paesi della “nuvola”, essendo la proprietà immateriale considerata come un fattore strategico per le moderne economie “knowledge-based”.

Melina Rende

Google+
© Riproduzione Riservata