Nuove architetture per ridurre i consumi dei processori e semplificarne l'uso per aprire le porte anche ai non addetti ai lavori: sono due delle maggiori sfide nello sviluppo dei supercomputer di oggi e del futuro, come quelli di Icsc - Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing, la grande infrastruttura italiana di calcolo ad alte prestazioni a disposizione del mondo della ricerca scientifica e dell'impresa.
"Lo sviluppo di nuove applicazioni, ad esempio quelle di Intelligenza Artificiale, richiedono grandi capacità di calcolo che però necessitano anche di tantissima energia. Un grande problema, per cui i nuovi supercomputer non possono essere solo più potenti ma devono obbligatoriamente ridurre i consumi ed essere più efficienti", ha detto Angelo Garofalo, ricercatore dell'Università di Bologna e membro dell' Hardware Lab dello Spoke 1, l'area di ricerca tematica di Icsc dedicata al Futuro dell'High Performance Computing e Big Data.
Nato dall'incontro di 37 enti di ricerca e 13 aziende per rendere più facile l'accesso alle potenzialità del supercalcolo, Icsc sta affrontando alcune delle grandi sfide dei supercomputer: prima tra tutte quella dei consumi energetici a cui si cerca di dare risposte soprattutto ideando nuove architetture, ossia il modo in cui far dialogare tra loro i processori in modo da semplificarne il lavoro, e parallelamente semplificarne l'utilizzo alle tante realtà che, sia industriali che di ricerca, ne possono avere grandi benefici. È fondamentale abbassare la complessità di accesso ai centri di calcolo, in modo analogo a come è avvenuto nel cloud che nel tempo ha saputo facilitarne l'usabilità", ha detto Iacopo Colonnelli, ricercatore dell'Università di Torino e membro del Software & Integration Living Lab di Icsc .
Leggi l'articolo completo su ANSA.it