Collegati con noi

Tecnologia

Dal supercomputer dei record la più grande simulazione del cosmo

Pubblicato

del

Realizzata la più grande simulazione astrofisica dell’universo grazie a Frontiers, il supercomputer dei record (attualmente il secondo più veloce al mondo) installato presso l’Oak Ridge National Laboratory negli Stati Uniti. Il progetto, chiamato ExaSky, aiuterà astrofisici e cosmologi a capire meglio l’evoluzione e la fisica dell’universo, accelerando le ricerche sulla natura misteriosa della materia oscura. “Ci sono due componenti nell’universo: la materia oscura, che per quanto ne sappiamo interagisce solo gravitazionalmente, e la materia convenzionale, o materia atomica”, spiega il coordinatore del progetto Salman Habib, fisico dell’Argonne National Laboratory negli Stati Uniti.

“Quindi, se vogliamo sapere cosa sta facendo l’universo, dobbiamo simulare entrambe queste cose: la gravità e tutta l’altra fisica, tra cui il gas caldo e la formazione di stelle, buchi neri e galassie. Queste simulazioni sono ciò che chiamiamo simulazioni di idrodinamica cosmologica”. Le simulazioni fatte finora omettevano molte delle variabili che compongono le simulazioni idrodinamiche. “Se dovessimo simulare una grande porzione dell’universo esaminata da uno dei grandi telescopi come l’Osservatorio Rubin in Cile, si tratterebbe di guardare enormi porzioni di tempo, miliardi di anni di espansione”, afferma Habib. “Fino a poco tempo fa non potevamo nemmeno immaginare di fare una simulazione così grande se non nella sola approssimazione gravitazionale”.

Ci sono voluti anni di perfezionamento degli algoritmi, e tutti gli aggiornamenti che hanno reso Frontier il supercomputer più veloce al mondo al momento della simulazione, per aumentare le dimensioni del modello e arrivare a rappresentare un volume dell’universo in espansione pari a oltre 31 miliardi di megaparsec cubici. Il team ha già condiviso un piccolo assaggio della simulazione in un video che mostra un enorme ammasso di galassie che si uniscono in un volume di 311.296 megaparsec cubici, pari a solo lo 0,001% dell’intero volume della simulazione.

Advertisement
Continua a leggere

Tecnologia

Prime immagini dal satellite Sentinel-1C: qualità eccezionale

Pubblicato

del

Norvegia, Paesi Bassi e Belgio sono al centro delle prime immagini radar catturate dal nuovo satellite Sentinel-1C del programma europeo di osservazione della Terra Copernicus, lanciato meno di una settimana fa da Kourou (Guyana francese) con il razzo Vega C per sostituire in orbita il predecessore Sentinel-1B ormai fuori uso da due anni. Le immagini, che rappresentano solo un assaggio delle capacità di monitoraggio ambientale del nuovo satellite, mostrano “un livello eccezionale di qualità dei dati”, sottolinea l’Agenzia spaziale europea in una nota.

Grande la soddisfazione di Simonetta Cheli, a capo dei programmi di osservazione della Terra dell’Esa, che commenta: “queste immagini evidenziano le notevoli capacità di Sentinel-1C. Sebbene sia ancora presto, i dati dimostrano già come questa missione migliorerà i servizi Copernicus a beneficio dell’Europa e non solo”. Dal momento del lancio, Sentinel-1C è stato sottoposto a una serie di complesse procedure di dispiegamento, tra cui l’attivazione della sua antenna radar lunga 12 metri e dei pannelli solari. Sebbene il satellite sia ancora in fase di messa in servizio, queste prime immagini ne evidenziano il potenziale nel fornire informazioni fruibili per una vasta gamma di applicazioni ambientali e scientifiche.

Sentinel-1C è ostruito sulla piattaforma Prima, sviluppata da Thales Alenia Space per l’Agenzia spaziale italiana, ed è dotato di uno strumento radar ad apertura sintetica (Sar) in banda C all’avanguardia, che consente di fornire immagini ad alta risoluzione giorno e notte, in tutte le condizioni meteorologiche, supportando applicazioni critiche come la gestione ambientale, la risposta ai disastri e la ricerca sui cambiamenti climatici.

Continua a leggere

Politica

IA e disinformazione, governo affida studio a Fondazione Kessler

Pubblicato

del

Il governo commissiona uno studio di livello accademico per approfondire la conoscenza del fenomeno della disinformazione online alla Fondazione Bruno Kessler. L’incarico, per un importo non superiore a 52.900 euro più Iva, riguarda lo svolgimento, da parte della fondazione e del suo Centro per la Cyber Security, di “un’attività di studio riguardante lo sviluppo di algoritmi di machine learning accurati ed affidabili, grazie a processi di addestramento che utilizzano dati di alta qualità, assicurando al contempo adeguate garanzie di sicurezza e privacy”.

La fondazione di Trento, presieduta da Ferruccio Resta, è stata scelta in quanto “ha una consolidata esperienza nell’uso del machine learning per combattere la disinformazione online”, come si legge nella decisione di contrarre del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio. “Lo studio – specifica il provvedimento – dovrebbe, tra l’altro, fornire indicazioni su come far crescere la consapevolezza nei cittadini dei vantaggi e dei rischi nell’uso di tecniche di intelligenza artificiale che sono state addestrate su dati di dubbia origine e raccolti con tecniche poco strutturate e, altresì, delineare le conoscenze che giornalisti e professionisti dei media dovrebbero possedere circa i problemi che l’utilizzo di tali algoritmi comporta”.

Continua a leggere

Salute

Decodificare il cervello è la sfida di IA e neuroscienze

Pubblicato

del

Decodificare il cervello umano è la nuova sfida che Intelligenza artificiale e neuroscienze hanno deciso di affrontare insieme, scambiandosi strumenti e idee fino a trovare la chiave per scoprire i segreti del più complesso degli organi. A dare il via a quella che i ricercatori considerano già una rivoluzione è la proposta lanciata dall’Ebri, l’Istituto europeo per le ricerche sul cervello voluto da Rita Levi Montalcini. “L’idea è approfondire il rapporto bidirezionale fra le neuroscienze e l’intelligenza artificiale”, ha detto il presidente dell’Ebri Antonino Cattaneo, che ha lanciato la proposta nel convegno che l’istituto ha organizzato in collaborazione con l’Ambasciata di Spagna per i 90 anni dalla morte di Santiago Ramón y Cajal, Nobel per la Medicina nel 1906 e pioniere delle neuroscienze.

“Da un lato le neuroscienze stanno compiendo progressi enormi nelle conoscenze a livello genetico, biofisico e di imaging, dall’altro – ha aggiunto Cattaneo – stiamo assistendo a una rivoluzione nell’intelligenza. Vogliamo che le due comunità si parlino e una delle strade per raggiungere questo obiettivo è formare una nuova generazione di studenti e giovani ricercatori che sappiano parlare le due lingue”. Si tratta di far dialogare i meccanismi che controllano i neuroni con gli algoritmi dell’intelligenza artificiale per arrivare a una comprensione del cervell, come finora non è mai stata raggiunta. Per questo motivo vanno promossi nuovi percorsi di studio, come dottorati di ricerca fondati su questa interazione, ha proposto l’Ebri a università ed enti di ricerca presenti al convegno, come Sapienza Università di Roma, Consiglio Nazionale delle Ricerche, Istituto Nazionale di Fisica Nucleare.

Si tratta perciò di fare in modo che i ricercatori di entrambe le aree entrino in campo e lavorino insieme, sforzandosi di capire e di imparare il linguaggio degli altri. “Non deve essere qualcosa da fare occasionalmente”, ha aggiunto Cattaneo, ma “si tratta di creare un circuito virtuoso per accelerare la nostra comprensione del cervello e ispirare una nuova generazione di metodi computazionali per il beneficio della società”. Le possibili ricadute potrebbero riguardare anche la comprensione di molte malattie neurologiche o neurodegenerative. ‘Codice neurale’ e ‘decodificare il cervello’ sono i due concetti al centro di questo circolo virtuoso. “Il codice neurale – ha proseguito Cattaneo – è un insieme di regole per cui, dato un input, si genera una percezione in un output cognitivo che può essere un pensiero, un movimento oppure un’azione: è alla base della comprensione del cervello. Dato un codice è importante decodificarlo, ed è quello che fanno gli algoritmi dell’intelligenza artificiale”. In sostanza, grazie ai progressi nelle neuroscienze si stanno si ampliando i fenomeni che potrebbero essere letti dall’IA perché i neuroni non sono legati soltanto all’attività elettrica, ma a processi biochimici e molecolari, alla modulazione dell’espressione genica: “se anche queste conoscenze si incorporassero negli algoritmi potremmo raggiungere un livello di comprensione ulteriore”, ha osservato il presidente dell’Ebri. In seguito si potrebbe passare dal livello dei neuroni a quello delle loro connessioni, le sinapsi.

Continua a leggere

In rilievo

error: Contenuto Protetto