Collegati con noi

Tecnologia

Italian Tech Week, 50 aziende protagoniste dell’innovazione a Torino

Pubblicato

del

Cinquanta aziende nazionali e internazionali, quaranta eventi in venti luoghi della città e cento testimonianze: sono i numeri dell’Italian Tech Week che, tra poco più di un mese, dal 24 al 30 giugno, riunirà a Torino le eccellenze italiane ed europee impegnate a costruire il futuro del business e della società. Obiettivo è anche ribadire la centralità dell’Italia e di Torino nei processi di innovazione. Tra gli ospiti dell’Ogr-Sei Torino Forum ci saranno il 28 giugno Fabiola Gianotti, dg del Cern e Daniel Ek, fondatore di Spotify, intervistato da John Elkann. Itw – presentato al Castelli del Valentino – e’ un progetto non profit promosso da undici associazioni e istituzioni dell’area torinese: School of Entrepreneurship and Innovation (Sei), Camera di Commercio, Universita’ e Politecnico, Compagnia San Paolo e Fondazione Crt, Ogr, Club degli Investitori, Torino Social Impact, Fondazione Links e Unione Industriale. Main corporate sponsor Ferrovie dello Stato. Gli eventi non saranno a pagamento. La settimana si aprira’ con la festa patronale di San Giovanni dove decine di volontari spiegheranno la tecnologia al grande pubblico e si concludera’ nel week end con 250 giovani che creeranno il progetto innovativo piu’ grande mai tentato in Italia: 48 ore per realizzare da zero un’idea tech che risponde a problemi reali. “L’Italia spende l’1,4% del Pil in ricerca e sviluppo, mentre in Piemonte la spesa e’ pari al 2,2% e uno su dieci del comparto manifatturiero lavora in attivita’ a medio e alta intensita’ tecnologica . Il cambiamento puo’ essere disorientante ma non c’e’ da avere paura”, ricorda Andrea Griva, vicepresidente Sei. “E’ l’inizio di una rivoluzione che punta a radicare qui chi formiamo. Stiamo cercando di instillare negli ingegneri la capacita’ di innovare. Servono ingegneri piu’ sociali. Diventeremo vetrina di 150 tecnologie nate in Italia”, spiega il rettore del Politecnico Guido Saracco. “Un’iniziativa – afferma la sindaca Chiara Appendino – che ci rende orgogliosi. Torino da’ molto sul fronte dell’innovazione grazie anche a un ecosistema che accompagna la rivoluzione tecnologica”.

Advertisement

Politica

IA e disinformazione, governo affida studio a Fondazione Kessler

Pubblicato

del

Il governo commissiona uno studio di livello accademico per approfondire la conoscenza del fenomeno della disinformazione online alla Fondazione Bruno Kessler. L’incarico, per un importo non superiore a 52.900 euro più Iva, riguarda lo svolgimento, da parte della fondazione e del suo Centro per la Cyber Security, di “un’attività di studio riguardante lo sviluppo di algoritmi di machine learning accurati ed affidabili, grazie a processi di addestramento che utilizzano dati di alta qualità, assicurando al contempo adeguate garanzie di sicurezza e privacy”.

La fondazione di Trento, presieduta da Ferruccio Resta, è stata scelta in quanto “ha una consolidata esperienza nell’uso del machine learning per combattere la disinformazione online”, come si legge nella decisione di contrarre del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio. “Lo studio – specifica il provvedimento – dovrebbe, tra l’altro, fornire indicazioni su come far crescere la consapevolezza nei cittadini dei vantaggi e dei rischi nell’uso di tecniche di intelligenza artificiale che sono state addestrate su dati di dubbia origine e raccolti con tecniche poco strutturate e, altresì, delineare le conoscenze che giornalisti e professionisti dei media dovrebbero possedere circa i problemi che l’utilizzo di tali algoritmi comporta”.

Continua a leggere

Tecnologia

Dal supercomputer dei record la più grande simulazione del cosmo

Pubblicato

del

Realizzata la più grande simulazione astrofisica dell’universo grazie a Frontiers, il supercomputer dei record (attualmente il secondo più veloce al mondo) installato presso l’Oak Ridge National Laboratory negli Stati Uniti. Il progetto, chiamato ExaSky, aiuterà astrofisici e cosmologi a capire meglio l’evoluzione e la fisica dell’universo, accelerando le ricerche sulla natura misteriosa della materia oscura. “Ci sono due componenti nell’universo: la materia oscura, che per quanto ne sappiamo interagisce solo gravitazionalmente, e la materia convenzionale, o materia atomica”, spiega il coordinatore del progetto Salman Habib, fisico dell’Argonne National Laboratory negli Stati Uniti.

“Quindi, se vogliamo sapere cosa sta facendo l’universo, dobbiamo simulare entrambe queste cose: la gravità e tutta l’altra fisica, tra cui il gas caldo e la formazione di stelle, buchi neri e galassie. Queste simulazioni sono ciò che chiamiamo simulazioni di idrodinamica cosmologica”. Le simulazioni fatte finora omettevano molte delle variabili che compongono le simulazioni idrodinamiche. “Se dovessimo simulare una grande porzione dell’universo esaminata da uno dei grandi telescopi come l’Osservatorio Rubin in Cile, si tratterebbe di guardare enormi porzioni di tempo, miliardi di anni di espansione”, afferma Habib. “Fino a poco tempo fa non potevamo nemmeno immaginare di fare una simulazione così grande se non nella sola approssimazione gravitazionale”.

Ci sono voluti anni di perfezionamento degli algoritmi, e tutti gli aggiornamenti che hanno reso Frontier il supercomputer più veloce al mondo al momento della simulazione, per aumentare le dimensioni del modello e arrivare a rappresentare un volume dell’universo in espansione pari a oltre 31 miliardi di megaparsec cubici. Il team ha già condiviso un piccolo assaggio della simulazione in un video che mostra un enorme ammasso di galassie che si uniscono in un volume di 311.296 megaparsec cubici, pari a solo lo 0,001% dell’intero volume della simulazione.

Continua a leggere

Salute

Decodificare il cervello è la sfida di IA e neuroscienze

Pubblicato

del

Decodificare il cervello umano è la nuova sfida che Intelligenza artificiale e neuroscienze hanno deciso di affrontare insieme, scambiandosi strumenti e idee fino a trovare la chiave per scoprire i segreti del più complesso degli organi. A dare il via a quella che i ricercatori considerano già una rivoluzione è la proposta lanciata dall’Ebri, l’Istituto europeo per le ricerche sul cervello voluto da Rita Levi Montalcini. “L’idea è approfondire il rapporto bidirezionale fra le neuroscienze e l’intelligenza artificiale”, ha detto il presidente dell’Ebri Antonino Cattaneo, che ha lanciato la proposta nel convegno che l’istituto ha organizzato in collaborazione con l’Ambasciata di Spagna per i 90 anni dalla morte di Santiago Ramón y Cajal, Nobel per la Medicina nel 1906 e pioniere delle neuroscienze.

“Da un lato le neuroscienze stanno compiendo progressi enormi nelle conoscenze a livello genetico, biofisico e di imaging, dall’altro – ha aggiunto Cattaneo – stiamo assistendo a una rivoluzione nell’intelligenza. Vogliamo che le due comunità si parlino e una delle strade per raggiungere questo obiettivo è formare una nuova generazione di studenti e giovani ricercatori che sappiano parlare le due lingue”. Si tratta di far dialogare i meccanismi che controllano i neuroni con gli algoritmi dell’intelligenza artificiale per arrivare a una comprensione del cervell, come finora non è mai stata raggiunta. Per questo motivo vanno promossi nuovi percorsi di studio, come dottorati di ricerca fondati su questa interazione, ha proposto l’Ebri a università ed enti di ricerca presenti al convegno, come Sapienza Università di Roma, Consiglio Nazionale delle Ricerche, Istituto Nazionale di Fisica Nucleare.

Si tratta perciò di fare in modo che i ricercatori di entrambe le aree entrino in campo e lavorino insieme, sforzandosi di capire e di imparare il linguaggio degli altri. “Non deve essere qualcosa da fare occasionalmente”, ha aggiunto Cattaneo, ma “si tratta di creare un circuito virtuoso per accelerare la nostra comprensione del cervello e ispirare una nuova generazione di metodi computazionali per il beneficio della società”. Le possibili ricadute potrebbero riguardare anche la comprensione di molte malattie neurologiche o neurodegenerative. ‘Codice neurale’ e ‘decodificare il cervello’ sono i due concetti al centro di questo circolo virtuoso. “Il codice neurale – ha proseguito Cattaneo – è un insieme di regole per cui, dato un input, si genera una percezione in un output cognitivo che può essere un pensiero, un movimento oppure un’azione: è alla base della comprensione del cervello. Dato un codice è importante decodificarlo, ed è quello che fanno gli algoritmi dell’intelligenza artificiale”. In sostanza, grazie ai progressi nelle neuroscienze si stanno si ampliando i fenomeni che potrebbero essere letti dall’IA perché i neuroni non sono legati soltanto all’attività elettrica, ma a processi biochimici e molecolari, alla modulazione dell’espressione genica: “se anche queste conoscenze si incorporassero negli algoritmi potremmo raggiungere un livello di comprensione ulteriore”, ha osservato il presidente dell’Ebri. In seguito si potrebbe passare dal livello dei neuroni a quello delle loro connessioni, le sinapsi.

Continua a leggere

In rilievo

error: Contenuto Protetto