Collegati con noi

Cultura

Telmo Pievani, Università di Padova: gli italiani non sono razzisti ma…

Pubblicato

del

Cultura

Bocconi prima università italiana ad adottare l’AI di OpenAI: via alla trasformazione digitale

Pubblicato

del

Un assistente AI per studenti e professori, strumenti evoluti per la ricerca e la didattica, applicazioni intelligenti nel cuore delle scienze sociali. L’Università Bocconi di Milano è la prima università italiana ad adottare le soluzioni di intelligenza artificiale di OpenAI, avviando una trasformazione profonda nel modo di studiare, insegnare e fare ricerca.

L’annuncio arriva in seguito alla firma di un accordo strategico con OpenAI, la società statunitense leader globale nel settore. L’intesa prevede un accesso equo e sicuro alle tecnologie di AI più avanzate per tutti i membri della comunità Bocconi, composta da oltre 17.000 persone.

AI per la didattica e la formazione personalizzata

«Abbiamo già da tempo investito sull’intelligenza artificiale», spiega il rettore Francesco Billari (foto Imagoeconomica in evidenza). «Negli ultimi cinque anni abbiamo lanciato nuovi corsi e laboratori dedicati. L’alleanza con OpenAI ci consente ora di alzare l’asticella nell’applicazione quotidiana dell’AI a didattica e ricerca».

Tra le prime novità, l’introduzione di un AI Assistant per aiutare gli studenti nella raccolta di fonti, nella sintesi degli appunti, nella preparazione delle lezioni e nello studio individuale. Uno strumento pensato per rendere l’apprendimento più interattivo, autonomo e profondo.

Ricerca potenziata e agenti intelligenti

Sul fronte della ricerca, l’obiettivo è ambizioso: sviluppare e applicare sistemi AI agentici, capaci di raggiungere autonomamente obiettivi specifici, simulare comportamenti, condurre esperimenti, generare dati e costruire modelli teorici. Un vero salto di paradigma per le scienze economiche, giuridiche, manageriali e di policy.

Una delle frontiere più interessanti sarà la misurazione concettuale da dati non strutturati: testi, video e altri contenuti verranno analizzati per quantificare concetti astratti, come tratti psicologici, stili comunicativi o narrazioni collettive. «È una fusione tra dati qualitativi e quantitativi resa possibile dall’AI», precisa Billari. «Un’evoluzione che promette di accelerare radicalmente i tempi di analisi».

Un nuovo prorettore per la transizione digitale

Per guidare questa trasformazione, l’ateneo ha nominato il professor Dirk Hovy – esperto in linguaggio naturale e scienze computazionali – prorettore per la Trasformazione digitale e l’Intelligenza artificiale. Sarà lui a coordinare l’implementazione delle tecnologie in tutte le aree dell’università.

Bocconi tiene anche a chiarire che la proprietà intellettuale dei dati resta all’ateneo, a tutela del lavoro di studenti, ricercatori e docenti.

Una scelta strategica per l’internazionalizzazione

La partnership con OpenAI rappresenta un ulteriore tassello della strategia di crescita e internazionalizzazione dell’università: «Nel 2025 contiamo di chiudere con circa il 60% delle domande di iscrizione provenienti dall’estero», conclude il rettore Billari. «L’intelligenza artificiale rafforza il nostro ruolo come polo di innovazione accademica nelle scienze sociali a livello globale».

Continua a leggere

Cultura

Nicola Graziano è il nuovo Presidente di UNICEF Italia: “Impegno totale per l’infanzia in difficoltà, in Italia e nel mondo”

Pubblicato

del

L’UNICEF Italia ha un nuovo presidente. È Nicola Graziano (foto Imagoeconomica in evidenza), magistrato, scrittore e volontario, eletto oggi all’unanimità dal nuovo Consiglio Direttivo dell’organizzazione riunito a Roma. Succede a Carmela Pace, che resta nel Consiglio come Past President, dopo anni di guida apprezzata e lungimirante.

Assumo questo impegno con grande responsabilità in un momento molto difficile per l’infanzia”, ha dichiarato Graziano dopo l’elezione. “Oltre 470 milioni di bambini vivono in aree di conflitto, 1 miliardo in Paesi a rischio climatico e ambientale e quasi 38 milioni sono gravemente malnutriti in 26 crisi nutrizionali”. Graziano ha però voluto sottolineare anche le criticità italiane: “La mia attenzione sarà anche per i bambini che vivono nel nostro Paese, il cui benessere non sempre è garantito”.

Graziano ha indicato come stella polare del suo mandato la Convenzione ONU sui diritti dell’infanzia e dell’adolescenza, che l’Italia ratificò il 27 maggio 1991, esattamente 34 anni fa.

Il nuovo Consiglio Direttivo

Insieme a Graziano, il nuovo Consiglio Direttivo dell’UNICEF Italia è composto da Virginia Maria Barchiesi, Maria “Mussi” Bollini, Manuela Bovolenta, Mario Calabresi, Matteo De Mitri, Franco Gabrielli, Francesca Mariotti, Giuseppe Masnata, Giovanni Poggini, Stefania Radoccia, Carlo Robiglio e Claudia Sella. Presente anche il Direttore generale Paolo Rozera.

Chi è Nicola Graziano

Nato ad Aversa (CE) nel 1968, laureato in Giurisprudenza all’Università Federico II di Napoli, Nicola Graziano è magistrato tributario, autore di libri pubblicati da Feltrinelli, Maggioli, Rogiosi e altri editori. Da anni è vicino all’UNICEF come volontario, impegnato soprattutto nelle scuole italiane su temi come legalità, ambiente, immigrazione ed educazione civica.

A fine 2024 ha partecipato a una missione sul campo in Costa d’Avorio con l’UNICEF, esperienza che ha ulteriormente rafforzato il suo impegno.

Continua a leggere

Cultura

Intelligenza artificiale e democrazia: perché la trasparenza non è un’opzione

Pubblicato

del

Ogni giorno, milioni di decisioni che influenzano la vita di cittadini e imprese vengono prese da sistemi di intelligenza artificiale, spesso senza che sia chiaro su quali basi. Quanto sono trasparenti i criteri alla base di queste scelte automatizzate? È una domanda cruciale, soprattutto ora che anche la Pubblica Amministrazione affida a questi strumenti valutazioni, selezioni, previsioni e decisioni.

Cosa significa davvero trasparenza

La trasparenza in ambito IA non è uno slogan: vuol dire rendere visibili e comprensibili i criteri, i dati e le logiche che portano un sistema a generare un output. È un principio essenziale per gli algoritmi predittivi tradizionali, ma lo è ancor di più per i nuovi modelli generativi e Large Language Models (LLM), utilizzati per sintetizzare diagnosi mediche, suggerire investimenti o prendere decisioni amministrative.

Quando un algoritmo incide su diritti o risorse, la trasparenza non è facoltativa: è una garanzia di equità e controllo. Senza trasparenza, i cittadini non possono verificare se la decisione è corretta, discriminatoria o arbitraria. Con trasparenza, invece, si apre lo spazio per la fiducia, la correzione e la responsabilizzazione.

Strumenti per la trasparenza: Model card, XAI e audit

Per rendere chiari i meccanismi decisionali, esistono diversi strumenti. Le model card descrivono scopi, dati, metriche e limiti di un modello. Le tecniche di eXplainable AI (XAI) aiutano a capire quali fattori hanno pesato su una determinata decisione. Gli audit indipendenti, infine, sono fondamentali per individuare bias e discriminazioni prima che provochino danni reali.

Questo è particolarmente vero per i modelli LLM, che possono “confabulare”: produrre affermazioni errate, pur con tono credibile. Senza accesso alle fonti e ai processi decisionali, diventa difficile distinguere verità da errore.

Anche i dati devono essere tracciabili

Non basta aprire la “scatola nera” dell’algoritmo: bisogna sapere anche da dove arrivano i dati. Le datasheet for datasets permettono di tracciare l’intero ciclo di vita dell’informazione e prevenire distorsioni sistemiche.

Il rischio altrimenti è concreto: un algoritmo può perpetuare discriminazioni anche senza usare dati vietati. Un esempio? Nel 2021 uno studio ha scoperto che alcuni algoritmi di pricing delle assicurazioni auto penalizzavano i nati all’estero, semplicemente per la struttura dei dati. A parità di condizioni, un conducente straniero pagava anche mille euro in più. Nessuno se n’era accorto, proprio per la mancanza di trasparenza.

La trasparenza è una responsabilità

Rendere trasparente un sistema di IA non è solo un compito tecnico, ma un dovere etico e politico. È anche un obbligo normativo sempre più stringente, che punta a evitare abusi e garantire che le macchine restino al servizio dell’uomo. Se le decisioni delle macchine non sono leggibili e giustificabili, la democrazia digitale rischia di diventare un’illusione.

In un mondo dove le scelte automatizzate sono sempre più pervasive, la trasparenza è l’unico modo per tenere insieme tecnologia e diritti.

Continua a leggere

In rilievo

error: Contenuto Protetto