Collegati con noi

Cultura

Calendario 2019 della Polizia di Stato, anche quest’anno il ricavato andrà ad Unicef per la protezione e la cura dei bimbi in Yemen

Pubblicato

del

Lo so, Natale è lontano, fine anno è lontana, fa ancora molto caldo, e il calendario della Polizia di Stato 2019 arriva troppo presto. Fa niente. Anche quest’anno è bellissimo, dunque prima ce lo gustiamo e più tempo abbiamo per ammirarlo. Intanto è stato presentato ufficialmente al Palazzo delle Esposizioni di Roma. C’erano il ministro dell’Interno Matteo Salvini, il Capo della Polizia, Direttore Generale della Pubblica Sicurezza, Prefetto Franco Gabrielli, il Presidente dell’Unicef Italia Francesco Samengo. Non a caso c’era Samengo. Anche quest’anno, parte del ricavato della vendita sarà destinato al Comitato italiano per l’Unicef Onlus per sostenere il progetto “Yemen” e altra parte al Fondo Assistenza della Polizia di Stato – Piano Marco Valerio, istituito per sostenere i figli minori dei dipendenti della Polizia di Stato affetti da gravi patologie. Con i ricavati della vendita del Calendario 2019 sono oltre 2,5 milioni di euro i fondi raccolti e donati ai progetti Unicef dal 2001. L’acquisto del Calendario della Polizia di Stato, viene gestito dagli URP (uffici relazioni con il pubblico) delle Questure, previa prenotazione ed un versamento, di € 8.00 per l’edizione da parete e di € 6.00 per quella da tavolo, sul contocorrente postale nr. 745000, intestato a “Comitato italiano per l’Unicef”, avendo cura di inserire nellacausale “Calendario della Polizia di Stato 2019 per il progetto Unicef “Yemen”. Quest’anno la Polizia di Stato ha scelto di raccontare la sua attività attraverso il linguaggio dell’artegrafica, con dodici inedite illustrazioni, realizzate da prestigiosi disegnatori di fumetto. Tra gli artisti figurano Bruno Brindisi, tra i più noti fumettisti della casa editrice Bonelli che, insieme a Roberto De Angelis e Luca Raimondo, firmano personaggi del tenore di Dylan Dog, Tex e Nathan Never; ma anche autori quali Raffaele della Monica, Daniele Bigliardo, Luigi Siniscalchi, Walter Venturi, Massimiliano Bertolini, Raul e Gianluca Cestaro, Stefano Casini fino al più giovane Jonathan Fara, disegnatore del made in Polizia di Stato “Commissario Mascherpa”. Il fumetto, quindi, quale mezzo di rappresentazione del presente e immaginazione del futuro.  Non solo fumetti, infatti, nel calendario Polizia di Stato 2019. Ad ogni tavola, sono associati i nuovi segni distintivi di qualifica, che consentono di cristallizzare, anche graficamente, l’identità civile della Polizia di Stato. I nuovi segni di qualifica saranno adottati dalla Polizia di Stato nel prossimo anno e offriranno la possibilità di proiettare l’Istituzione verso il futuro, chiudendo il percorso di smilitarizzazione intrapreso con la riforma del 1981.

Ad ogni mese c’è una illustrazione in cui si vedono i poliziotti al lavoro. Il teatro del loro lavoro non è mai scontato, mai esente da rischio, mai banale. E le illustrazioni sono di rara bellezza.

In 17 anni di partnership sono stati raccolti oltre 2.338.000 euro destinati ai seguenti progetti: Calendario 2002: contro lo sfruttamento sessuale dei bambini in Cambogia

Calendario 2003: contro il traffico e lo sfruttamento sessuale dei bambini in Benin Calendario 2004: contro sfruttamento e traffico minori in Moldavia

Calendario 2005: contro sfruttamento e traffico minori in Moldavia
Calendario 2006: protezione infanzia e formazione professionale della polizia locale in Rep. Democratica del Congo
Calendario 2007: protezione infanzia in Guinea Bissau
Calendario 2008: protezione infanzia in Guinea Bissau
Calendario 2009: sostegno ai bambini vittime di violenza in Indonesia
Calendario 2010: protezione bambini e formazione polizia locale in Sud Sudan
Calendario 2011: bambini di strada o a rischio Bangladesh
Calendario 2012: lotta alla malnutrizione infantile in Camerun
Calendario 2013: acqua e igiene nelle scuole in Tanzania
Calendario 2014: proteggere i bambini lavoratori e di strada in Bangladesh
Calendario 2015: bambini malnutriti in Centro Africa
Calendario 2016: bambini vittime dell’emergenza umanitaria in Sud Sudan
Calendario 2017: youth & innovation program in Libano
Calendario 2018: emergenza Migranti in Italia

Advertisement

Cultura

Bocconi prima università italiana ad adottare l’AI di OpenAI: via alla trasformazione digitale

Pubblicato

del

Un assistente AI per studenti e professori, strumenti evoluti per la ricerca e la didattica, applicazioni intelligenti nel cuore delle scienze sociali. L’Università Bocconi di Milano è la prima università italiana ad adottare le soluzioni di intelligenza artificiale di OpenAI, avviando una trasformazione profonda nel modo di studiare, insegnare e fare ricerca.

L’annuncio arriva in seguito alla firma di un accordo strategico con OpenAI, la società statunitense leader globale nel settore. L’intesa prevede un accesso equo e sicuro alle tecnologie di AI più avanzate per tutti i membri della comunità Bocconi, composta da oltre 17.000 persone.

AI per la didattica e la formazione personalizzata

«Abbiamo già da tempo investito sull’intelligenza artificiale», spiega il rettore Francesco Billari (foto Imagoeconomica in evidenza). «Negli ultimi cinque anni abbiamo lanciato nuovi corsi e laboratori dedicati. L’alleanza con OpenAI ci consente ora di alzare l’asticella nell’applicazione quotidiana dell’AI a didattica e ricerca».

Tra le prime novità, l’introduzione di un AI Assistant per aiutare gli studenti nella raccolta di fonti, nella sintesi degli appunti, nella preparazione delle lezioni e nello studio individuale. Uno strumento pensato per rendere l’apprendimento più interattivo, autonomo e profondo.

Ricerca potenziata e agenti intelligenti

Sul fronte della ricerca, l’obiettivo è ambizioso: sviluppare e applicare sistemi AI agentici, capaci di raggiungere autonomamente obiettivi specifici, simulare comportamenti, condurre esperimenti, generare dati e costruire modelli teorici. Un vero salto di paradigma per le scienze economiche, giuridiche, manageriali e di policy.

Una delle frontiere più interessanti sarà la misurazione concettuale da dati non strutturati: testi, video e altri contenuti verranno analizzati per quantificare concetti astratti, come tratti psicologici, stili comunicativi o narrazioni collettive. «È una fusione tra dati qualitativi e quantitativi resa possibile dall’AI», precisa Billari. «Un’evoluzione che promette di accelerare radicalmente i tempi di analisi».

Un nuovo prorettore per la transizione digitale

Per guidare questa trasformazione, l’ateneo ha nominato il professor Dirk Hovy – esperto in linguaggio naturale e scienze computazionali – prorettore per la Trasformazione digitale e l’Intelligenza artificiale. Sarà lui a coordinare l’implementazione delle tecnologie in tutte le aree dell’università.

Bocconi tiene anche a chiarire che la proprietà intellettuale dei dati resta all’ateneo, a tutela del lavoro di studenti, ricercatori e docenti.

Una scelta strategica per l’internazionalizzazione

La partnership con OpenAI rappresenta un ulteriore tassello della strategia di crescita e internazionalizzazione dell’università: «Nel 2025 contiamo di chiudere con circa il 60% delle domande di iscrizione provenienti dall’estero», conclude il rettore Billari. «L’intelligenza artificiale rafforza il nostro ruolo come polo di innovazione accademica nelle scienze sociali a livello globale».

Continua a leggere

Cultura

Nicola Graziano è il nuovo Presidente di UNICEF Italia: “Impegno totale per l’infanzia in difficoltà, in Italia e nel mondo”

Pubblicato

del

L’UNICEF Italia ha un nuovo presidente. È Nicola Graziano (foto Imagoeconomica in evidenza), magistrato, scrittore e volontario, eletto oggi all’unanimità dal nuovo Consiglio Direttivo dell’organizzazione riunito a Roma. Succede a Carmela Pace, che resta nel Consiglio come Past President, dopo anni di guida apprezzata e lungimirante.

Assumo questo impegno con grande responsabilità in un momento molto difficile per l’infanzia”, ha dichiarato Graziano dopo l’elezione. “Oltre 470 milioni di bambini vivono in aree di conflitto, 1 miliardo in Paesi a rischio climatico e ambientale e quasi 38 milioni sono gravemente malnutriti in 26 crisi nutrizionali”. Graziano ha però voluto sottolineare anche le criticità italiane: “La mia attenzione sarà anche per i bambini che vivono nel nostro Paese, il cui benessere non sempre è garantito”.

Graziano ha indicato come stella polare del suo mandato la Convenzione ONU sui diritti dell’infanzia e dell’adolescenza, che l’Italia ratificò il 27 maggio 1991, esattamente 34 anni fa.

Il nuovo Consiglio Direttivo

Insieme a Graziano, il nuovo Consiglio Direttivo dell’UNICEF Italia è composto da Virginia Maria Barchiesi, Maria “Mussi” Bollini, Manuela Bovolenta, Mario Calabresi, Matteo De Mitri, Franco Gabrielli, Francesca Mariotti, Giuseppe Masnata, Giovanni Poggini, Stefania Radoccia, Carlo Robiglio e Claudia Sella. Presente anche il Direttore generale Paolo Rozera.

Chi è Nicola Graziano

Nato ad Aversa (CE) nel 1968, laureato in Giurisprudenza all’Università Federico II di Napoli, Nicola Graziano è magistrato tributario, autore di libri pubblicati da Feltrinelli, Maggioli, Rogiosi e altri editori. Da anni è vicino all’UNICEF come volontario, impegnato soprattutto nelle scuole italiane su temi come legalità, ambiente, immigrazione ed educazione civica.

A fine 2024 ha partecipato a una missione sul campo in Costa d’Avorio con l’UNICEF, esperienza che ha ulteriormente rafforzato il suo impegno.

Continua a leggere

Cultura

Intelligenza artificiale e democrazia: perché la trasparenza non è un’opzione

Pubblicato

del

Ogni giorno, milioni di decisioni che influenzano la vita di cittadini e imprese vengono prese da sistemi di intelligenza artificiale, spesso senza che sia chiaro su quali basi. Quanto sono trasparenti i criteri alla base di queste scelte automatizzate? È una domanda cruciale, soprattutto ora che anche la Pubblica Amministrazione affida a questi strumenti valutazioni, selezioni, previsioni e decisioni.

Cosa significa davvero trasparenza

La trasparenza in ambito IA non è uno slogan: vuol dire rendere visibili e comprensibili i criteri, i dati e le logiche che portano un sistema a generare un output. È un principio essenziale per gli algoritmi predittivi tradizionali, ma lo è ancor di più per i nuovi modelli generativi e Large Language Models (LLM), utilizzati per sintetizzare diagnosi mediche, suggerire investimenti o prendere decisioni amministrative.

Quando un algoritmo incide su diritti o risorse, la trasparenza non è facoltativa: è una garanzia di equità e controllo. Senza trasparenza, i cittadini non possono verificare se la decisione è corretta, discriminatoria o arbitraria. Con trasparenza, invece, si apre lo spazio per la fiducia, la correzione e la responsabilizzazione.

Strumenti per la trasparenza: Model card, XAI e audit

Per rendere chiari i meccanismi decisionali, esistono diversi strumenti. Le model card descrivono scopi, dati, metriche e limiti di un modello. Le tecniche di eXplainable AI (XAI) aiutano a capire quali fattori hanno pesato su una determinata decisione. Gli audit indipendenti, infine, sono fondamentali per individuare bias e discriminazioni prima che provochino danni reali.

Questo è particolarmente vero per i modelli LLM, che possono “confabulare”: produrre affermazioni errate, pur con tono credibile. Senza accesso alle fonti e ai processi decisionali, diventa difficile distinguere verità da errore.

Anche i dati devono essere tracciabili

Non basta aprire la “scatola nera” dell’algoritmo: bisogna sapere anche da dove arrivano i dati. Le datasheet for datasets permettono di tracciare l’intero ciclo di vita dell’informazione e prevenire distorsioni sistemiche.

Il rischio altrimenti è concreto: un algoritmo può perpetuare discriminazioni anche senza usare dati vietati. Un esempio? Nel 2021 uno studio ha scoperto che alcuni algoritmi di pricing delle assicurazioni auto penalizzavano i nati all’estero, semplicemente per la struttura dei dati. A parità di condizioni, un conducente straniero pagava anche mille euro in più. Nessuno se n’era accorto, proprio per la mancanza di trasparenza.

La trasparenza è una responsabilità

Rendere trasparente un sistema di IA non è solo un compito tecnico, ma un dovere etico e politico. È anche un obbligo normativo sempre più stringente, che punta a evitare abusi e garantire che le macchine restino al servizio dell’uomo. Se le decisioni delle macchine non sono leggibili e giustificabili, la democrazia digitale rischia di diventare un’illusione.

In un mondo dove le scelte automatizzate sono sempre più pervasive, la trasparenza è l’unico modo per tenere insieme tecnologia e diritti.

Continua a leggere

In rilievo

error: Contenuto Protetto