Collegati con noi

Tecnologia

Università Camerino entra nel metaverso, attivato insegnamento

Pubblicato

del

L’Università di Camerino entra nel metaverso ed è la prima Università in Italia a tenervi un intero insegnamento. Innovazione tecnologica per essere sempre al passo, anzi in questo caso un passo avanti, con i tempi. La dimostrazione, appunto, è l’avvio del progetto sperimentale di didattica nello spazio virtuale del metaverso.

Un progetto realizzato da Unicam in collaborazione con Pa Social e con Meta Italia, nato ed annunciato la scorsa estate in occasione della presentazione della campagna di comunicazione dell’Ateneo, quando Unicam organizzò la prima conferenza stampa nel metaverso, progetto che oltre alla didattica porterà nel metaverso anche attività di comunicazione e di public engagement e per il quale l’ateneo ha costituito un apposito gruppo di lavoro. Presso il Polo di informatica hanno preso il via le lezioni dell’insegnamento in “Social media management” del corso di laurea in Informatica per la comunicazione digitale interamente nel metaverso, tenute dal docente Francesco Di Costanzo, presidente di Pa Social.

Cinquantadue studentesse e studenti avranno in dotazione ognuno un oculos Meta Quest3 con il quale potranno confrontarsi con questa tecnologia per apprendere contenuti relativi al corso, ma anche per scoprirne i segreti ed aggiungerli al loro background professionale da spendere poi nel mercato del lavoro. Non solo didattica, ma anche ricerca, dal momento che l’ambiente virtuale, l’aula in cui si svolge la lezione, è stata progettata e sviluppata dal team del prof. Daniele Rossi della Scuola di architettura e design “E. Vittoria”.

“Sono davvero soddisfatto – ha commentato il rettore Graziano Leoni – di poter avviare questa sperimentazione in Unicam: siamo un ateneo sempre all’avanguardia e non potevamo non esserlo anche in questa occasione”. “La realtà immersiva, molto utilizzata in altri contesti, è ancora in fase sperimentale quando si parla di didattica ed è per questo motivo che abbiamo voluto avviare questo progetto per valutarne in pieno tutte le potenzialità, coinvolgendo direttamente tutti gli attori, quindi sia i docenti che le nostre studentesse ed i nostri studenti ed avere un loro feedback”.

Advertisement

Tecnologia

Intelligenza Artificiale, aziende chiedono norme certe prima che sia troppo tardi

Pubblicato

del

Come affrontare le sfide che pone l’uso dell’intelligenza artificiale nei rapporti di lavoro? Ciò che fino a poco tempo fa era un futuro solo immaginato, oggi è una realtà che pone questioni rilevanti in molti settori, che gli operatori del diritto e gli osservatori dell’evoluzione del mondo del lavoro non possono ignorare, soprattutto nel rapporto tra lavoratore e azienda. Per evitare abusi e zone grigie e tutelare datori di lavoro e dipendenti l’unico antidoto è la conoscenza e per questo il fondo interprofessionale Fonarcom ha chiamato a raccolta gli esperti per fare il punto sulle normative.

L’attenzione è rivolta verso il nuovo regolamento Ue (AI Act) e il Ddl nazionale in fase di sviluppo da parte del Governo italiano, sui quali aleggia una certa preoccupazione che il legislatore, attraverso la normativa, possa arrivare tardi nell’andare a tutelare i lavoratori. Secondo gli esperti sarebbe utile un intervento delle parti sociali, che attraverso la contrattazione collettiva nazionale e aziendale devono regolamentare nell’ambito del rapporto di lavoro quella che deve essere il giusto utilizzo dell’intelligenza artificiale.

Continua a leggere

In Evidenza

Regole e limiti all’IA, Ue vara prima legge al mondo

Pubblicato

del

Il D-day dell’intelligenza artificiale è arrivato. I ministri dei Ventisette responsabili per le telecomunicazioni hanno approvato l’AI Act, il complesso di norme che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue. È il passaggio finale dopo il via libera nel marzo scorso del Parlamento europeo. E non poteva esserci finale migliore, quello di un traguardo raggiunto parlando con “una sola voce”, per parafrasare il commissario europeo al Mercato Interno, Thierry Breton. Il nuovo set di regole, il primo al mondo in materia, è stato adottato all’unanimità, a segnalare la compattezza dell’Unione davanti alle sfide poste dall’IA.

Un esito che per il relatore al Parlamento europeo dell’AI Act, Brando Benifei, “certifica la qualità del lavoro svolto su un tema di grande sensibilità politica e di mercato, che rende l’Ue il capofila globale nella regolamentazione dell’IA”. La normativa si regge su un delicato equilibrio tra spinta all’innovazione e tutela dei diritti umani, della democrazia, dello Stato di diritto e della sostenibilità ambientale.

Innovativo l’approccio al rischio adottato dal legislatore europeo grazie al quale si dettano una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati. Quando è inaccettabile, scattano i divieti: è il caso ad esempio delle tecniche manipolative, delle pratiche di polizia predittiva, del riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole.

E ancora è il caso del riconoscimento facciale, il cui uso è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose. Altra novità è il capitolo dedicato all’IA generativa, inserito in corso d’opera con l’obiettivo di dare una prima risposta alla rapida diffusione di sistemi come ChatGPT.

La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato. L’AI Act vestirà i panni dell’ufficialità tra pochi giorni, con la pubblicazione nella Gazzetta Ufficiale dell’Ue, ma non si tradurrà subito in realtà. La nuove regole saranno infatti applicabili solo tra due anni, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

Chiusa quindi la fase legislativa, si apre ora quella altrettanto cruciale dell’attuazione, che per la vicepremier belga, Petra de Sutter “contribuirà all’autonomia strategica dell’Ue” perché, dice, “avere una legislazione che è una novità mondiale come l’AI Act, può essere un vantaggio competitivo ed è essenziale per la nostra sicurezza economica”. Imperativo, spiega, “sfruttare il potenziale del mercato unico” e dotarsi di un “approccio coerente e omogeneo per sostenere le società nel loro percorso di adeguamento alle regole digitali”. Provando a fare dell’AI Act un volano d’innovazione per l’Europa.

Continua a leggere

Tecnologia

Da 25 big della ricerca appello contro i rischi delle IA

Pubblicato

del

Le Intelligenze Artificiali crescono molto rapidamente e governare questo sviluppo è indispensabile urgente per evitare che diventino ingestibili e pericolose; per questo governi e aziende leader devono investire molto di più per trovare contromisure efficaci ai pericoli che spaziano dall’instabilità sociale alla manipolazione di massa, fino a guerre combattute con macchine autonome. A lanciare l’appello sono 25 tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell’Università canadese di Montreal. Lo fanno in una lettera pubblicata sulla rivista Science alla vigilia del summit internazionale sulla sicurezza dell’IA in programma a Seoul il 21 e 22 maggio.

Propio mentre l’appello viene diffuso, l’azienda OpenAI annuncia di avere sciolto il team dedicato a mitigare i rischi a lungo termine dell’intelligenza artificiale messo in piedi a luglio del 2023. Quello che secondo i 25 firmatari dell’appello è ormai urgente è “una rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritta dall’industria”. Per l’informatico Stuart Russell, dell’Università della California a Berkeley e tra i firmatari della lettera, “è ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato”.

La ricerca nell’ambito della IA sta progredendo in modo molto spedito, tanto che nel volgere di pochissimi anni potrebbero aprirsi scenari preoccupanti relativi ad ambiti delicati come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala, fino a facilitare sistemi di guerra automatizzati. Secondo i firmatari dell’articolo è dunque imperativo che responsabili politici e grandi aziende passino dalle parole ai fatti. aumentando concretamente gli investimenti in sicurezza, che sono oggi quasi inesistenti e imponendo regolamentazioni serie.

Il primo punto enunciato nel documento è l’istituzione di un’efficace organizzazione di esperti in grado di prendere azioni rapide nei confronti delle IA. A titolo di confronto, sottolineano, l’Istituto per la Sicurezza delle IA degli Stati Uniti dispone di un budget annuale di 10 milioni di dollari, mentre l’Agenzia del farmaco Fda dispone di 6,7 miliardi. Andrebbero poi imposte delle politiche per la valutazione del rischio molto più rigorose e con ricadute concrete e, contrariamente a quanto accade oggi, non bisognerebbe fare affidamento su valutazioni volontarie di modelli di IA.

Gli esperti chiedono inoltre alle grandi aziende di IA di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni e ritengono urgente mettere in atto politiche che si attivino automaticamente quando l’intelligenza artificiale raggiunge determinati traguardi di capacità. Meccanismi dunque capaci stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi. “Le aziende – ha concluso Russell – si lamenteranno del fatto che è troppo difficile soddisfare le normative, che ‘la regolamentazione soffoca l’innovazione’. È ridicolo. Ci sono più normative sulle paninerie che sulle società di IA”. 

Continua a leggere

In rilievo

error: Contenuto Protetto