Collegati con noi

Tecnologia

Musk lancia l’allarme sull’IA, un rischio per l’umanità

Pubblicato

del

L’intelligenza artificiale pone “profondi rischi per la società e l’umanità” e per questo servirebbe una “pausa” di almeno sei mesi nell'”addestramento” dei sistemi più avanzati. L’allarme è di Elon Musk e di altri 1.00 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto ‘scenario Terminator’ e consentire lo sviluppo di protocolli di sicurezza condivisi. La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente. A sottoscriverla infatti ci sono il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai. Oltre ovviamente al miliardario visionario patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver, con la sua spinta all’innovazione, contribuito a trasformare radicalmente l’industria dello spazio con SpaceX e rivoluzionare quella dell’auto spianando la strada già più di un decennio fa alle vetture elettriche che si guidano da sole.

Fanatico della tecnologia, Musk ha investito in società di intelligenza artificiale ed era anche nel consiglio di amministrazione di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari. Investimenti, ha spiegato più volte, non per guadagnare ma per tenersi al passo con i tempi e quindi conoscere queste tecnologie. Nel mirino dei big non c’è tutta l’intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. “I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera in cui si parla di una “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”. Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica ‘Skynet’ protagonista dei film di James Cameron e la sua decisione di distruggere l’umanità; oppure, più prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino – ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina – vede l’intelligenza artificiale come uno “strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria”. Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell’hi-tech a chiedere una pausa di sei mesi da usare per lo “sviluppo congiunto e l’implementazione di protocolli condivisi” che assicurino la “sicurezza” dei sistemi “al di là di ogni ragionevole dubbio”, prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più “accurati, trasparenti, credibili e leali” gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti. “La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici – prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, e non corriamo impreparati verso l’autunno”.

Advertisement

Tecnologia

Da 25 big della ricerca appello contro i rischi delle IA

Pubblicato

del

Le Intelligenze Artificiali crescono molto rapidamente e governare questo sviluppo è indispensabile urgente per evitare che diventino ingestibili e pericolose; per questo governi e aziende leader devono investire molto di più per trovare contromisure efficaci ai pericoli che spaziano dall’instabilità sociale alla manipolazione di massa, fino a guerre combattute con macchine autonome. A lanciare l’appello sono 25 tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell’Università canadese di Montreal. Lo fanno in una lettera pubblicata sulla rivista Science alla vigilia del summit internazionale sulla sicurezza dell’IA in programma a Seoul il 21 e 22 maggio.

Propio mentre l’appello viene diffuso, l’azienda OpenAI annuncia di avere sciolto il team dedicato a mitigare i rischi a lungo termine dell’intelligenza artificiale messo in piedi a luglio del 2023. Quello che secondo i 25 firmatari dell’appello è ormai urgente è “una rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritta dall’industria”. Per l’informatico Stuart Russell, dell’Università della California a Berkeley e tra i firmatari della lettera, “è ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato”.

La ricerca nell’ambito della IA sta progredendo in modo molto spedito, tanto che nel volgere di pochissimi anni potrebbero aprirsi scenari preoccupanti relativi ad ambiti delicati come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala, fino a facilitare sistemi di guerra automatizzati. Secondo i firmatari dell’articolo è dunque imperativo che responsabili politici e grandi aziende passino dalle parole ai fatti. aumentando concretamente gli investimenti in sicurezza, che sono oggi quasi inesistenti e imponendo regolamentazioni serie.

Il primo punto enunciato nel documento è l’istituzione di un’efficace organizzazione di esperti in grado di prendere azioni rapide nei confronti delle IA. A titolo di confronto, sottolineano, l’Istituto per la Sicurezza delle IA degli Stati Uniti dispone di un budget annuale di 10 milioni di dollari, mentre l’Agenzia del farmaco Fda dispone di 6,7 miliardi. Andrebbero poi imposte delle politiche per la valutazione del rischio molto più rigorose e con ricadute concrete e, contrariamente a quanto accade oggi, non bisognerebbe fare affidamento su valutazioni volontarie di modelli di IA.

Gli esperti chiedono inoltre alle grandi aziende di IA di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni e ritengono urgente mettere in atto politiche che si attivino automaticamente quando l’intelligenza artificiale raggiunge determinati traguardi di capacità. Meccanismi dunque capaci stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi. “Le aziende – ha concluso Russell – si lamenteranno del fatto che è troppo difficile soddisfare le normative, che ‘la regolamentazione soffoca l’innovazione’. È ridicolo. Ci sono più normative sulle paninerie che sulle società di IA”. 

Continua a leggere

In Evidenza

Muovono braccia e mani 43 paralizzati con dispositivo

Pubblicato

del

Un dispositivo non invasivo in grado di stimolare il midollo spinale dall’esterno del corpo ha permesso a 43 pazienti tetraplegici, affetti da paralisi parziale o totale che coinvolge tutti e quattro gli arti e il torso, di recuperare il movimento di braccia e mani in misura maggiore rispetto alla sola terapia di riabilitazione. Lo strumento è stato messo a punto da un gruppo di ricerca guidato dal Politecnico di Losanna, e i risultati del trial clinico sono pubblicati sulla rivista Nature Medicine. Lo studio, che ha coinvolto 60 partecipanti, suggerisce che la terapia è sicura ed efficace e potrebbe quindi costituire un passo avanti per aiutare le persone a recuperare almeno in parte le loro capacità motorie e la loro indipendenza.

Alla base della tetraplegia c’è un danno al midollo spinale localizzato nella parte cervicale, la più alta, della colonna vertebrale. La conseguenza è una perdita totale o parziale della funzione delle braccia e delle gambe e la paralisi non riguarda soltanto il movimento, ma anche la sensibilità. È dimostrato che la stimolazione elettrica del midollo spinale può ripristinare le funzioni compromesse quando viene effettuata su quelle zone che contengono i neuroni coinvolti nel controllo di queste funzioni, ma spesso questi approcci si basano su procedure chirurgiche invasive per l’impianto degli elettrodi nel midollo spinale. Ne è un esempio l’importante risultato pubblicato su Nature Medicine nel 2018, ottenuto su un uomo paralizzato dal 2013 in seguito a un incidente sulle piste da sci che è riuscito a rimettersi in piedi e a camminare grazie ad uno stimolatore elettrico impiantato al di sotto del danno vertebrale.

Per cercare un’alternativa meno invasiva per i pazienti, i ricercatori coordinati da Gregoire Courtine hanno realizzato un dispositivo che invia corrente elettrica al midollo spinale attraverso elettrodi semplicemente posizionati sulla pelle. A testare per la prima volta gli effetti di questo macchinario, chiamato Arcex, sono state 65 persone tetraplegiche reclutate in diversi centri di varie parti del mondo: per tutte era passato almeno un anno dalla lesione responsabile della paralisi. I partecipanti sono stati inizialmente sottoposti per due mesi ad un programma di riabilitazione standard, seguito da altri due mesi di terapia svolta però con l’ausilio del dispositivo.

Non sono stati riscontrati problemi relativi alla sicurezza e, delle 60 persone che hanno portato a termine l’esperimento e, di queste, 43 (il 72%) hanno dimostrato miglioramenti nella forza e nella funzionalità dei movimenti di braccia e mani. Non solo: i risultati indicano anche progressi nella precisione dei movimenti che coinvolgono la punta delle dita, un parziale recupero delle sensazioni associate al tatto e miglioramenti riferiti dai pazienti per quanto riguarda la loro qualità della vita. Gli autori dello studio sottolineano, quindi, l’efficacia della terapia e suggeriscono che potrebbe essere utilizzata insieme a quelle attuali per migliorare il recupero della funzione della mano e del braccio in pazienti tetraplegici.

Continua a leggere

In Evidenza

Google, con l’IA riaccende ricerca e assistenti vocali

Pubblicato

del

L’intelligenza artificiale che si espande ulteriormente nella ricerca, assistenti digitali che parlano e vedono rendendo sempre più reale lo scenario del film Her. E’ la visione “multimodale” di Google presentata alla Conferenza degli sviluppatori, con cui la società di Mountain View sfida OpenAI e Apple. “Investiamo nell’intelligenza artificiale da più di dieci anni – dice il Ceo Sundar Pichai – Siamo in piena era Gemini”. Google inserirà sempre di più l’intelligenza artificiale generativa nella ricerca, il suo corebusiness da oltre 25 anni.

L’azienda apre a più utenti (“negli Stati Uniti e in futuro ad altri paesi”) le Overview, dei riepiloghi già testati in maniera ristretta: ad una domanda dell’utente offrono una panoramica di più siti e argomenti per risposte più esaustive. Inoltre, grazie a Gemini si potranno formulare in una volta sola domande più complesse e porre questioni anche usando i video. “Contiamo di portarlo a più di un miliardo di persone entro la fine dell’anno”, dice Liz Reid a capo della ricerca Google. L’evento è una rassegna di come l’IA di Gemini prevederà sempre di più i prodotti della società. Gli ‘AI Agents’, così li chiama l’azienda, sono “sistemi intelligenti che faranno il lavoro per noi sotto la nostra supervisione”. Ed ecco allora Project Astra, un assistente digitale multimodale che elabora cioè testo, voce e immagini in tempo reale mentre interagiamo, capendo anche il contesto. In un video Big G lo fa vedere all’opera su smartphone ma anche su lenti smart, riportando così alla memoria i vecchi Google Glass. Astra è la risposta a Gpt-4o lanciato proprio 24 ore fa da OpenAI e in attesa di vedere come anche Apple cambierà il suo assistente Siri con l’IA.

Grazie a Gemini, viene aggiornato anche Google Foto con la funzione ‘Ask’, chiedi a Foto. Nelle gallerie di immagini che tutti noi abbiamo sui dispositivi si potrà trovare più semplicemente una foto formulando una richiesta a voce, senza dover passare in rassegna manualmente immagini e video. “Le vostre foto e i vostri video non vengono mai utilizzati per la pubblicità. E nessuno esaminerà le vostre conversazioni”, specifica la società. Nel corso della conferenza degli sviluppatori, Google ha lanciato anche Veo, la risposta al generatore di video di OpenAI che si chiama Sora, e Imagen 3 che è la versione più avanzata di generazione di foto attraverso un testo. E inizia a collaborare con alcuni musicisti grazie a Music AI Sandbox, un insieme di strumenti che aiutano a comporre.

Una mossa, grazie anche alla sperimentazione con il musicista vincitore di Grammy Wyclef Jean, per rassicurare il mondo degli artisti riguardo gli effetti dell’intelligenza artificiale sulla creatività. “Vogliamo farlo responsabilmente ascoltando il loro feedback”, afferma il vice presidente Product management Eli Collins. Gemini, inoltre, si espande anche ai luoghi di lavoro. La versione 1.5 Pro, ad esempio, entra nelle mail per un sommario oppure fornisce i momenti clou di una riunione o scrive un riassunto. Arriva anche Gemini 1.5 Flash “più veloce e efficiente”, mentre Gemini Advanced da oggi è disponibile in lingua italiana. Infine, Google annuncia Trillium, la sesta generazione di processori, un acceleratore per il Cloud con l’intelligenza artificiale, “più performante e ad alta efficienza energetica”.

Continua a leggere

In rilievo

error: Contenuto Protetto