Collegati con noi

Tecnologia

Robot killer umanoidi e macchine intelligenti che si ribellano, l’IA fra sogno e incubo: i timori di Musk e Sunak

Pubblicato

del

Da un lato il sogno di una sorta di età dell’oro in cui l’uomo potrà cedere alle macchine intelligenti i pesi più sgraditi del lavoro, come in una versione riveduta e corretta del “paradiso in terra” comunista preconizzato da Karl Marx; dall’altro lo spettro di una futuribile rivolta di robot resi autonomi dalla volontà umana, e potenzialmente fuori controllo se non ostili. E’ il quadro avveniristico, a cavallo tra fantascienza e rischi più che concreti, tracciato da Elon Musk – tycoon di X, Tesla, e controverso quanto visionario pioniere del business delle tecnologie più avanzate – nel corso di un faccia a faccia con il premier britannico Rishi Sunak tenuto a Londra e in diretta social a coronamento del primo vertice internazionale sull’Intelligenza Artificiale chiusosi ieri nello storico sito di Bletchley Park alla presenza di esperti, imprenditori e leader politici di mezzo mondo, tra cui Giorgia Meloni. Lo sviluppo dell’intelligenza artificiale – ha profetizzato Musk, esibendo in partenza il bicchiere mezzo pieno dell’ottimismo della volontà – potrà condurre in futuro a “un’era dell’abbondanza”; forse persino alla libertà dalla fatica del lavoro, salvo quello svolto per “soddisfazione personale”.

02/11/2023. Bletchley , United Kingdom. Prime Minister Rishi Sunak poses for the family photo as he attends day two of the AI Summit at Bletchley Park. Picture by Kirsty O’Connor / No 10 Downing Street

E tuttavia non è affatto esente da minacce ipoteticamente micidiali per le sorti dell’umanità, ha subito puntualizzato, svelando il bicchiere mezzo vuoto del pessimismo della ragione. Nella sua narrazione, il magnate sudafricano naturalizzato statunitense ha descritto la nuova tecnologia in questione alla stregua del “genio” uscito dalla proverbiale lampada. Genio in grado di far avverare tutti “i desideri,” ha proseguito, inclusi quelli destinati a sfociare nell’ignoto e magari nell’incubo più spaventoso, in assenza di regole e cautele (ammesso che si sia ancora in tempo a introdurle in modo efficace). Il timore dell’uomo che negli ultimi anni ha dominato la top 10 dei multimiliardari più ricchi al mondo è legato in particolare alla diffusione di “robot umanoidi” sempre più sofisticati: capaci di adattarsi all’ambiente circostante e di apprendere allo scopo di accollarsi compiti umani via via più complessi, sino a poter sfuggire sulla carta di mano.

Una realtà tutt’altro che remota, ad esempio, sul fronte degli automi militari che Paesi come gli Usa hanno già iniziato ad arruolare, sebbene non ancora in attività di combattimento. E che nell’evoluzione delle cose potrebbero diventare protagonisti di scenari non troppo lontani da quelli di capisaldi del romanzo fantascientifico come Io Robot di Isaac Asimov, o di film hollywoodiani dal sapore catastrofista quali Blade Runner, Terminator e Matrix, solo per citare qualche blockbuster. “Cosa accadrebbe se un domani questi robot ricevessero un aggiornamento software e non fossero più amichevoli?”, si è domandato a un certo punto Musk retoricamente, con un cenno d’intesa verso Sunak, evocando senza mezzi termini la prospettiva d’una ribellione delle macchine. E l’insorgere – chissà – di robot killer.

Prospettiva su cui l’inquilino di Downing Street è rimasto abbottonato, preferendo lasciar più che altro parlare l’incontenibile ospite, ma che si è ben guardato dal negare a priori. Non senza sottolineare a sua volta “la grande paura della gente” sull’impatto di un’automazione ‘intelligente’ su tanti posti di lavoro, oltre che sugli effetti di un’ulteriore standardizzazione tecnologica da Grande Fratello nella vita degli individui. Pericoli dinanzi ai quali entrambi gli interlocutori hanno convenuto sulla necessità di un “arbitro indipendente” in condizione di regolamentare in avvenire l’uso dei supercomputer attraverso norme e barriere etiche, da adottare auspicabilmente a livello globale. Secondo quanto appena sottoscritto nella dichiarazione di Bletchley Park da Regno Unito, Ue, Usa, Cina e una ventina di altri Stati: in termini tanto embrionali quanto per ora vaghi.

Advertisement

In Evidenza

Neuralink di Elon Musk raccoglie 43 milioni di dollari

Pubblicato

del

Neuralink, la società fondata da Elon Musk che sviluppa chip impiantabili in grado di leggere le onde cerebrali, ha raccolto ulteriori 43 milioni di dollari di nuovi investimenti. Lo riporta il sito TechCrunch, basandosi su un documento depositato presso la Sec, l’ente federale statunitense che vigila sulla Borsa. Il documento mostra che la nuova iniezione di capitale è arrivata pochi mesi dopo un’altra operazione da 280 milioni di dollari guidata dal Founders Fund di Peter Thiel, uno dei nomi più iconici della Silicon Valley. Secondo il sito, Neuralink ora sarebbe valutata circa 5 miliardi di dollari.

Fondata nel 2016, Neuralink ha ideato un dispositivo in grado di impiantare fili ultrasottili all’interno del cervello. I fili si collegano a un chip progettato su misura contenente elettrodi in grado di leggere informazioni da gruppi di neuroni. Dopo sperimentazioni su animali e dopo diversi dinieghi, a maggio la società di Elon Musk ha ricevuto l’approvazione della Fda per gli studi clinici sull’uomo e ha aperto al reclutamento. Sta cercando un volontario per il suo primo test clinico: un adulto con meno di 40 anni e con i quattro arti paralizzati.

Continua a leggere

In Evidenza

IA sul lavoro, favorevole il 72% delle aziende italiane

Pubblicato

del

Il 72% dei leader aziendali in Italia afferma che l’IA generativa sarà vantaggiosa per i dipendenti. È quanto emerge dalla nuova indagine di LinkedIn condotta su oltre 1.000 manager in sei paesi europei. Gli italiani ritengono che l’eliminazione di attività noiose e ripetitive (49%), l’aumento della produttività (45%) e la maggiore disponibilità di tempo da dedicare al pensiero creativo (40%) rappresentino i maggiori benefici che l’IA generativa porterà ai dipendenti. Oltre un terzo (34%) ritiene inoltre che l’ascesa della tecnologia creerà nuovi ruoli all’interno della propria organizzazione.

I dati dell’ultimo report Future of Work: AI at Work di LinkedIn mostrano che l’IA sta già ridisegnando il mondo del lavoro, con le imprese che cercano di massimizzare il potenziale della tecnologia. Le posizioni di “Head of AI” sono triplicate a livello globale negli ultimi cinque anni e, in Italia, gli annunci di lavoro che menzionano l’IA sono quasi quintuplicati (4,7 volte) negli ultimi due anni.

A livello europeo, sono i manager in Germania i più ottimisti sull’IA (93%), seguiti da Regno Unito (81%) e Francia (80%). Nuovi dati diffusi dal Work Trend Index di Microsoft confermano il guadagno in termini di produttività derivante dagli strumenti di IA generativa come Microsoft Copilot. Il 77% tra i primi utenti che hanno provato il nuovo chatbot per Microsoft 365 per svolgere il proprio lavoro ha dichiarato di non volervi più rinunciare. LinkedIn prevede che le competenze richieste ai lavoratori cambieranno almeno del 65% entro il 2030, accelerate dai rapidi sviluppi dell’intelligenza artificiale. “Un futuro all’insegna dell’intelligenza artificiale è possibile, ma sarà fondamentale che i leader aziendali in tutto il mondo comprendano come preparare la forza lavoro” ha sottolineato in una nota ufficiale Marcello Albergoni, Country Manager di LinkedIn Italia.

Continua a leggere

Tecnologia

Negoziato in salita sulle regole Ue per l’IA

Pubblicato

del

Bruxelles si preparava a brindare al via libera dell’AI Act, la prima legge al mondo sull’intelligenza artificiale, ma i festeggiamenti rischiano ora di slittare al nuovo anno. A mettere i bastoni tra le ruote di un negoziato già complesso, ci hanno pensato Italia, Francia e Germania che in un documento hanno espresso la propria contrarietà a introdurre nel provvedimento delle “norme non testate” sui modelli più performanti dell’IA come GPT-4, alla base del chatbot ChatGPT. Sul punto, uno dei più spinosi delle trattative che vedono coinvolte le istituzioni europee, i tre big dell’Ue suggeriscono di scegliere la via dell’autoregolamentazione attraverso codici di condotta per gli sviluppatori di IA.

E questo per non gravare le imprese di eccessivi oneri amministrativi che soffocherebbero l’innovazione in un settore cruciale per il futuro. Un tema caro soprattutto al presidente francese, Emmanuel Macron, che nei giorni scorsi aveva esortato a elaborare una “regolamentazione non punitiva per preservare l’innovazione”. Nella ricerca di un delicato equilibrio tra progresso e tutela dei diritti umani, spetta al Parlamento europeo puntare i piedi. “Non siamo disposti ad accettare autoregolamentazioni light per i modelli più potenti” spiega Brando Benifei, capodelegazione degli eurodeputati Pd al Parlamento Europeo e relatore dell’AI Act, aprendo, tuttavia, alla possibilità di limitare il campo di applicazione di questa specifica regolamentazione a modelli a uso generale. I codici di condotta non sono sufficienti, basti pensare, spiega Benifei, alla vicenda di OpenAI che “ha mostrato tutta l’instabilità anche della governance delle imprese sviluppatrici di modelli potenti, che comportano cioè un rischio sistemico”.

Imperativo quindi introdurre “obblighi chiari” e “sanzionabili”, dice ancora l’eurodeputato dem ricordando che nella proposta di Roma, Parigi e Berlino “non c’è nessun incentivo a rispettare le regole auto-attribuite”. Ma a minare il campo verso la chiusura del dossier c’è anche la questione dell’uso degli strumenti di IA nell’ambito della sicurezza nazionale, su cui gli Stati dell’Ue chiedono delle ampie deroghe rispetto all’impostazione più restrittiva del Parlamento. La conclusione dell’accordo sull’AI Act, attesa per il 6 dicembre, dipenderà, per Benifei, dallo “sforzo che farà il Consiglio di trovare un punto di caduta sufficientemente ambizioso”.

Fino al via libera e all’attuazione della legge sull’IA, gli Stati non se ne staranno però con le mani in mano. Un segnale in questo senso arriva dal Garante per la protezione dei dati personali che ha avviato un’indagine conoscitiva su siti internet pubblici e privati per verificare l’adozione di misure di sicurezza adeguate ad impedire la raccolta massiva di dati personali, nota come webscraping, per l’addestramento degli algoritmi di IA da parte di soggetti terzi. A seguito dell’indagine conoscitiva, l’Autorità potrà adottare i necessari provvedimenti, anche in via d’urgenza.

Continua a leggere

In rilievo

error: Contenuto Protetto