Collegati con noi

Tecnologia

Intelligenza Artificiale, aziende chiedono norme certe prima che sia troppo tardi

Pubblicato

del

Come affrontare le sfide che pone l’uso dell’intelligenza artificiale nei rapporti di lavoro? Ciò che fino a poco tempo fa era un futuro solo immaginato, oggi è una realtà che pone questioni rilevanti in molti settori, che gli operatori del diritto e gli osservatori dell’evoluzione del mondo del lavoro non possono ignorare, soprattutto nel rapporto tra lavoratore e azienda. Per evitare abusi e zone grigie e tutelare datori di lavoro e dipendenti l’unico antidoto è la conoscenza e per questo il fondo interprofessionale Fonarcom ha chiamato a raccolta gli esperti per fare il punto sulle normative.

L’attenzione è rivolta verso il nuovo regolamento Ue (AI Act) e il Ddl nazionale in fase di sviluppo da parte del Governo italiano, sui quali aleggia una certa preoccupazione che il legislatore, attraverso la normativa, possa arrivare tardi nell’andare a tutelare i lavoratori. Secondo gli esperti sarebbe utile un intervento delle parti sociali, che attraverso la contrattazione collettiva nazionale e aziendale devono regolamentare nell’ambito del rapporto di lavoro quella che deve essere il giusto utilizzo dell’intelligenza artificiale.

Advertisement

In Evidenza

Ecco le app dell’IA per hacker: FraudGpt, XxxGpt e WolfGpt

Pubblicato

del

L’intelligenza artificiale generativa usata non solo per creare testi e foto ma anche virus e campagne malevoli. Lo hanno scoperto gli esperti di sicurezza di Check Point Software, capaci di individuare tre software divenuti famosi tra gli hacker. Si tratta di FraudGpt, XxxGpt e WolfGpt; nomi che fanno il verso al più famoso ChatGpt e che indicano come sia divenuto molto facile, anche per i non avvezzi alla tecnologia, creare minacce informatiche.

Per i ricercatori, FraudGpt è una piattaforma a cui ci si può abbonare, come qualsiasi altro servizio, e che permette di creare identità false, email di phishing, malware o utilizzare l’ingegneria sociale per ingannare gli utenti. “Tutto questo può essere fatto a un livello molto alto, in modo che anche persone con competenze tecniche minime possano portare a termine attacchi complessi” spiegano. XXXGpt è utilizzato dai criminali per generare codici che consentono di prendere il controllo remoto del dispositivo della vittima e di rubare, modificare o corrompere dati sensibili.

Questo tool può anche generare spyware, ransomware, keylogger e codici speciali per attacchi mirati. WolfGpt è noto per la sua complessità e architettura basata sul linguaggio di programmazione Python. Può creare malware criptato e campagne di phishing convincenti. Viene anche utilizzato per creare codici maligni destinati ai pos e per attacchi mirati ai bancomat, oppure per il riciclaggio di denaro e l’individuazione di punti deboli nelle reti aziendali. “L’ascesa di modelli avanzati di IA richiede un nuovo approccio alla sicurezza – sottolineano da Check Point Software – poiché le difese convenzionali sono insufficienti contro queste minacce complesse e adattive. Allo stesso tempo, devono essere affrontate le questioni etiche relative alla responsabilità e a come prevenire l’uso improprio dell’IA in generale”.

Continua a leggere

Tecnologia

OpenAI getta la maschera, il Ceo Sam Altman: da no-profit diventiamo società di lucro

Pubblicato

del

In un incontro con alcuni azionisti, Sam Altman, amministratore delegato di OpenAI, avrebbe riferito che l’azienda è pronta a trasformarsi da no-profit a compagnia a scopo di lucro. La notizia, lanciata online dal sito The Information, troverebbe riscontro anche nella recente nomina di Paul M. Nakasone, ex capo della National Security Agency americana (Nsa), quale nuovo membro del consiglio di amministrazione. Stando alla fonte, il Cda non controllerebbe la nuova struttura ma lascerebbe la gestione ad un nuovo consiglio, da affiancare a quello esistente.

Inoltre, per Altman uno dei possibili scenari presi in considerazione sarebbe un’organizzazione societaria aperta a varie opportunità di investimento. Tutto molto simile alla configurazione attuale di Anthropic, sostenuta da Amazon ma anche dalla creatura xAI di Elon Musk. The Information afferma che le entrate annuali di OpenAI sono più che raddoppiate rispetto allo scorso anno, raggiungendo i 3,4 miliardi di dollari. Le discussioni sulla ristrutturazione interna sono ancora in essere, tanto che OpenAI, raggiunta da Reuters, ha spiegato: “Rimaniamo concentrati sulla creazione di un’intelligenza artificiale a vantaggio di tutti. L’organizzazione no-profit è al centro della nostra missione e continuerà ad esserlo”.

Nel recente passato, proprio Elon Musk era stato critico con la compagnia, denunciando il cambio repentino di prospettiva dopo il forte contributo economico ricevuto da Microsoft. Per l’imprenditore, la collaborazione tra OpenAI e il colosso di Redmond potrebbe portare allo sviluppo di un’IA proprietaria, più attenta a favorire gli interessi economici dei fautori che quelli dell’umanità in generale, tradendo così gli obiettivi posti alla base dell’operato del creatore di ChatGpt.

Continua a leggere

Politica

Meta posticipa il lancio dei modelli di AI in Europa dopo reclami sulla privacy

Pubblicato

del

Meta ha deciso di non lanciare per il momento i suoi modelli di Intelligenza Artificiale (IA) in Europa. La decisione arriva dopo la richiesta dell’autorità irlandese di regolamentazione della privacy di ritardare i piani per utilizzare i dati degli utenti di Facebook e Instagram.

Il colosso tecnologico ha preso questa decisione a seguito delle denunce e degli appelli del gruppo ‘Noyb’ alle autorità per la protezione dei dati di undici paesi europei, tra cui Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna. Il gruppo Noyb, il cui acronimo significa “None of Your Business”, ha presentato reclami in questi paesi affermando che il cambiamento della policy di Meta per addestrare un tipo “indefinito” di tecnologia IA è illegale.

Nelle ultime settimane, il gruppo Noyb ha formalizzato numerose denunce contro Meta, sostenendo che l’utilizzo dei dati degli utenti per l’addestramento dell’IA violi le normative europee sulla privacy. Le denunce sono seguite a un recente annuncio di Meta che informava gli utenti europei di un cambiamento nella sua politica sulla privacy a partire dal 26 giugno.

La Commissione irlandese per la protezione dei dati (Dpc) ha dichiarato di accogliere con favore la decisione di Meta di sospendere i suoi piani per l’addestramento del modello linguistico utilizzando contenuti pubblici condivisi dagli adulti su Facebook e Instagram in tutta l’UE/SEE. “Questa decisione fa seguito a un intenso impegno tra il Dpc e Meta”, ha aggiunto il Garante, sottolineando che continuerà a collaborare con Meta su questo tema insieme alle altre autorità di protezione dei dati dell’UE.

Meta, in un post ufficiale, ha ribadito la sua fiducia nella conformità dei suoi approcci alle leggi e ai regolamenti europei. L’azienda ha sottolineato che l’addestramento dell’IA non è un’esclusiva dei loro servizi e che sono più trasparenti rispetto a molti dei loro omologhi del settore. Meta ha inoltre espresso la sua intenzione di continuare a collaborare con il Dpc per garantire che le persone in Europa abbiano accesso allo stesso livello di innovazione nell’intelligenza artificiale del resto del mondo.

Continua a leggere

In rilievo

error: Contenuto Protetto