Collegati con noi

Tecnologia

TikTok, etichette anche per i contenuti terzi generati dall’IA

Pubblicato

del

TikTok inizia ad etichettare automaticamente i contenuti generati dall’intelligenza artificiale, caricati da altre piattaforme. Lo annuncia la società, specificando che si avvale di un accordo con la Coalition for Content Provenance and Authenticity (C2PA), un consorzio di big della tecnologia, di cui fanno parte anche Adobe, Google, Meta e Microsoft, che promuove l’adozione di strumenti di tracciamento per contrastare la diffusione di deepfake e disinformazione online. L’identificazione dei contenuti generati dall’IA fatti dai creators della piattaforma sono invece iniziati già lo scorso settembre.

“L’IA offre opportunità creative ma, se non si sa che il contenuto è stato generato dall’intelligenza artificiale, gli utenti possono esserne confusi o fuorviati. Le etichette aiutano a rendere chiaro il contesto”, spiega la società che si dichiara “la prima piattaforma di condivisione video a implementare la tecnologia Content Credentials”.

Lo strumento consente di allegare “i metadati per riconoscere ed etichettare istantaneamente i contenuti generati dall’intelligenza artificiale, nei prossimi mesi – aggiunge – inizieremo ad allegare le Content Credentials ai contenuti di TikTok, in cui rimarranno anche una volta scaricati per sapere quando, dove e come è stato creato o modificato il contenuto”.

Per contribuire all’adozione delle Content Credentials, TikTok aderisce anche alla Content Authenticity Initiative (Cai) guidata da Adobe. Infine, per aiutare gli utenti della piattaforma a orientarsi in questo genere di contenuti, TikTok sta lanciando una campagna di alfabetizzazione digitale con la guida di esperti come Mediawise. “L’obiettivo – spiega – è di aiutare la nostra community non solo a identificare i contenuti generati dall’IA ma anche ad applicare il pensiero critico nel contesto della disinformazione”.

Advertisement

In Evidenza

Ecco le app dell’IA per hacker: FraudGpt, XxxGpt e WolfGpt

Pubblicato

del

L’intelligenza artificiale generativa usata non solo per creare testi e foto ma anche virus e campagne malevoli. Lo hanno scoperto gli esperti di sicurezza di Check Point Software, capaci di individuare tre software divenuti famosi tra gli hacker. Si tratta di FraudGpt, XxxGpt e WolfGpt; nomi che fanno il verso al più famoso ChatGpt e che indicano come sia divenuto molto facile, anche per i non avvezzi alla tecnologia, creare minacce informatiche.

Per i ricercatori, FraudGpt è una piattaforma a cui ci si può abbonare, come qualsiasi altro servizio, e che permette di creare identità false, email di phishing, malware o utilizzare l’ingegneria sociale per ingannare gli utenti. “Tutto questo può essere fatto a un livello molto alto, in modo che anche persone con competenze tecniche minime possano portare a termine attacchi complessi” spiegano. XXXGpt è utilizzato dai criminali per generare codici che consentono di prendere il controllo remoto del dispositivo della vittima e di rubare, modificare o corrompere dati sensibili.

Questo tool può anche generare spyware, ransomware, keylogger e codici speciali per attacchi mirati. WolfGpt è noto per la sua complessità e architettura basata sul linguaggio di programmazione Python. Può creare malware criptato e campagne di phishing convincenti. Viene anche utilizzato per creare codici maligni destinati ai pos e per attacchi mirati ai bancomat, oppure per il riciclaggio di denaro e l’individuazione di punti deboli nelle reti aziendali. “L’ascesa di modelli avanzati di IA richiede un nuovo approccio alla sicurezza – sottolineano da Check Point Software – poiché le difese convenzionali sono insufficienti contro queste minacce complesse e adattive. Allo stesso tempo, devono essere affrontate le questioni etiche relative alla responsabilità e a come prevenire l’uso improprio dell’IA in generale”.

Continua a leggere

Tecnologia

OpenAI getta la maschera, il Ceo Sam Altman: da no-profit diventiamo società di lucro

Pubblicato

del

In un incontro con alcuni azionisti, Sam Altman, amministratore delegato di OpenAI, avrebbe riferito che l’azienda è pronta a trasformarsi da no-profit a compagnia a scopo di lucro. La notizia, lanciata online dal sito The Information, troverebbe riscontro anche nella recente nomina di Paul M. Nakasone, ex capo della National Security Agency americana (Nsa), quale nuovo membro del consiglio di amministrazione. Stando alla fonte, il Cda non controllerebbe la nuova struttura ma lascerebbe la gestione ad un nuovo consiglio, da affiancare a quello esistente.

Inoltre, per Altman uno dei possibili scenari presi in considerazione sarebbe un’organizzazione societaria aperta a varie opportunità di investimento. Tutto molto simile alla configurazione attuale di Anthropic, sostenuta da Amazon ma anche dalla creatura xAI di Elon Musk. The Information afferma che le entrate annuali di OpenAI sono più che raddoppiate rispetto allo scorso anno, raggiungendo i 3,4 miliardi di dollari. Le discussioni sulla ristrutturazione interna sono ancora in essere, tanto che OpenAI, raggiunta da Reuters, ha spiegato: “Rimaniamo concentrati sulla creazione di un’intelligenza artificiale a vantaggio di tutti. L’organizzazione no-profit è al centro della nostra missione e continuerà ad esserlo”.

Nel recente passato, proprio Elon Musk era stato critico con la compagnia, denunciando il cambio repentino di prospettiva dopo il forte contributo economico ricevuto da Microsoft. Per l’imprenditore, la collaborazione tra OpenAI e il colosso di Redmond potrebbe portare allo sviluppo di un’IA proprietaria, più attenta a favorire gli interessi economici dei fautori che quelli dell’umanità in generale, tradendo così gli obiettivi posti alla base dell’operato del creatore di ChatGpt.

Continua a leggere

Politica

Meta posticipa il lancio dei modelli di AI in Europa dopo reclami sulla privacy

Pubblicato

del

Meta ha deciso di non lanciare per il momento i suoi modelli di Intelligenza Artificiale (IA) in Europa. La decisione arriva dopo la richiesta dell’autorità irlandese di regolamentazione della privacy di ritardare i piani per utilizzare i dati degli utenti di Facebook e Instagram.

Il colosso tecnologico ha preso questa decisione a seguito delle denunce e degli appelli del gruppo ‘Noyb’ alle autorità per la protezione dei dati di undici paesi europei, tra cui Austria, Belgio, Francia, Germania, Grecia, Italia, Irlanda, Paesi Bassi, Norvegia, Polonia e Spagna. Il gruppo Noyb, il cui acronimo significa “None of Your Business”, ha presentato reclami in questi paesi affermando che il cambiamento della policy di Meta per addestrare un tipo “indefinito” di tecnologia IA è illegale.

Nelle ultime settimane, il gruppo Noyb ha formalizzato numerose denunce contro Meta, sostenendo che l’utilizzo dei dati degli utenti per l’addestramento dell’IA violi le normative europee sulla privacy. Le denunce sono seguite a un recente annuncio di Meta che informava gli utenti europei di un cambiamento nella sua politica sulla privacy a partire dal 26 giugno.

La Commissione irlandese per la protezione dei dati (Dpc) ha dichiarato di accogliere con favore la decisione di Meta di sospendere i suoi piani per l’addestramento del modello linguistico utilizzando contenuti pubblici condivisi dagli adulti su Facebook e Instagram in tutta l’UE/SEE. “Questa decisione fa seguito a un intenso impegno tra il Dpc e Meta”, ha aggiunto il Garante, sottolineando che continuerà a collaborare con Meta su questo tema insieme alle altre autorità di protezione dei dati dell’UE.

Meta, in un post ufficiale, ha ribadito la sua fiducia nella conformità dei suoi approcci alle leggi e ai regolamenti europei. L’azienda ha sottolineato che l’addestramento dell’IA non è un’esclusiva dei loro servizi e che sono più trasparenti rispetto a molti dei loro omologhi del settore. Meta ha inoltre espresso la sua intenzione di continuare a collaborare con il Dpc per garantire che le persone in Europa abbiano accesso allo stesso livello di innovazione nell’intelligenza artificiale del resto del mondo.

Continua a leggere

In rilievo

error: Contenuto Protetto