Collegati con noi

Tecnologia

Il primo test per difendere la Terra dagli asteroidi

Pubblicato

del

Finora poter deviare la traiettoria di un asteroide minaccioso per la Terra era fantascienza, ma questa notte accadra’ davvero a 13 milioni di chilometri dalla Terra, nel primo esperimento di difesa planetaria. Alle 1,14 italiane la sonda Dart (Double Asteroid Redirection Test) della Nasa impattera’ contro il piccolo asteroide Dimorphos per deviarne la traiettoria, mentre il minisatellite LiciaCube dell’Agenzia Spaziale Italiana (Asi) sfreccera’ sul luogo della collisione per catturare le primissime immagini e i dati, come un fotoreporter cosmico. Finanziato dall’Asi e realizzato dall’azienda Argotec di Torino, LiciaCube e’ il frutto di un grande gioco di squadra al quale partecipano Istituto Nazionale di Astrofisica, Politecnico di Milano, Universita’ di Bologna, Universita’ Parthenope di Napoli e Istituto di Fisica Applicata ‘Nello Carrara’ del Consiglio Nazionale delle Ricerche (Cnr-Ifac). Lanciato il 24 novembre 2021 con la sonda Dart, LiciaCube e’ gia’ vicina a un primato: diventera’ “il primo satellite tutto italiano a operare in totale autonomia da una distanza alla quale nessun veicolo italiano si era mai avventurato, e che sara’ gestito da un centro di controllo in Italia”, ha detto Simone Pirrotta, responsabile della missione LiciaCube per l’Asi. “Mentre la sonda Dart si avvicinera’ al suo obiettivo, continuera’ a catturare immagini dell’asteroide fino a pochi secondi prima dell’impatto, poi il segnale si interrompera’”, ha detto Pirrotta. Quel silenzio sara’ il segnale che la sonda non e’ piu’ funzionante e che probabilmente avra’ raggiunto il suo obiettivo. “In quel momento – ha osservato l’esperto – LiciaCube sara’ a poco meno di mille chilometri dal punto dell’impatto e potrebbe vedere un leggero aumento della luminosita’”. Non e’ pero’ sicuro che questo possa accadere in quanto gli strumenti di LiciaCube acquisiscono le immagini con una cadenza prestabilita. Se l’impatto dovesse accadere in uno dei momenti previsti per l’acquisizione delle immagini, allora “questo sara’ un valore aggiunto”. Il minisatellite italiano comincera’ a catturare le prime immagini a partire da tre minuti dopo l’impatto di Dart, che arriveranno a Terra dopo alcune ore. Alla velocita’ di 6 chilometri al secondo, LiciaCube dovra’ modificare il suo assetto per catturare le immagini del luogo dell’impatto: “sara’ come guidare in autostrada e girare la testa per guardare un oggetto fermo al lato della strada”, ha detto Pirrotta. “Con il suo reportage in tempo reale, LiciaCube fornira’ informazioni quantitative sull’efficacia della tecnica di deflessione, cosa che ai telescopi basati a Terra richiedera’ un certo tempo, e sulla natura dell’asteroide”, ha detto ancora Pirrotta. Poco dopo il minisatellite si allontanera’, rivolgendo i suoi strumenti verso il lato dell’asteroide che Dart non ha potuto vedere: in modo da” ricostruire la forma dell’asteroide per classificarlo scientificamente”. Sara’ l’inizio di una nuova stagione di missioni dedicate alla difesa planetaria: dopo Dart, nel 2024 l’Agenzia Spaziale Europea (Esa) prevede di lanciare Hera, la missione che dovra’ esaminare e misurare il cratere lasciato dall’impatto di Dart e raccogliere dati su composizione e massa dell’asteroide. Con Dart e LiciaCube, Hera fa parte della collaborazione internazionale Aida (Asteroid Impact and Deflection Assessment), nella quale confluiranno i dati raccolti nelle tre missioni.

Advertisement

In Evidenza

Google, con l’IA riaccende ricerca e assistenti vocali

Pubblicato

del

L’intelligenza artificiale che si espande ulteriormente nella ricerca, assistenti digitali che parlano e vedono rendendo sempre più reale lo scenario del film Her. E’ la visione “multimodale” di Google presentata alla Conferenza degli sviluppatori, con cui la società di Mountain View sfida OpenAI e Apple. “Investiamo nell’intelligenza artificiale da più di dieci anni – dice il Ceo Sundar Pichai – Siamo in piena era Gemini”. Google inserirà sempre di più l’intelligenza artificiale generativa nella ricerca, il suo corebusiness da oltre 25 anni.

L’azienda apre a più utenti (“negli Stati Uniti e in futuro ad altri paesi”) le Overview, dei riepiloghi già testati in maniera ristretta: ad una domanda dell’utente offrono una panoramica di più siti e argomenti per risposte più esaustive. Inoltre, grazie a Gemini si potranno formulare in una volta sola domande più complesse e porre questioni anche usando i video. “Contiamo di portarlo a più di un miliardo di persone entro la fine dell’anno”, dice Liz Reid a capo della ricerca Google. L’evento è una rassegna di come l’IA di Gemini prevederà sempre di più i prodotti della società. Gli ‘AI Agents’, così li chiama l’azienda, sono “sistemi intelligenti che faranno il lavoro per noi sotto la nostra supervisione”. Ed ecco allora Project Astra, un assistente digitale multimodale che elabora cioè testo, voce e immagini in tempo reale mentre interagiamo, capendo anche il contesto. In un video Big G lo fa vedere all’opera su smartphone ma anche su lenti smart, riportando così alla memoria i vecchi Google Glass. Astra è la risposta a Gpt-4o lanciato proprio 24 ore fa da OpenAI e in attesa di vedere come anche Apple cambierà il suo assistente Siri con l’IA.

Grazie a Gemini, viene aggiornato anche Google Foto con la funzione ‘Ask’, chiedi a Foto. Nelle gallerie di immagini che tutti noi abbiamo sui dispositivi si potrà trovare più semplicemente una foto formulando una richiesta a voce, senza dover passare in rassegna manualmente immagini e video. “Le vostre foto e i vostri video non vengono mai utilizzati per la pubblicità. E nessuno esaminerà le vostre conversazioni”, specifica la società. Nel corso della conferenza degli sviluppatori, Google ha lanciato anche Veo, la risposta al generatore di video di OpenAI che si chiama Sora, e Imagen 3 che è la versione più avanzata di generazione di foto attraverso un testo. E inizia a collaborare con alcuni musicisti grazie a Music AI Sandbox, un insieme di strumenti che aiutano a comporre.

Una mossa, grazie anche alla sperimentazione con il musicista vincitore di Grammy Wyclef Jean, per rassicurare il mondo degli artisti riguardo gli effetti dell’intelligenza artificiale sulla creatività. “Vogliamo farlo responsabilmente ascoltando il loro feedback”, afferma il vice presidente Product management Eli Collins. Gemini, inoltre, si espande anche ai luoghi di lavoro. La versione 1.5 Pro, ad esempio, entra nelle mail per un sommario oppure fornisce i momenti clou di una riunione o scrive un riassunto. Arriva anche Gemini 1.5 Flash “più veloce e efficiente”, mentre Gemini Advanced da oggi è disponibile in lingua italiana. Infine, Google annuncia Trillium, la sesta generazione di processori, un acceleratore per il Cloud con l’intelligenza artificiale, “più performante e ad alta efficienza energetica”.

Continua a leggere

In Evidenza

OpenAI svela nuovo modello di IA, fa da assistente vocale

Pubblicato

del

OpenAI lancia GPT-4o, un nuovo modello di Intelligenza artificiale generativa accessibile a tutti gratuitamente, che sarà implementato sui prodotti dell’azienda nelle prossime settimane. Lo ha reso noto la società nell’evento ‘Spring update’ a San Francisco. Il software avrà capacità più avanzate nella produzione e comprensione di testo, immagini e anche voce, diventando così un assistente vocale.

“Siamo molto, molto entusiasti di portare GPT-4o a tutti i nostri utenti gratis”, ha affermato Mira Murati, Chief Technology Officer della società, che ha comunque sottolineato come “gli utenti paganti continueranno a beneficiare di potenzialità cinque volte più elevate”.

GPT-4o migliora dunque le capacità del modello precedente GPT-4 aggiungendo la voce. I ricercatori di OpenAI hanno mostrato le nuove funzionalità: in una dimostrazione è stato in grado di leggere una favola della buonanotte con voci, emozioni e toni diversi. In una seconda dimostrazione, l’assistente vocale ChatGpt ha utilizzato le sue capacità visive per risolvere un’equazione matematica scritta su un foglio di carta. Oltre al lancio di GPT-4o, OpenAI nel corso dell’evento ha rilasciato anche la versione desktop di ChatGpt e una interfaccia utente aggiornata. “Sappiamo che questi modelli sono sempre più complessi, ma vogliamo che l’esperienza di interazione diventi effettivamente più naturale in modo che l’utente si concentri solo sulla collaborazione”, ha detto Murati.

OpenAI, che ha rivoluzionato nel novembre del 2022 il settore della tecnologia con ChatGpt lanciando il guanto di sfida ai big, è ora sotto pressione per espandere la base di utenti. Poco dopo il lancio, il chatbot è stato definita l’applicazione più veloce a raggiungere 100 milioni di utenti attivi mensili. Tuttavia, secondo la società di analisi Sameweb, il traffico mondiale è stato sulle montagne russe nell’ultimo anno e solo ora sta tornando al picco di maggio 2023. L’annuncio del nuovo modello di Intelligenza artificiale arriva alla vigilia della conferenza sviluppatori di Google in cui sono attesi nuovi dettagli sull’IA della società.

Continua a leggere

Tecnologia

TikTok, etichette anche per i contenuti terzi generati dall’IA

Pubblicato

del

TikTok inizia ad etichettare automaticamente i contenuti generati dall’intelligenza artificiale, caricati da altre piattaforme. Lo annuncia la società, specificando che si avvale di un accordo con la Coalition for Content Provenance and Authenticity (C2PA), un consorzio di big della tecnologia, di cui fanno parte anche Adobe, Google, Meta e Microsoft, che promuove l’adozione di strumenti di tracciamento per contrastare la diffusione di deepfake e disinformazione online. L’identificazione dei contenuti generati dall’IA fatti dai creators della piattaforma sono invece iniziati già lo scorso settembre.

“L’IA offre opportunità creative ma, se non si sa che il contenuto è stato generato dall’intelligenza artificiale, gli utenti possono esserne confusi o fuorviati. Le etichette aiutano a rendere chiaro il contesto”, spiega la società che si dichiara “la prima piattaforma di condivisione video a implementare la tecnologia Content Credentials”.

Lo strumento consente di allegare “i metadati per riconoscere ed etichettare istantaneamente i contenuti generati dall’intelligenza artificiale, nei prossimi mesi – aggiunge – inizieremo ad allegare le Content Credentials ai contenuti di TikTok, in cui rimarranno anche una volta scaricati per sapere quando, dove e come è stato creato o modificato il contenuto”.

Per contribuire all’adozione delle Content Credentials, TikTok aderisce anche alla Content Authenticity Initiative (Cai) guidata da Adobe. Infine, per aiutare gli utenti della piattaforma a orientarsi in questo genere di contenuti, TikTok sta lanciando una campagna di alfabetizzazione digitale con la guida di esperti come Mediawise. “L’obiettivo – spiega – è di aiutare la nostra community non solo a identificare i contenuti generati dall’IA ma anche ad applicare il pensiero critico nel contesto della disinformazione”.

Continua a leggere

In rilievo

error: Contenuto Protetto