Collegati con noi

Tecnologia

Hubble ‘assaggia’ i pianeti soffici come zucchero filato

Pubblicato

del

I pianeti soffici e leggeri come zucchero filato esistono davvero, al di fuori del Sistema Solare. La conferma arriva dal telescopio spaziale Hubble, di Nasa e Agenzia Spaziale Europea (Esa), che per la prima volta ha provato ad ‘assaggiare’ la loro atmosfera per scoprirne la composizione chimica: lo ha fatto con due giovani mondi alieni, chiamati Kepler-51 b e Kepler-51 d, localizzati a 2.400 anni luce da noi. Lo studio, coordinato dall’Universita’ del Colorado a Boulder, e’ riportato sul sito arXiv in attesa della pubblicazione ufficiale su The Astronomical Journal. Le osservazioni di Hubble hanno permesso innanzitutto di confermare l’esistenza di questa rara classe di pianeti soffici, di cui ad oggi si conoscono poco piu’ di dieci esemplari. Quelli del sistema planetario Kepler-51, in particolare, sono grandi come Giove sebbene quasi cento volte piu’ leggeri: le nuove stime, raffinate rispetto alle precedenti del 2014, parlano di una densita’ inferiore a 0,1 grammi per centimetro cubo, proprio come lo zucchero filato che si compra alle fiere. Lo spettro di luce della stella madre, filtrato attraverso la loro atmosfera, non ha permesso di svelare ‘spie’ della loro composizione chimica. Usando simulazioni al computer, i ricercatori hanno teorizzato che i pianeti sarebbero composti in prevalenza da idrogeno ed elio, schermati da una spessa coltre di metano. Entrambi stanno perdendo gas rapidamente: quello piu’ vicino alla stella madre rilascia nello spazio decine di miliardi di tonnellate di materiale al secondo. Se questo trend verra’ mantenuto, i pianeti si sgonfieranno in modo significativo nel prossimo miliardo di anni perdendo la loro peculiare consistenza. Alla fine diventeranno simili a una classe di esopianeti molto piu’ comune, quella dei ‘mini-Nettuno’.

Advertisement

In Evidenza

Intelligenza artificiale e guerra: il modello Claude sarebbe stato usato dagli Usa per orientare l’attacco all’Iran

Il modello di intelligenza artificiale Claude sarebbe stato usato dagli Stati Uniti per analizzare intelligence e selezionare obiettivi nell’attacco all’Iran.

Pubblicato

del

Il modello di intelligenza artificiale Claude, sviluppato dalla società americana Anthropic, sarebbe stato utilizzato dagli Stati Uniti per supportare l’analisi di intelligence e l’individuazione degli obiettivi nell’attacco contro l’Iran.

La notizia è stata riportata da diversi media statunitensi e non ha ancora ricevuto conferme ufficiali da Washington. Secondo le ricostruzioni giornalistiche, il sistema sarebbe stato impiegato per analizzare grandi quantità di dati e simulare scenari operativi prima dell’intervento militare.

Il paradosso del divieto imposto da Trump

La possibile utilizzazione del sistema assume un rilievo particolare perché, alla vigilia dell’operazione militare, il presidente degli Stati Uniti Donald Trump aveva ordinato a tutte le agenzie federali di interrompere l’uso della piattaforma.

Trump aveva definito Anthropic una società di intelligenza artificiale “di sinistra radicale” e aveva disposto la sospensione dei rapporti con l’azienda.

Nonostante il bando, fonti citate dai media americani sostengono che il modello sarebbe stato comunque impiegato nelle operazioni militari, almeno nella fase di analisi dei dati e nella selezione dei bersagli.

Che cos’è Claude

Claude è una famiglia di modelli linguistici generativi sviluppata da Anthropic e lanciata nel 2023. Il sistema è progettato per analizzare grandi quantità di informazioni e generare risposte complesse, con applicazioni che vanno dall’analisi di documenti alla programmazione e alla ricerca.

Nel settore della sicurezza nazionale il modello è stato utilizzato anche in programmi classificati del governo americano, grazie a partnership con aziende tecnologiche e contractor della difesa.

Il precedente del raid in Venezuela

Secondo alcune ricostruzioni giornalistiche, Claude sarebbe stato già utilizzato in un’operazione militare precedente, il blitz condotto dagli Stati Uniti in Venezuela per catturare il presidente Nicolás Maduro.

In quell’occasione l’intelligenza artificiale sarebbe stata impiegata per analizzare dati e supportare la pianificazione operativa.

Il ruolo delle aziende tecnologiche nella difesa

L’eventuale utilizzo del modello si inserisce in un quadro più ampio di collaborazione tra il Pentagono e le grandi aziende tecnologiche.

Anthropic, insieme ad altre società del settore, aveva ottenuto contratti milionari per lo sviluppo di sistemi di intelligenza artificiale destinati alle agenzie di sicurezza e alla difesa.

Per le operazioni militari il Dipartimento della Difesa si appoggerebbe anche a contractor specializzati nell’analisi dei dati e nella gestione di piattaforme di intelligence avanzate.

I limiti etici posti da Anthropic

Anthropic ha più volte dichiarato di non consentire l’uso dei propri modelli per applicazioni militari letali o per sistemi d’arma completamente autonomi.

Queste restrizioni hanno provocato tensioni con il Pentagono e con l’amministrazione americana, che chiedeva maggiore libertà di utilizzo dei sistemi di intelligenza artificiale.

Il nuovo fronte della guerra tecnologica

L’episodio evidenzia come l’intelligenza artificiale stia diventando uno degli strumenti centrali della guerra contemporanea.

Sistemi di analisi automatica dei dati, simulazioni operative e supporto decisionale basati su AI stanno entrando sempre più nei processi militari, aprendo al tempo stesso nuovi interrogativi etici e giuridici sull’utilizzo della tecnologia nei conflitti armati.

Continua a leggere

Esteri

OpenAI sostituisce Anthropic nelle reti segrete del Pentagono: scontro legale con l’amministrazione Trump

OpenAI subentra ad Anthropic nella fornitura di modelli IA per le reti cloud classificate del Pentagono. Annunciato ricorso in tribunale contro il divieto imposto dall’amministrazione Trump.

Pubblicato

del

Sarà OpenAI, guidata da Sam Altman, a fornire i modelli di intelligenza artificiale per le reti cloud ad alta segretezza del Pentagono, sostituendo Anthropic, la società fondata dall’italoamericano Dario Amodei.

Ad annunciare l’accordo è stato lo stesso Altman, parlando di “profondo rispetto per la sicurezza” e assicurando l’introduzione di misure di salvaguardia tecnica. Tra i principi richiamati figurano il divieto della sorveglianza di massa a livello nazionale e la necessità di mantenere una responsabilità umana nell’uso della forza, inclusi eventuali sistemi d’arma autonomi.

I paletti etici e la rottura

Alla base della sostituzione vi è la rottura tra Anthropic e l’amministrazione guidata da Donald Trump. La startup sviluppatrice del sistema Claude aveva fissato limiti che precludevano l’impiego dei propri modelli per sorveglianza di massa e per armamenti completamente autonomi.

Una posizione giudicata troppo rigida da Washington, con il presidente che sui social ha annunciato la cessazione immediata dell’uso della tecnologia Anthropic da parte di qualsiasi agenzia federale. Il Pentagono ha inoltre classificato la società come “supply chain risk”, applicando una procedura finora riservata a imprese straniere considerate a rischio per la sicurezza nazionale.

La battaglia legale annunciata

Anthropic ha reagito denunciando “intimidazioni” e annunciando il ricorso in tribunale contro il divieto. Secondo la società, la designazione come fornitore rischioso poggerebbe su basi giuridiche deboli.

Lo scontro si inserisce in un contesto delicato per la sicurezza statunitense. Il modello Claude, secondo quanto riferito, era l’unico sistema di IA utilizzato in alcune operazioni classificate. Il senatore democratico Mark Warner ha parlato di un “rischio enorme per la capacità di risposta rapida” degli Stati Uniti.

Il ruolo del Dipartimento della Guerra

La decisione è maturata sotto la supervisione del segretario alla Guerra Pete Hegseth, che ha criticato duramente Anthropic per la sua posizione.

Il cambio di fornitore arriva in una fase di forte tensione internazionale, con gli Stati Uniti impegnati in operazioni militari congiunte nella regione mediorientale.

La vicenda apre un nuovo fronte nel dibattito sull’uso dell’intelligenza artificiale in ambito militare e sulla compatibilità tra esigenze di sicurezza nazionale e principi etici dichiarati dalle aziende tecnologiche.

Continua a leggere

In Evidenza

Reti mobili 2025, Bari la più veloce d’Italia: Napoli ultima per download

Campagna 2025 Misura Internet Mobile: Bari guida le città italiane per velocità in download con 416 Mbps, Napoli ultima con 284 Mbps. Media nazionale a 331 Mbps.

Pubblicato

del

Bari è la città italiana con la rete mobile più veloce in download: 416 Mbps. Napoli, invece, registra il dato più basso tra le città monitorate, con 284 Mbps.

I numeri emergono dalla campagna 2025 di Misura Internet Mobile, progetto realizzato dalla Fondazione Ugo Bordoni su incarico dell’Autorità per le Garanzie nelle Comunicazioni.

La rilevazione è stata effettuata tra settembre e dicembre 2025 in 45 città italiane, con drive test basati sul principio della “best technology” disponibile, includendo anche le reti 5G.

La media nazionale

La velocità media in download, nelle misure statiche, si attesta a circa 331 Mbps. In upload la media è pari a 58 Mbps.

Tra le principali città:

  • Roma registra 325 Mbps in download e 52 Mbps in upload;

  • Milano 329 Mbps in download e 64 Mbps in upload.

Gli operatori coinvolti

Le elaborazioni hanno riguardato le reti degli operatori Fastweb, Iliad, Vodafone, Wind Tre e Voim, tutti con copertura della popolazione almeno pari al 50% tramite infrastruttura propria.

Divari territoriali

Il confronto tra Bari e Napoli evidenzia un divario significativo nelle prestazioni, nonostante entrambe siano grandi aree urbane del Mezzogiorno. Il dato conferma come la qualità delle reti mobili possa variare sensibilmente a livello locale, in funzione di densità di infrastrutture, traffico e investimenti. La fotografia 2025 restituisce un’Italia mediamente performante sulle reti mobili, ma ancora caratterizzata da differenze tra città.

Continua a leggere
error: Contenuto Protetto