Collegati con noi

Tecnologia

Google: nel 2018 bloccati 2,3 mld di annunci ingannevoli

Pubblicato

del

Nel 2018 Google ha bloccato 2,3 miliardi di annunci pubblicitari ingannevoli o pericolosi, oltre 6 milioni al giorno. Quasi 207.000 erano annunci per la rivendita di biglietti, oltre 531.000 di prestiti per cauzioni e circa 58,8 milioni legati ad attivita’ di phishing. Lo rende noto la societa’ nel report periodico Trust and Safety Ads. “Continuiamo ad essere impegnati nella lotta alla disinformazione e ai siti di bassa qualita’”, spiega Scott Spencer, Director of Sustainable Ads di Google. Nel rapporto, Google spiega anche di aver sventato una grande operazione di frode pubblicitaria in collaborazione con Fbi e la societa’ di cybersecurity White Ops. Con il nome in codice ‘3ve’, l’operazione usava tattiche sofisticate per sfruttare data center, pc infettati, domini fraudolenti e siti falsi. In totale, ha prodotto piu’ di 10.000 domini contraffatti e generato oltre 3 miliardi di richieste di annuncio al giorno. Sono state denunciate otto persone per reati che includevano il furto di identita’ aggravato e il riciclaggio di denaro.

“Nel 2018 – aggiunge Scott Spencer – abbiamo affrontato nuove sfide legate a situazioni in cui la pubblicita’ online avrebbe potuto danneggiare gli utenti offline”. Per esempio, puntualizza, Google ha creato una nuova policy che vieta la pubblicita’ a chi propone prestiti per le cauzioni (bail bond) perche’ si e’ resa conto che in questo settore “c’era chi si stava approfittando di utenti piu’ vulnerabili”. Allo stesso modo, “quando abbiamo visto un aumento di annunci ingannevoli rivolti a utenti che cercavano servizi di riabilitazione per le dipendenze ci siamo consultati con esperti del settore e abbiamo limitato l’uso della pubblicita’ alle sole organizzazioni certificate”. In totale, nel 2018, Google ha introdotto 31 nuove policy pubblicitarie “per contrastare abusi in aree quali il supporto tecnico di terze parti, i rivenditori di biglietti online, le criptovalute e alcuni servizi locali, le cauzioni e le strutture di riabilitazione per le dipendenze”. Nel 2018, inoltre, Google ha rimosso gli annunci da circa 1,2 milioni di pagine, da oltre 22.000 app e da quasi 15.000 siti nella sua rete pubblicitaria “per violazione delle policy che riguardano contenuti inappropriati, di scarsa qualita’ o che promuovono messaggi d’odio”. Google, infine, ribadisce il suo impegno a segnalare siti che diffondono fake news ma anche ad indagare sulle identita’ dell’inserzionista di un annuncio politico. Negli Usa, per le elezioni di meta’ mandato, sono stati controllati quasi 143.000 annunci elettorali. In generale i controlli, sottolinea la societa’, sono fatti con un misto di revisioni manuali e un sistema di machine learning, cioe’ la tecnologia di apprendimento automatico. Grazie a quest’ultima Big G e’ stata in grado di “identificare e chiudere quasi un milione di account malevoli, quasi il doppio rispetto agli account bloccati nel 2017”.

Advertisement

Politica

IA e disinformazione, governo affida studio a Fondazione Kessler

Pubblicato

del

Il governo commissiona uno studio di livello accademico per approfondire la conoscenza del fenomeno della disinformazione online alla Fondazione Bruno Kessler. L’incarico, per un importo non superiore a 52.900 euro più Iva, riguarda lo svolgimento, da parte della fondazione e del suo Centro per la Cyber Security, di “un’attività di studio riguardante lo sviluppo di algoritmi di machine learning accurati ed affidabili, grazie a processi di addestramento che utilizzano dati di alta qualità, assicurando al contempo adeguate garanzie di sicurezza e privacy”.

La fondazione di Trento, presieduta da Ferruccio Resta, è stata scelta in quanto “ha una consolidata esperienza nell’uso del machine learning per combattere la disinformazione online”, come si legge nella decisione di contrarre del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio. “Lo studio – specifica il provvedimento – dovrebbe, tra l’altro, fornire indicazioni su come far crescere la consapevolezza nei cittadini dei vantaggi e dei rischi nell’uso di tecniche di intelligenza artificiale che sono state addestrate su dati di dubbia origine e raccolti con tecniche poco strutturate e, altresì, delineare le conoscenze che giornalisti e professionisti dei media dovrebbero possedere circa i problemi che l’utilizzo di tali algoritmi comporta”.

Continua a leggere

Tecnologia

Dal supercomputer dei record la più grande simulazione del cosmo

Pubblicato

del

Realizzata la più grande simulazione astrofisica dell’universo grazie a Frontiers, il supercomputer dei record (attualmente il secondo più veloce al mondo) installato presso l’Oak Ridge National Laboratory negli Stati Uniti. Il progetto, chiamato ExaSky, aiuterà astrofisici e cosmologi a capire meglio l’evoluzione e la fisica dell’universo, accelerando le ricerche sulla natura misteriosa della materia oscura. “Ci sono due componenti nell’universo: la materia oscura, che per quanto ne sappiamo interagisce solo gravitazionalmente, e la materia convenzionale, o materia atomica”, spiega il coordinatore del progetto Salman Habib, fisico dell’Argonne National Laboratory negli Stati Uniti.

“Quindi, se vogliamo sapere cosa sta facendo l’universo, dobbiamo simulare entrambe queste cose: la gravità e tutta l’altra fisica, tra cui il gas caldo e la formazione di stelle, buchi neri e galassie. Queste simulazioni sono ciò che chiamiamo simulazioni di idrodinamica cosmologica”. Le simulazioni fatte finora omettevano molte delle variabili che compongono le simulazioni idrodinamiche. “Se dovessimo simulare una grande porzione dell’universo esaminata da uno dei grandi telescopi come l’Osservatorio Rubin in Cile, si tratterebbe di guardare enormi porzioni di tempo, miliardi di anni di espansione”, afferma Habib. “Fino a poco tempo fa non potevamo nemmeno immaginare di fare una simulazione così grande se non nella sola approssimazione gravitazionale”.

Ci sono voluti anni di perfezionamento degli algoritmi, e tutti gli aggiornamenti che hanno reso Frontier il supercomputer più veloce al mondo al momento della simulazione, per aumentare le dimensioni del modello e arrivare a rappresentare un volume dell’universo in espansione pari a oltre 31 miliardi di megaparsec cubici. Il team ha già condiviso un piccolo assaggio della simulazione in un video che mostra un enorme ammasso di galassie che si uniscono in un volume di 311.296 megaparsec cubici, pari a solo lo 0,001% dell’intero volume della simulazione.

Continua a leggere

Salute

Decodificare il cervello è la sfida di IA e neuroscienze

Pubblicato

del

Decodificare il cervello umano è la nuova sfida che Intelligenza artificiale e neuroscienze hanno deciso di affrontare insieme, scambiandosi strumenti e idee fino a trovare la chiave per scoprire i segreti del più complesso degli organi. A dare il via a quella che i ricercatori considerano già una rivoluzione è la proposta lanciata dall’Ebri, l’Istituto europeo per le ricerche sul cervello voluto da Rita Levi Montalcini. “L’idea è approfondire il rapporto bidirezionale fra le neuroscienze e l’intelligenza artificiale”, ha detto il presidente dell’Ebri Antonino Cattaneo, che ha lanciato la proposta nel convegno che l’istituto ha organizzato in collaborazione con l’Ambasciata di Spagna per i 90 anni dalla morte di Santiago Ramón y Cajal, Nobel per la Medicina nel 1906 e pioniere delle neuroscienze.

“Da un lato le neuroscienze stanno compiendo progressi enormi nelle conoscenze a livello genetico, biofisico e di imaging, dall’altro – ha aggiunto Cattaneo – stiamo assistendo a una rivoluzione nell’intelligenza. Vogliamo che le due comunità si parlino e una delle strade per raggiungere questo obiettivo è formare una nuova generazione di studenti e giovani ricercatori che sappiano parlare le due lingue”. Si tratta di far dialogare i meccanismi che controllano i neuroni con gli algoritmi dell’intelligenza artificiale per arrivare a una comprensione del cervell, come finora non è mai stata raggiunta. Per questo motivo vanno promossi nuovi percorsi di studio, come dottorati di ricerca fondati su questa interazione, ha proposto l’Ebri a università ed enti di ricerca presenti al convegno, come Sapienza Università di Roma, Consiglio Nazionale delle Ricerche, Istituto Nazionale di Fisica Nucleare.

Si tratta perciò di fare in modo che i ricercatori di entrambe le aree entrino in campo e lavorino insieme, sforzandosi di capire e di imparare il linguaggio degli altri. “Non deve essere qualcosa da fare occasionalmente”, ha aggiunto Cattaneo, ma “si tratta di creare un circuito virtuoso per accelerare la nostra comprensione del cervello e ispirare una nuova generazione di metodi computazionali per il beneficio della società”. Le possibili ricadute potrebbero riguardare anche la comprensione di molte malattie neurologiche o neurodegenerative. ‘Codice neurale’ e ‘decodificare il cervello’ sono i due concetti al centro di questo circolo virtuoso. “Il codice neurale – ha proseguito Cattaneo – è un insieme di regole per cui, dato un input, si genera una percezione in un output cognitivo che può essere un pensiero, un movimento oppure un’azione: è alla base della comprensione del cervello. Dato un codice è importante decodificarlo, ed è quello che fanno gli algoritmi dell’intelligenza artificiale”. In sostanza, grazie ai progressi nelle neuroscienze si stanno si ampliando i fenomeni che potrebbero essere letti dall’IA perché i neuroni non sono legati soltanto all’attività elettrica, ma a processi biochimici e molecolari, alla modulazione dell’espressione genica: “se anche queste conoscenze si incorporassero negli algoritmi potremmo raggiungere un livello di comprensione ulteriore”, ha osservato il presidente dell’Ebri. In seguito si potrebbe passare dal livello dei neuroni a quello delle loro connessioni, le sinapsi.

Continua a leggere

In rilievo

error: Contenuto Protetto