L'ex CEO di Google avverte: i modelli di intelligenza artificiale possono essere manipolati e possono insegnare cose pericolose
Eric Schmidt, ex amministratore delegato di Google, avverte che i modelli avanzati di intelligenza artificiale (AI) possono essere "scomposti" — cioè possono essere modificati in modo da superare i filtri di sicurezza che impediscono loro di fornire risposte pericolose.
In un discorso tenuto al Sifted Summit, ha spiegato che qualsiasi modello AI, sia esso pubblico o privato, può essere analizzato e riprodotto ("reverse-engineered"). In questo processo, i modelli possono arrivare a insegnare informazioni sensibili — inclusi metodi di violenza — che poi gli utenti potrebbero sfruttare.
Schmidt ha aggiunto che, sebbene le aziende cerchino di limitare questi rischi attraverso regole interne rigorose, il pericolo rimane: persone malintenzionate possono usare l'AI per scopi dannosi. Egli ritiene che il mondo abbia bisogno di un accordo globale per il controllo dello sviluppo e dell'uso dell'intelligenza artificiale, simile ai trattati internazionali che regolano le armi.
TikTok indirizza adolescenti di 13 anni verso contenuti sessuali espliciti
Un rapporto pubblicato da Global Witness mostra che l'algoritmo di suggerimenti di ricerca di TikTok ha suggerito termini sessualizzati agli utenti che si dichiaravano di 13 anni, anche se quegli account erano stati appena creati e utilizzavano la modalità "Restricted" destinata a limitare i contenuti per adulti. Nei test effettuati, i suggerimenti pornografici sono apparsi immediatamente dopo l'apertura della barra di ricerca, e in pochi clic gli utenti potevano accedere a contenuti espliciti.
Gli investigatori hanno affermato che l'algoritmo non solo consente l'accesso, ma indirizza attivamente gli adolescenti verso contenuti sessuali dannosi, mettendo in discussione la conformità di TikTok con la legislazione britannica Online Safety Act. TikTok ha risposto di aver rimosso i suggerimenti segnalati e di aver lanciato modifiche alla funzione di suggerimenti, ma il rapporto solleva seri interrogativi sull'efficacia delle misure di protezione per i minori.
Google: la legge australiana sull'uso dei social media da parte degli adolescenti – "molto difficile da applicare"
Google afferma che la legislazione australiana che intende vietare l'accesso ai social media per le persone sotto i 16 anni sarà "estremamente difficile" da applicare. L'azienda segnala che la decisione di non imporre controlli di età rigorosi — ma di basarsi su inferenze tramite intelligenza artificiale e comportamento — rende l'obiettivo della legge (proteggere i bambini) più illusorio che pratico.
I rappresentanti di YouTube sostengono che, sebbene l'intenzione del governo sia buona, le misure proposte non garantiscono una maggiore sicurezza online e possono avere conseguenze indesiderate. Google suggerisce che gli strumenti di sicurezza nell'ambiente digitale e il coinvolgimento dei genitori siano approcci più efficaci rispetto al blocco totale dell'accesso.
Meta incoraggia l'integrazione dell'AI in tutto il flusso di lavoro: "funziona 5 volte più velocemente"
La dirigenza di Meta incoraggia i dipendenti ad adottare l'intelligenza artificiale non solo per guadagni marginali, ma per un salto di produttività di fattore 5. In un messaggio interno, Vishal Shah, vicepresidente per il Metaverso, ha affermato che l'AI dovrebbe diventare parte integrante del lavoro (non un accessorio), e che tutti i dipendenti — ingegneri, designer, manager — dovrebbero utilizzare rapidamente prototipi AI.
Mark Zuckerberg ha dichiarato che la maggior parte del codice di Meta sarà generato dall'AI nei prossimi 12-18 mesi. Tuttavia, l'iniziativa solleva preoccupazioni: non solo i ruoli dei dipendenti potrebbero cambiare drasticamente, ma la pressione per integrare l'AI onnipresente potrebbe essere percepita come coercitiva o come una riduzione dello spazio per la creatività umana.
Cisco lancia un chip per connettere i centri di dati AI a distanza
Cisco ha sviluppato un chip appositamente progettato per connettere centri di dati che ospitano infrastrutture AI su lunghe distanze, riducendo la latenza e migliorando le prestazioni delle connessioni tra i nodi distribuiti.
Lo scopo è consentire una comunicazione più efficiente tra i centri di elaborazione AI, se questi sono localizzati in diverse regioni geografiche, per supportare applicazioni sensibili alla latenza e grandi volumi di dati. Questa soluzione potrebbe diventare essenziale man mano che i modelli AI di grandi dimensioni vengono distribuiti a livello globale, richiedendo sincronizzazione rapida e connettività robusta.
UE: la sovranità digitale non deve essere confusa con il protezionismo
Il ministro tedesco responsabile della tecnologia ha affermato che la necessità di sovranità digitale nell'Unione Europea — cioè controllo e autonomia in infrastrutture, piattaforme e dati — non deve essere interpretata come una politica protezionista contro altre regioni.
Il funzionario sottolinea che l'UE deve costruire capacità interne di tecnologia e AI senza imporre barriere ostili al commercio o alla collaborazione globale. L'accento è posto su equilibri tra regolamentazione, competitività e apertura all'innovazione esterna.
Copilot per Windows: documenti Office e connessione a Gmail/Outlook
Microsoft ha esteso le funzionalità di Copilot su Windows, in modo che ora possa creare documenti Office e connettersi direttamente a Gmail o Outlook per integrare email e calendari.
Questa integrazione rende Copilot più utile come assistente digitale in compiti d'ufficio, consentendo la generazione automatica di contenuti in Word, PowerPoint, ecc., basata sul contesto e sui dati delle email/corrispondenza.
Apple interrompe il supporto per l'app di editing video Clips
Apple ha annunciato che interromperà il supporto per l'app Clips, utilizzata per un editing video semplice su dispositivi mobili.
Ciò significa che non ci saranno più aggiornamenti di sicurezza, nuove funzionalità o compatibilità con le nuove versioni di iOS. Gli utenti che utilizzavano Clips dovranno migrare verso alternative di editing video.
Chrome disattiva automaticamente le notifiche dei siti ignorati
Google Chrome disattiverà automaticamente il permesso di visualizzare notifiche per i siti che gli utenti ignorano frequentemente.
Lo scopo è ridurre il rumore eccessivo di notifiche inutili e migliorare l'esperienza dell'utente, delegando al browser il compito di decidere quali siti meritano di continuare a visualizzare notifiche.
Il programma "seconda possibilità" di YouTube per i creatori sanzionati
YouTube ha lanciato un programma che offre ai creatori sanzionati per disinformazione (relativa a COVID o elezioni) la possibilità di tornare, a condizione rigorosa, sulla piattaforma.
Lo scopo è fornire spazio a coloro che hanno violato le regole, ma che si stanno riformando, e allo stesso tempo bilanciare la decisione di esclusione definitiva con la possibilità di reintegrazione, in base al comportamento.
OpenAI Sora supera 1 milione di download
L'app mobile Sora sviluppata da OpenAI ha raggiunto la soglia di oltre 1 milione di download, segnalando l'interesse degli utenti per un compagno AI personale sul telefono.
Il rapido successo indica il grande potenziale per le applicazioni AI di consumo, ma anche le sfide legate alla scalabilità, alla riservatezza e al mantenimento della sicurezza su larga scala.
Google cerca di fermare le soluzioni imposte nella ricerca che possono limitare i risultati AI
Google si trova ad affrontare richieste da parte delle autorità (come il DOJ) di applicare soluzioni che regolino il modo in cui funziona il sistema di ricerca, ma l'azienda sostiene che alcune di esse potrebbero inibire la sua capacità di evolvere nella direzione dell'AI (es: Gemini).
Si tratta di una tensione tra regolamentazione e innovazione: le autorità cercano di limitare pratiche anti-competitive o abusive, mentre Google risponde che le interventi possono frenare il progresso tecnologico e la competitività a livello globale.
Le piccole imprese europee adottano l'AI prima di avere strumenti digitali di base
Uno studio mostra che molte piccole aziende in Europa si affrettano ad adottare soluzioni di intelligenza artificiale, anche se non hanno un'infrastruttura digitale di base (es: sito web, strumenti di lavoro in cloud).
Questo crea un divario: senza una solida base tecnologica, l'AI rischia di essere utilizzata superficialmente o in modo inefficiente. Per una vera trasformazione, è necessario rafforzare prima le capacità digitali fondamentali.
Le autorità finanziarie internazionali intensificano la sorveglianza dell'AI
Le autorità di regolamentazione finanziaria globale intendono aumentare il monitoraggio delle applicazioni AI che possono avere un impatto sul sistema finanziario — inclusi transazioni algoritmiche, valutazioni di rischio automatizzate, manipolazione di mercato.
Il motivo: l'AI ha il potenziale di infiammare le volatilità, amplificare comportamenti rischiosi o sfruttare vulnerabilità sistemiche. Pertanto, istituzioni come le banche centrali, le commissioni di mercato e gli organismi di sorveglianza desiderano strumenti e regolamenti più rigorosi.
UE lancia un piano da 1,1 miliardi di dollari per stimolare l'AI nell'industria
L'Unione Europea ha approvato un piano da 1,1 miliardi di dollari per sostenere l'adozione dell'AI in industrie strategiche, nel contesto del desiderio di sovranità digitale e riduzione della dipendenza dalle tecnologie straniere.
I fondi saranno diretti verso ricerca, sviluppo, scalabilità e applicazione pratica dei sistemi AI in settori economici chiave. È un chiaro segnale che l'UE vuole accelerare la transizione digitale e rafforzare la propria competitività a livello globale.
La compagnia di robotica cinese AgiBot accelera la produzione
La compagnia cinese AgiBot (o Zhiyuan Robotics), fondata nel 2023 da ex ingegneri Huawei, ha attirato l'attenzione dell'industria attraverso lo sviluppo di robot umanoidi integrati con intelligenza artificiale. Questi costruiscono una piattaforma "Embodiment + AI" che combina robotica fisica con modelli di apprendimento automatico, offrendo robot nelle serie Yuanzheng, Lingxi e Genie.
Un punto chiave della loro strategia è AgiBot World, un ampio set di dati (oltre 1 milione di traiettorie per 217 compiti) progettato per addestrare i robot in ambienti vari e realistici. Inoltre, AgiBot ha recentemente ricevuto nuovi round di finanziamento con la partecipazione di aziende come LG Electronics e Mirae Asset, indicando un crescente interesse degli investitori nel campo dei robot integrati.
In parallelo, AgiBot sta facendo passi concreti verso la commercializzazione: ha firmato contratti significativi per la fornitura di 100 robot A2-W per fabbriche di componenti auto, e l'azienda intende acquisire una partecipazione di maggioranza nella società Swancor Advanced Materials (circa 2 miliardi di yuan), probabilmente come metodo di ingresso nel mercato azionario. Inoltre, il robot A2 è diventato il primo robot umanoide certificato simultaneamente in Cina, Unione Europea e Stati Uniti.
La Commissione Europea analizza la protezione dei minori su Snapchat, YouTube e negli App Stores
Sotto l'incidenza della Direttiva sui Servizi Digitali (DSA), la Commissione Europea ha avviato indagini su come piattaforme come Snapchat, YouTube, Apple App Store e Google Play garantiscano la protezione dei minori online. Le autorità richiedono informazioni sui meccanismi di verifica dell'età, sul modo di filtrare contenuti dannosi (ad esempio, la promozione di disturbi alimentari) e sull'accesso a prodotti illegali (come droghe o vape). In caso di violazione delle norme, le aziende rischiano sanzioni fino al 6% del loro fatturato globale.
Questa azione fa parte degli sforzi della Commissione per applicare le disposizioni della DSA riguardanti la protezione dei minori e la responsabilità delle piattaforme digitali.
OpenAI attira l'attenzione dell'UE: pratiche anticoncorrenziali e "lock-in" degli utenti
OpenAI ha comunicato alle autorità dell'UE (inclusa la commissaria responsabile, Teresa Ribera) che si trova ad affrontare gravi difficoltà di concorrenza nei confronti di grandi aziende come Google, Apple e Microsoft. Nell'incontro del 24 settembre, l'azienda ha chiesto ai regolatori di vigilare affinché le grandi piattaforme non "bloccassero" gli utenti e imponessero barriere all'ingresso per i concorrenti.
Le argomentazioni di OpenAI riguardano sia l'infrastruttura (cloud, accesso ai dati), sia la distribuzione delle applicazioni, suggerendo che le entità dominanti possono abusare della loro posizione per consolidare la loro supremazia nel mercato dell'AI. Sebbene non sia stata presentata una denuncia formale fino ad ora, la richiesta è un chiaro segnale che OpenAI desidera un intervento europeo nella regolamentazione del mercato dell'AI.
La Danimarca vuole vietare i social media ai bambini sotto i 15 anni
Il governo danese, guidato dal primo ministro Mette Frederiksen, ha proposto l'introduzione di una legge che vieti l'accesso ai social media per le persone sotto i 15 anni, invocando gli effetti negativi sulla salute mentale e sulla concentrazione dei bambini. La proposta include, tuttavia, un'eccezione: i genitori potrebbero consentire l'accesso ai bambini di 13-14 anni se danno il loro consenso.
Le argomentazioni degli ufficiali si basano su dati statistici che mostrano un aumento dell'ansia, della depressione e delle difficoltà di concentrazione nei giovani, da un lato, e sulla constatazione che molti bambini hanno già profili attivi sui social media prima di compiere 13 anni. Il divieto fa parte di una tendenza globale verso una regolamentazione più rigorosa dello spazio digitale per i minori, allineandosi a iniziative simili in Australia o Norvegia.
Il 41% delle scuole ha segnalato incidenti informatici legati all'AI
Uno studio recente (condotto negli USA e nel Regno Unito) rivela che circa il 41% delle scuole è stato colpito da incidenti informatici legati all'uso dell'AI — da campagne di phishing a generazione di contenuti dannosi realizzati dagli studenti. Di questi incidenti, circa l'11% ha portato a interruzioni delle attività, mentre il 30% è stato contenuto relativamente rapidamente.
La maggior parte delle istituzioni scolastiche (82%) afferma di essere "almeno in parte preparate" per tali minacce, ma solo il 32% si sente "molto preparato". Lo studio mostra la discrepanza tra l'adozione delle tecnologie AI e lo sviluppo di politiche di sicurezza adeguate: molte scuole consentono l'uso dell'AI da parte di studenti e insegnanti, ma senza regole formali o un quadro solido per la protezione dei dati e la prevenzione degli abusi.