L'ancien PDG de Google avertit : les modèles d'intelligence artificielle peuvent être manipulés et peuvent enseigner des choses dangereuses
Eric Schmidt, ancien directeur général de Google, avertit que les modèles avancés d'intelligence artificielle (IA) peuvent être "piratés" — c'est-à-dire qu'ils peuvent être modifiés de manière à contourner les filtres de sécurité qui les empêchent de fournir des réponses dangereuses.
Lors d'un discours prononcé au Sifted Summit, il a expliqué que tout modèle d'IA, qu'il soit public ou privé, peut être analysé et reproduit ("reverse-engineered"). Dans ce processus, les modèles peuvent en venir à apprendre des informations sensibles — y compris des méthodes de violence — que les utilisateurs pourraient ensuite exploiter.
Schmidt a ajouté que, bien que les entreprises essaient de limiter ces risques par des règles internes strictes, le danger demeure : des personnes malveillantes peuvent utiliser l'IA à des fins nuisibles. Il estime que le monde a besoin d'un accord mondial pour contrôler le développement et l'utilisation de l'intelligence artificielle, similaire aux traités internationaux qui régulent les armes.
TikTok dirige les adolescents de 13 ans vers du contenu sexuel explicite
Un rapport publié par Global Witness montre que l'algorithme de suggestions de recherche de TikTok a suggéré des termes sexualisés aux utilisateurs qui se déclaraient âgés de 13 ans, même si ces comptes étaient fraîchement créés et utilisaient le mode "Restricted" destiné à limiter le contenu pour adultes. Dans les tests effectués, des suggestions pornographiques sont apparues immédiatement après l'ouverture de la barre de recherche, et en quelques clics, les utilisateurs pouvaient accéder à du contenu explicite.
Les enquêteurs ont affirmé que l'algorithme non seulement permet l'accès, mais dirige également activement les adolescents vers du contenu sexuel nuisible, remettant en question la conformité de TikTok avec la législation britannique sur la sécurité en ligne. TikTok a répondu qu'il avait supprimé les suggestions signalées et a lancé des modifications de la fonction de suggestions, mais le rapport soulève de sérieuses questions sur l'efficacité des mesures de protection pour les mineurs.
Google : la loi australienne sur l'utilisation des réseaux sociaux par les adolescents – "très difficile à appliquer"
Google affirme que la législation australienne qui vise à interdire l'accès aux réseaux sociaux pour les personnes de moins de 16 ans sera "extrêmement difficile" à mettre en œuvre. La société signale que la décision de ne pas imposer de vérifications d'âge strictes — mais de se baser sur des inférences par intelligence artificielle et comportement — rend l'objectif de la loi (protéger les enfants) plutôt illusoire que pratique.
Les représentants de YouTube soutiennent que, bien que l'intention du gouvernement soit bonne, les mesures proposées ne garantissent pas une sécurité en ligne supplémentaire et peuvent avoir des conséquences indésirables. Google suggère que les outils de sécurité dans l'environnement numérique et l'implication des parents sont des approches plus efficaces que le blocage total de l'accès.
Meta encourage l'intégration de l'IA dans tout le flux de travail : "cela fonctionne 5 fois plus vite"
La direction de Meta encourage les employés à adopter l'intelligence artificielle non seulement pour des gains marginaux, mais pour un bond de productivité multiplié par 5. Dans un message interne, Vishal Shah, vice-président du Metaverse, a déclaré que l'IA devrait devenir une partie intégrante du travail (et non un accessoire), et que tous les employés — ingénieurs, designers, managers — devraient utiliser rapidement des prototypes d'IA.
Mark Zuckerberg a déclaré que la majorité du code de Meta sera généré par l'IA dans les 12 à 18 mois à venir. Cependant, cette initiative soulève des inquiétudes : non seulement les rôles des employés peuvent changer de manière dramatique, mais la pression d'intégrer une IA omniprésente peut être ressentie comme une contrainte ou une réduction de l'espace de créativité humaine.
Cisco lance une puce pour connecter les centres de données IA à distance
Cisco a développé une puce spécialement conçue pour connecter des centres de données hébergeant l'infrastructure IA sur de longues distances, réduisant la latence et améliorant la performance des liaisons entre les nœuds distribués.
Le but est de permettre une communication plus efficace entre les centres de traitement IA, qu'ils soient situés dans différentes régions géographiques, pour soutenir des applications sensibles à la latence et à de grands volumes de données. Cette solution pourrait devenir essentielle à mesure que les grands modèles d'IA sont distribués à l'échelle mondiale, nécessitant une synchronisation rapide et une interconnectivité robuste.
UE : la souveraineté numérique ne doit pas être confondue avec le protectionnisme
Le ministre allemand responsable de la technologie a déclaré que le besoin de souveraineté numérique dans l'Union européenne — c'est-à-dire le contrôle et l'autonomie sur l'infrastructure, les plateformes et les données — ne doit pas être interprété comme une politique protectionniste contre d'autres régions.
Le responsable souligne que l'UE doit construire des capacités internes en technologie et en IA sans imposer de barrières hostiles au commerce ou à la collaboration mondiale. L'accent est mis sur l'équilibre entre réglementation, compétitivité et ouverture à l'innovation externe.
Copilot pour Windows : documents Office et connexion à Gmail/Outlook
Microsoft a étendu les fonctionnalités de Copilot sur Windows, de sorte qu'il peut désormais créer des documents Office et se connecter directement à Gmail ou Outlook pour intégrer des e-mails et des calendriers.
Cette intégration rend Copilot plus utile en tant qu'assistant numérique dans les tâches de bureau, permettant la génération automatique de contenu dans Word, PowerPoint, etc., en fonction du contexte et des données des e-mails/correspondance.
Apple interrompt le support de l'application de montage vidéo Clips
Apple a annoncé qu'il cesserait le support de l'application Clips, utilisée pour le montage vidéo léger sur les appareils mobiles.
Cela signifie qu'il n'y aura plus de mises à jour de sécurité, de nouvelles fonctionnalités ou de compatibilités avec les nouvelles versions d'iOS. Les utilisateurs qui utilisaient Clips devront migrer vers des alternatives de montage vidéo.
Chrome désactive automatiquement les notifications des sites ignorés
Google Chrome désactivera automatiquement la permission d'affichage des notifications pour les sites que les utilisateurs ignorent fréquemment.
Le but est de réduire le bruit excessif des notifications inutiles et d'améliorer l'expérience utilisateur, déléguant au navigateur le rôle de décider quels sites méritent de continuer à afficher des notifications.
Le programme "deuxième chance" de YouTube pour les créateurs sanctionnés
YouTube a lancé un programme qui offre aux créateurs sanctionnés pour désinformation (liée à COVID ou aux élections) la possibilité de revenir, sous des conditions strictes, sur la plateforme.
Le but est de donner une chance à ceux qui ont enfreint les règles mais qui se réforment, tout en équilibrant la décision d'exclusion définitive avec la possibilité de réintégration, en fonction du comportement.
OpenAI Sora dépasse 1 million de téléchargements
L'application mobile Sora développée par OpenAI a atteint le seuil de plus de 1 million de téléchargements, signalant l'intérêt des utilisateurs pour un compagnon IA personnel sur leur téléphone.
Le succès rapide indique un grand potentiel pour les applications IA de consommation, mais aussi des défis liés à l'évolutivité, à la confidentialité et au maintien de la sécurité à grande échelle.
Google essaie d'arrêter les solutions imposées dans la recherche qui peuvent limiter les résultats de l'IA
Google fait face à des demandes des autorités (comme le DOJ) d'appliquer des solutions qui régulent le fonctionnement de son système de recherche, mais la société soutient que certaines d'entre elles pourraient inhiber sa capacité à évoluer dans la direction de l'IA (ex : Gemini).
Il y a une tension entre réglementation et innovation : les autorités essaient de limiter les pratiques anticoncurrentielles ou abusives, tandis que Google répond que les interventions peuvent freiner le progrès technologique et la compétitivité à l'échelle mondiale.
Les petites entreprises européennes adoptent l'IA avant d'avoir des outils numériques de base
Une étude montre que de nombreuses petites entreprises en Europe se précipitent pour adopter des solutions d'intelligence artificielle, même si elles n'ont pas d'infrastructure numérique de base (ex : site web, outils de travail dans le cloud).
Cela crée un fossé : sans une base technologique solide, l'IA risque d'être utilisée de manière superficielle ou inefficace. Pour une véritable transformation, il est nécessaire de renforcer d'abord les capacités numériques fondamentales.
Les organismes financiers internationaux intensifient la surveillance de l'IA
Les autorités de régulation financière mondiale envisagent d'augmenter la surveillance des applications d'IA qui peuvent avoir un impact sur le système financier — y compris les transactions algorithmiques, les évaluations de risque automatisées, la manipulation de marché.
La raison : l'IA a le potentiel d'enflammer des volatilités, d'amplifier des comportements risqués ou d'exploiter des vulnérabilités systémiques. Par conséquent, des institutions telles que les banques centrales, les commissions de marché et les organismes de surveillance souhaitent des outils et des réglementations plus strictes.
UE lance un plan de 1,1 milliard USD pour stimuler l'IA dans l'industrie
L'Union européenne a approuvé un plan de 1,1 milliard de dollars pour soutenir l'adoption de l'IA dans des industries stratégiques, dans le contexte du désir de souveraineté numérique et de réduction de la dépendance aux technologies étrangères.
Les fonds seront dirigés vers la recherche, le développement, l'échelle et l'application pratique des systèmes d'IA dans des secteurs économiques clés. C'est un signal clair que l'UE souhaite accélérer la transition numérique et renforcer sa compétitivité à l'échelle mondiale.
La société de robotique chinoise AgiBot accélère la production
La société chinoise AgiBot (ou Zhiyuan Robotics), fondée en 2023 par d'anciens ingénieurs de Huawei, a attiré l'attention de l'industrie par le développement de robots humanoïdes intégrés avec intelligence artificielle. Ils construisent une plateforme "Embodiment + IA" qui combine la robotique physique avec des modèles d'apprentissage automatique, offrant des robots dans les séries Yuanzheng, Lingxi et Genie.
Un point clé de leur stratégie est AgiBot World, un grand ensemble de données (plus de 1 million de trajectoires pour 217 tâches) conçu pour entraîner les robots dans des environnements variés et réalistes. De plus, AgiBot a récemment reçu de nouveaux tours de financement avec la participation d'entreprises telles que LG Electronics et Mirae Asset, indiquant un intérêt croissant des investisseurs dans le domaine des robots intégrés.
Parallèlement, AgiBot fait des progrès concrets vers la commercialisation : il a signé des contrats importants pour la livraison de 100 robots A2-W pour des usines de composants automobiles, et la société envisage d'acquérir une participation majoritaire dans la société Swancor Advanced Materials (environ 2 milliards de yuans), probablement comme méthode d'entrée sur le marché boursier. De plus, le robot A2 est devenu le premier robot humanoïde certifié simultanément en Chine, dans l'Union européenne et aux États-Unis.
La Commission européenne examine la protection des mineurs sur Snapchat, YouTube et dans les App Stores
Dans le cadre de la Directive sur les Services Numériques (DSA), la Commission européenne a commencé des enquêtes sur la manière dont des plateformes telles que Snapchat, YouTube, Apple App Store et Google Play assurent la protection des mineurs en ligne. Les autorités demandent des informations sur les mécanismes de vérification de l'âge, la manière de filtrer le contenu nuisible (par exemple, la promotion des troubles alimentaires) et l'accès à des produits illégaux (comme les drogues ou les vapes). En cas de non-respect des règles, les entreprises risquent des sanctions allant jusqu'à 6 % de leur chiffre d'affaires mondial.
Cette action fait partie des efforts de la Commission pour appliquer les dispositions de la DSA concernant la protection des mineurs et la responsabilité des plateformes numériques.
OpenAI attire l'attention de l'UE : pratiques anticoncurrentielles et "lock-in" des utilisateurs
OpenAI a informé les autorités de l'UE (y compris la commissaire responsable, Teresa Ribera) qu'elle fait face à de graves difficultés de concurrence face à de grandes entreprises telles que Google, Apple et Microsoft. Lors de la réunion du 24 septembre, la société a demandé aux régulateurs de veiller à ce que les grandes plateformes ne "bloquent" pas les utilisateurs et n'imposent pas de barrières à l'entrée pour les concurrents.
Les arguments d'OpenAI portent à la fois sur l'infrastructure (cloud, accès aux données) et sur la distribution des applications, suggérant que les entités dominantes peuvent abuser de leur position pour renforcer leur suprématie sur le marché de l'IA. Bien qu'aucune plainte formelle n'ait été déposée jusqu'à présent, la demande est un signal clair qu'OpenAI souhaite une intervention européenne dans la régulation du marché de l'IA.
Le Danemark veut interdire les réseaux sociaux aux enfants de moins de 15 ans
Le gouvernement danois, dirigé par la Première ministre Mette Frederiksen, a proposé d'introduire une loi interdisant l'accès aux réseaux sociaux pour les personnes de moins de 15 ans, invoquant les effets négatifs sur la santé mentale et la concentration des enfants. La proposition inclut cependant une exception : les parents pourraient permettre l'accès aux enfants de 13 à 14 ans s'ils donnent leur accord.
Les arguments des responsables reposent sur des données statistiques montrant une augmentation de l'anxiété, de la dépression et des difficultés de concentration chez les jeunes, d'une part, et sur le constat que de nombreux enfants ont déjà des profils actifs sur les réseaux sociaux avant d'atteindre 13 ans. L'interdiction fait partie d'une tendance mondiale vers une réglementation plus stricte de l'espace numérique pour les mineurs, s'alignant sur des initiatives similaires en Australie ou en Norvège.
41 % des écoles ont signalé des incidents cybernétiques liés à l'IA
Une étude récente (réalisée aux États-Unis et au Royaume-Uni) révèle qu'environ 41 % des écoles ont été affectées par des incidents cybernétiques liés à l'utilisation de l'IA — allant des campagnes de phishing à la génération de contenu nuisible réalisée par des élèves. Parmi ces incidents, environ 11 % ont entraîné des interruptions d'activité, et 30 % ont été résolus relativement rapidement.
La majorité des établissements scolaires (82 %) affirment qu'ils sont "au moins quelque peu préparés" à de telles menaces, mais seulement 32 % se sentent "très préparés". L'étude montre l'écart entre l'adoption des technologies IA et le développement de politiques de sécurité adaptées : de nombreuses écoles permettent l'utilisation de l'IA par les élèves et les enseignants, mais sans règles formelles ni cadre solide pour la protection des données et la prévention des abus.