
El ex-CEO de Google advierte: los modelos de inteligencia artificial pueden ser manipulados y pueden enseñar cosas peligrosas
Eric Schmidt, exdirector general de Google, advierte que los modelos avanzados de inteligencia artificial (IA) pueden ser "hackeados" — es decir, pueden ser modificados de tal manera que pasen por alto los filtros de seguridad que les impiden ofrecer respuestas peligrosas.
En un discurso dado en el Sifted Summit, explicó que cualquier modelo de IA, ya sea público o privado, puede ser analizado y reproducido ("reverse-engineered"). En este proceso, los modelos pueden llegar a aprender información sensible — incluyendo métodos de violencia — que luego los usuarios podrían explotar.
Schmidt añadió que, aunque las empresas intentan limitar estos riesgos mediante estrictas reglas internas, el peligro persiste: personas malintencionadas pueden usar la IA para fines dañinos. Considera que el mundo necesita un acuerdo global para controlar el desarrollo y uso de la inteligencia artificial, similar a los tratados internacionales que regulan las armas.
TikTok dirige a adolescentes de 13 años hacia contenido sexual explícito
Un informe publicado por Global Witness muestra que el algoritmo de sugerencias de búsqueda de TikTok ha sugerido términos sexualizados a usuarios que se declaraban de 13 años, incluso si esas cuentas eran recién creadas y usaban el modo "Restricted" destinado a limitar contenido para adultos. En las pruebas realizadas, las sugerencias pornográficas aparecieron inmediatamente después de abrir la barra de búsqueda, y en unos pocos clics los usuarios podían acceder a contenido explícito.
Los investigadores afirmaron que el algoritmo no solo permite el acceso, sino que activa a los adolescentes hacia contenido sexual dañino, poniendo en duda la conformidad de TikTok con la legislación británica sobre la Ley de Seguridad en Línea. TikTok respondió que ha eliminado las sugerencias denunciadas y ha lanzado modificaciones a la función de sugerencias, pero el informe plantea serias dudas sobre la efectividad de las medidas de protección para menores.
Google: la ley australiana sobre el uso de redes sociales por adolescentes es "muy difícil de aplicar"
Google afirma que la legislación de Australia que pretende prohibir el acceso a redes sociales para personas menores de 16 años será "extremadamente difícil" de implementar. La compañía señala que la decisión de no imponer verificaciones de edad estrictas — sino de basarse en inferencias a través de inteligencia artificial y comportamiento — hace que el objetivo de la ley (proteger a los niños) sea más bien ilusorio que práctico.
Los representantes de YouTube sostienen que, aunque la intención del gobierno es buena, las medidas propuestas no garantizan una mayor seguridad en línea y pueden tener consecuencias no deseadas. Google sugiere que las herramientas de seguridad en el entorno digital y la implicación de los padres son enfoques más efectivos que el bloqueo total del acceso.
Meta insta a integrar la IA en todo el flujo de trabajo: "funciona 5 veces más rápido"
La dirección de Meta insta a los empleados a adoptar la inteligencia artificial no solo para ganancias marginales, sino para un salto de productividad de 5 veces. En un mensaje interno, Vishal Shah, vicepresidente de Metaverso, dijo que la IA debería convertirse en parte integral del trabajo (no un accesorio), y que todos los empleados — ingenieros, diseñadores, gerentes — deberían usar prototipos de IA rápidamente.
Mark Zuckerberg declaró que la mayoría del código de Meta será generado por IA en los próximos 12-18 meses. Sin embargo, la iniciativa plantea preocupaciones: no solo los roles de los empleados pueden cambiar drásticamente, sino que la presión para integrar la IA omnipresente puede sentirse como una imposición o como una reducción del espacio para la creatividad humana.
Cisco lanza un chip para conectar centros de datos de IA a distancia
Cisco ha desarrollado un chip especialmente diseñado para conectar centros de datos que albergan infraestructura de IA a largas distancias, reduciendo la latencia y mejorando el rendimiento de las conexiones entre nodos distribuidos.
El objetivo es permitir una comunicación más eficiente entre los centros de procesamiento de IA, si están ubicados en diferentes regiones geográficas, para apoyar aplicaciones sensibles a la latencia y grandes volúmenes de datos. Esta solución podría volverse esencial a medida que los modelos de IA grandes se distribuyan globalmente, requiriendo sincronización rápida y conectividad robusta.
UE: la soberanía digital no debe confundirse con proteccionismo
El ministro alemán responsable de tecnología afirmó que la necesidad de soberanía digital en la Unión Europea — es decir, control y autonomía en infraestructura, plataformas y datos — no debe interpretarse como una política proteccionista contra otras regiones.
El funcionario subraya que la UE debe construir capacidades internas de tecnología e IA sin imponer barreras hostiles al comercio o la colaboración global. El enfoque está en equilibrar regulación, competitividad y apertura a la innovación externa.
Copilot para Windows: documentos de Office y conexión a Gmail/Outlook
Microsoft ha ampliado las funcionalidades de Copilot en Windows, de modo que ahora puede crear documentos de Office y conectarse directamente a Gmail o Outlook para integrar correos electrónicos y calendarios.
Esta integración hace que Copilot sea más útil como asistente digital en tareas de oficina, permitiendo la generación automática de contenido en Word, PowerPoint, etc., basado en el contexto y los datos de correos electrónicos/correspondencia.
Apple interrumpe el soporte para la aplicación de edición de video Clips
Apple ha anunciado que cesará el soporte para la aplicación Clips, utilizada para la edición de video sencilla en dispositivos móviles.
Esto significa que no habrá más actualizaciones de seguridad, nuevas funcionalidades o compatibilidades con nuevas versiones de iOS. Los usuarios que usaban Clips tendrán que migrar a alternativas de edición de video.
Chrome desactiva automáticamente las notificaciones de sitios ignorados
Google Chrome desactivará automáticamente el permiso para mostrar notificaciones para los sitios que los usuarios ignoran con frecuencia.
El objetivo es reducir el ruido excesivo de notificaciones innecesarias y mejorar la experiencia del usuario, delegando al navegador el papel de decidir qué sitios merecen seguir mostrando notificaciones.
El programa "segunda oportunidad" de YouTube para creadores sancionados
YouTube ha lanzado un programa que ofrece a los creadores sancionados por desinformación (relacionada con COVID o elecciones) la oportunidad de regresar, bajo condiciones estrictas, a la plataforma.
El objetivo es ofrecer espacio a aquellos que han violado las reglas, pero que se están reformando, y al mismo tiempo equilibrar la decisión de exclusión definitiva con la posibilidad de reintegración, dependiendo del comportamiento.
OpenAI Sora supera 1 millón de descargas
La aplicación móvil Sora desarrollada por OpenAI ha alcanzado el umbral de más de 1 millón de descargas, señalando el interés de los usuarios por un compañero de IA personal en el teléfono.
El rápido éxito indica el gran potencial para las aplicaciones de IA de consumo, pero también los desafíos relacionados con la escalabilidad, la confidencialidad y el mantenimiento de la seguridad a gran escala.
Google intenta detener soluciones impuestas en la búsqueda que pueden limitar los resultados de IA
Google se enfrenta a demandas de autoridades (como el DOJ) para aplicar soluciones que regulen cómo funciona el sistema de búsqueda, pero la compañía sostiene que algunas de estas podrían inhibir su capacidad de evolucionar en la dirección de la IA (ej: Gemini).
Hay una tensión entre regulación e innovación: las autoridades intentan limitar prácticas anticompetitivas o abusivas, y Google responde que las intervenciones pueden frenar el progreso tecnológico y la competitividad a nivel global.
Las pequeñas empresas europeas adoptan IA antes de tener herramientas digitales básicas
Un estudio muestra que muchas pequeñas empresas en Europa se apresuran a adoptar soluciones de inteligencia artificial, incluso si no tienen infraestructura digital básica (ej: sitio web, herramientas de trabajo en la nube).
Esto crea una brecha: sin una base tecnológica sólida, la IA corre el riesgo de ser utilizada de manera superficial o ineficiente. Para una transformación real, es necesario fortalecer primero las capacidades digitales fundamentales.
Las instituciones financieras internacionales intensifican la supervisión de la IA
Las autoridades de regulación financiera global pretenden aumentar la monitorización de las aplicaciones de IA que pueden tener un impacto en el sistema financiero — incluyendo transacciones algorítmicas, evaluaciones de riesgo automatizadas, manipulación de mercados.
La razón: la IA tiene el potencial de inflamar volatilidades, amplificar comportamientos arriesgados o explotar vulnerabilidades sistémicas. Por lo tanto, instituciones como bancos centrales, comisiones de mercados y organismos de supervisión desean herramientas y regulaciones más estrictas.
La UE lanza un plan de 1.1 mil millones de dólares para impulsar la IA en la industria
La Unión Europea ha aprobado un plan de 1.1 mil millones de dólares para apoyar la adopción de IA en industrias estratégicas, en el contexto del deseo de soberanía digital y reducción de la dependencia de tecnologías extranjeras.
Los fondos se destinarán a investigación, desarrollo, escalado y aplicación práctica de sistemas de IA en sectores económicos clave. Es una señal clara de que la UE quiere acelerar la transición digital y fortalecer su competitividad a nivel global.
La empresa de robótica china AgiBot acelera la producción
La empresa china AgiBot (o Zhiyuan Robotics), fundada en 2023 por exingenieros de Huawei, ha llamado la atención de la industria mediante el desarrollo de robots humanoides integrados con inteligencia artificial. Están construyendo una plataforma "Embodiment + IA" que combina robótica física con modelos de aprendizaje automático, ofreciendo robots en las series Yuanzheng, Lingxi y Genie.
Un punto clave de su estrategia es AgiBot World, un gran conjunto de datos (más de 1 millón de trayectorias para 217 tareas) diseñado para entrenar a los robots en entornos variados y realistas. Además, AgiBot ha recibido recientemente nuevas rondas de financiamiento con la participación de empresas como LG Electronics y Mirae Asset, indicando un creciente interés de los inversores en el campo de los robots integrados.
Paralelamente, AgiBot está dando pasos concretos hacia la comercialización: ha firmado contratos importantes para la entrega de 100 robots A2-W para fábricas de componentes automotrices, y la compañía planea adquirir una participación mayoritaria en la firma Swancor Advanced Materials (aproximadamente 2 mil millones de yuanes), posiblemente como método de entrada en el mercado bursátil. Además, el robot A2 se ha convertido en el primer robot humanoide certificado simultáneamente en China, la Unión Europea y Estados Unidos.
La Comisión Europea analiza la protección de menores en Snapchat, YouTube y en App Stores
Bajo la incidencia de la Directiva de Servicios Digitales (DSA), la Comisión Europea ha comenzado investigaciones sobre cómo plataformas como Snapchat, YouTube, Apple App Store y Google Play aseguran la protección de menores en línea. Las autoridades solicitan información sobre los mecanismos de verificación de edad, cómo filtran contenido dañino (por ejemplo, la promoción de trastornos alimentarios) y el acceso a productos ilegales (como drogas o vapeadores). En caso de incumplimiento de las normas, las empresas arriesgan sanciones de hasta el 6% de su cifra de negocios global.
Esta acción es parte de los esfuerzos de la Comisión para aplicar las disposiciones de la DSA sobre la protección de menores y la responsabilidad de las plataformas digitales.
OpenAI llama la atención de la UE: prácticas anticompetitivas y "lock-in" de usuarios
OpenAI ha informado a las autoridades de la UE (incluyendo a la comisionada responsable, Teresa Ribera) que enfrenta serias dificultades de competencia frente a grandes empresas, como Google, Apple y Microsoft. En la reunión del 24 de septiembre, la compañía pidió a los reguladores que vigilen para que las grandes plataformas no "bloqueen" a los usuarios y no impongan barreras de entrada para los competidores.
Los argumentos de OpenAI se centran tanto en la infraestructura (nube, acceso a datos) como en la distribución de aplicaciones, sugiriendo que las entidades dominantes pueden abusar de su posición para consolidar su supremacía en el mercado de IA. Aunque no se ha presentado una queja formal hasta el momento, la solicitud es una señal clara de que OpenAI desea la intervención europea en la regulación del mercado de IA.
Dinamarca quiere prohibir las redes sociales para niños menores de 15 años
El gobierno danés, liderado por la primera ministra Mette Frederiksen, ha propuesto la introducción de una ley que prohíba el acceso a redes sociales para personas menores de 15 años, invocando los efectos negativos sobre la salud mental y la concentración de los niños. La propuesta incluye, sin embargo, una excepción: los padres podrían permitir el acceso a niños de 13-14 años si dan su consentimiento.
Los argumentos de los funcionarios se basan en datos estadísticos que muestran un aumento de la ansiedad, la depresión y las dificultades de concentración en los jóvenes, por un lado, y en la constatación de que muchos niños ya tienen perfiles activos en redes sociales antes de cumplir 13 años. La prohibición es parte de una tendencia global hacia una regulación más estricta del espacio digital para menores, alineándose con iniciativas similares en Australia o Noruega.
El 41% de las escuelas han reportado incidentes cibernéticos relacionados con IA
Un estudio reciente (realizado en EE. UU. y el Reino Unido) revela que aproximadamente el 41% de las escuelas se han visto afectadas por incidentes cibernéticos relacionados con el uso de IA — desde campañas de phishing hasta generación de contenido dañino realizado por estudiantes. De estos incidentes, alrededor del 11% han llevado a interrupciones de actividad, y el 30% se han resuelto relativamente rápido.
La mayoría de las instituciones escolares (82%) dicen que están "al menos algo preparadas" para tales amenazas, pero solo el 32% se siente "muy preparada". El estudio muestra la discrepancia entre la adopción de tecnologías de IA y el desarrollo de políticas de seguridad adaptadas: muchas escuelas permiten el uso de IA por parte de estudiantes y profesores, pero sin reglas formales o un marco sólido para la protección de datos y la prevención de abusos.