Der ehemalige Google-CEO warnt: Modelle der künstlichen Intelligenz können manipuliert werden und gefährliche Dinge lernen
Eric Schmidt, ehemaliger CEO von Google, warnt, dass fortschrittliche Modelle der künstlichen Intelligenz (KI) "gehackt" werden können – das heißt, sie können so modifiziert werden, dass sie Sicherheitsfilter umgehen, die sie daran hindern, gefährliche Antworten zu geben.
In einer Rede auf dem Sifted Summit erklärte er, dass jedes KI-Modell, ob öffentlich oder privat, analysiert und reproduziert ("reverse-engineered") werden kann. In diesem Prozess können die Modelle an sensible Informationen gelangen – einschließlich Gewaltmethoden – die dann von Nutzern ausgenutzt werden könnten.
Schmidt fügte hinzu, dass, obwohl Unternehmen versuchen, diese Risiken durch strenge interne Regeln zu begrenzen, die Gefahr bleibt: böswillige Personen könnten KI für schädliche Zwecke nutzen. Er glaubt, dass die Welt ein globales Abkommen zur Kontrolle der Entwicklung und Nutzung von künstlicher Intelligenz benötigt, ähnlich den internationalen Verträgen, die Waffen regeln.
TikTok leitet 13-Jährige zu expliziten sexuellen Inhalten
Ein Bericht von Global Witness zeigt, dass der Suchalgorithmus von TikTok sexualisierte Begriffe Nutzern vorschlug, die angaben, 13 Jahre alt zu sein, selbst wenn diese Konten neu erstellt wurden und den "Restricted"-Modus verwendeten, der dazu gedacht ist, reife Inhalte zu begrenzen. In durchgeführten Tests erschienen pornografische Vorschläge sofort nach dem Öffnen der Suchleiste, und nach wenigen Klicks konnten die Nutzer auf explizite Inhalte zugreifen.
Die Ermittler erklärten, dass der Algorithmus nicht nur den Zugang ermöglicht, sondern aktiv Jugendliche zu schädlichen sexuellen Inhalten leitet, was die Konformität von TikTok mit dem britischen Online Safety Act in Frage stellt. TikTok antwortete, dass es die beanstandeten Vorschläge entfernt und Änderungen an der Vorschlagsfunktion eingeführt hat, aber der Bericht wirft ernsthafte Fragen zur Wirksamkeit der Schutzmaßnahmen für Minderjährige auf.
Google: Australisches Gesetz zur Nutzung sozialer Netzwerke durch Jugendliche – "sehr schwer durchzusetzen"
Google erklärt, dass die australische Gesetzgebung, die den Zugang zu sozialen Netzwerken für Personen unter 16 Jahren verbieten will, "extrem schwierig" durchzusetzen sein wird. Das Unternehmen weist darauf hin, dass die Entscheidung, keine strengen Altersüberprüfungen durchzusetzen – sondern sich auf inferenzbasierte künstliche Intelligenz und Verhalten zu stützen – dazu führt, dass das Ziel des Gesetzes (Schutz der Kinder) eher illusorisch als praktisch ist.
Vertreter von YouTube betonen, dass, obwohl die Absicht der Regierung gut ist, die vorgeschlagenen Maßnahmen keine zusätzliche Online-Sicherheit garantieren und unerwünschte Folgen haben können. Google schlägt vor, dass Sicherheitsinstrumente im digitalen Umfeld und die Einbeziehung der Eltern effektivere Ansätze sind als ein vollständiges Verbot des Zugangs.
Meta fordert die Integration von KI in den gesamten Arbeitsablauf: "geht 5x schneller"
Die Führung von Meta fordert die Mitarbeiter auf, künstliche Intelligenz nicht nur für marginale Gewinne zu übernehmen, sondern um einen Produktivitätssprung um den Faktor 5 zu erzielen. In einer internen Nachricht sagte Vishal Shah, Vizepräsident für Metaverse, dass KI ein integraler Bestandteil der Arbeit werden sollte (nicht ein Zubehör) und dass alle Mitarbeiter – Ingenieure, Designer, Manager – KI-Prototypen schnell nutzen sollten.
Mark Zuckerberg erklärte, dass der Großteil des Codes von Meta in den nächsten 12-18 Monaten von KI generiert werden wird. Diese Initiative wirft jedoch Bedenken auf: nicht nur könnten sich die Rollen der Mitarbeiter dramatisch ändern, sondern der Druck, allgegenwärtige KI zu integrieren, könnte als Zwang oder als Einschränkung des menschlichen kreativen Raums empfunden werden.
Cisco bringt einen Chip zur Verbindung von KI-Rechenzentren über große Entfernungen auf den Markt
Cisco hat einen speziellen Chip entwickelt, der dazu dient, Rechenzentren, die KI-Infrastruktur über große Entfernungen hosten, zu verbinden, wodurch die Latenz verringert und die Leistung der Verbindungen zwischen verteilten Knoten verbessert wird.
Das Ziel ist es, eine effizientere Kommunikation zwischen KI-Verarbeitungszentren zu ermöglichen, wenn diese in verschiedenen geografischen Regionen lokalisiert sind, um Anwendungen zu unterstützen, die empfindlich auf Latenz und große Datenmengen reagieren. Diese Lösung könnte entscheidend werden, da große KI-Modelle global verteilt werden und schnelle Synchronisation und robuste Interkonnektivität erfordern.
EU: Digitale Souveränität darf nicht mit Protektionismus verwechselt werden
Der für Technologie zuständige deutsche Minister erklärte, dass die Notwendigkeit digitaler Souveränität in der Europäischen Union – also Kontrolle und Autonomie in Infrastruktur, Plattformen und Daten – nicht als protektionistische Politik gegen andere Regionen interpretiert werden darf.
Der Beamte betont, dass die EU interne Technologie- und KI-Kapazitäten aufbauen muss, ohne feindliche Handels- oder globale Kooperationsbarrieren zu errichten. Der Fokus liegt auf dem Gleichgewicht zwischen Regulierung, Wettbewerbsfähigkeit und Offenheit für externe Innovation.
Copilot für Windows: Office-Dokumente und Verbindung zu Gmail/Outlook
Microsoft hat die Funktionen von Copilot auf Windows erweitert, sodass es jetzt Office-Dokumente erstellen und sich direkt mit Gmail oder Outlook verbinden kann, um E-Mails und Kalender zu integrieren.
Diese Integration macht Copilot nützlicher als digitalen Assistenten bei Büroaufgaben, da sie die automatische Erstellung von Inhalten in Word, PowerPoint usw. basierend auf dem Kontext und den Daten aus E-Mails/Korrespondenz ermöglicht.
Apple stellt den Support für die Video-Editing-App Clips ein
Apple hat angekündigt, dass es den Support für die Clips-App einstellen wird, die für einfaches Video-Editing auf mobilen Geräten verwendet wird.
Das bedeutet, dass es keine Sicherheitsupdates, neuen Funktionen oder Kompatibilität mit neuen iOS-Versionen mehr geben wird. Nutzer, die Clips verwendet haben, müssen auf alternative Video-Editing-Tools umsteigen.
Chrome deaktiviert automatisch Benachrichtigungen von ignorierten Websites
Google Chrome wird automatisch die Erlaubnis zur Anzeige von Benachrichtigungen für Websites deaktivieren, die Nutzer häufig ignorieren.
Das Ziel ist es, übermäßigen Lärm von unnötigen Benachrichtigungen zu reduzieren und die Benutzererfahrung zu verbessern, indem der Browser die Rolle übernimmt, zu entscheiden, welche Websites weiterhin Benachrichtigungen anzeigen dürfen.
Das "Zweite Chance"-Programm von YouTube für gesperrte Creator
YouTube hat ein Programm gestartet, das gesperrten Creatorn wegen Fehlinformationen (im Zusammenhang mit COVID oder Wahlen) die Chance bietet, unter strengen Bedingungen auf die Plattform zurückzukehren.
Das Ziel ist es, Raum für diejenigen zu schaffen, die gegen die Regeln verstoßen haben, sich aber reformieren, und gleichzeitig die Entscheidung über eine endgültige Sperre mit der Möglichkeit der Wiederherstellung in Abhängigkeit vom Verhalten auszugleichen.
OpenAI Sora überschreitet 1 Million Downloads
Die mobile App Sora, die von OpenAI entwickelt wurde, hat die Marke von über 1 Million Downloads erreicht, was das Interesse der Nutzer an einem persönlichen KI-Begleiter auf dem Telefon signalisiert.
Der schnelle Erfolg deutet auf das große Potenzial für Verbraucheranwendungen von KI hin, bringt jedoch auch Herausforderungen in Bezug auf Skalierbarkeit, Datenschutz und die Aufrechterhaltung der Sicherheit in großem Maßstab mit sich.
Google versucht, Lösungen zu stoppen, die in der Suche auferlegt werden und die KI-Ergebnisse einschränken könnten
Google sieht sich Forderungen von Behörden (wie dem DOJ) gegenüber, Lösungen anzuwenden, die regeln, wie das Suchsystem funktioniert, aber das Unternehmen argumentiert, dass einige davon seine Fähigkeit, sich in Richtung KI (z.B. Gemini) weiterzuentwickeln, behindern könnten.
Es besteht eine Spannung zwischen Regulierung und Innovation: Die Behörden versuchen, wettbewerbswidriges oder missbräuchliches Verhalten zu begrenzen, während Google darauf hinweist, dass Eingriffe den technologischen Fortschritt und die globale Wettbewerbsfähigkeit bremsen könnten.
Kleine europäische Unternehmen übernehmen KI, bevor sie grundlegende digitale Werkzeuge haben
Eine Studie zeigt, dass viele kleine Unternehmen in Europa hastig Lösungen für künstliche Intelligenz übernehmen, obwohl sie keine grundlegende digitale Infrastruktur (z.B. Website, Cloud-Tools) haben.
Dies schafft eine Kluft: Ohne eine solide technologische Grundlage besteht das Risiko, dass KI oberflächlich oder ineffizient genutzt wird. Für eine echte Transformation ist es notwendig, die grundlegenden digitalen Fähigkeiten weiter zu stärken.
Internationale Finanzinstitutionen verstärken die Überwachung von KI
Globale Finanzregulierungsbehörden beabsichtigen, die Überwachung von KI-Anwendungen zu erhöhen, die Auswirkungen auf das Finanzsystem haben können – einschließlich algorithmischer Transaktionen, automatisierter Risikobewertungen und Marktmanipulation.
Der Grund: KI hat das Potenzial, Volatilitäten zu verstärken, riskantes Verhalten zu amplifizieren oder systemische Schwächen auszunutzen. Daher wünschen sich Institutionen wie Zentralbanken, Marktaufsichtsbehörden und Aufsichtsbehörden strengere Instrumente und Regulierungen.
Die EU startet einen Plan über 1,1 Milliarden USD zur Förderung von KI in der Industrie
Die Europäische Union hat einen Plan über 1,1 Milliarden Dollar genehmigt, um die Einführung von KI in strategischen Industrien zu unterstützen, im Kontext des Wunsches nach digitaler Souveränität und der Verringerung der Abhängigkeit von ausländischen Technologien.
Die Mittel werden in Forschung, Entwicklung, Skalierung und praktische Anwendung von KI-Systemen in Schlüsselwirtschaftssektoren fließen. Es ist ein klares Signal, dass die EU die digitale Transformation beschleunigen und ihre Wettbewerbsfähigkeit auf globaler Ebene stärken möchte.
Das chinesische Robotikunternehmen AgiBot beschleunigt die Produktion
Das chinesische Unternehmen AgiBot (oder Zhiyuan Robotics), gegründet 2023 von ehemaligen Huawei-Ingenieuren, hat die Aufmerksamkeit der Branche durch die Entwicklung humanoider Roboter mit integrierter künstlicher Intelligenz auf sich gezogen. Sie bauen eine Plattform "Embodiment + KI", die physische Robotik mit automatisierten Lernmodellen kombiniert und Roboter in den Serien Yuanzheng, Lingxi und Genie anbietet.
Ein zentraler Punkt ihrer Strategie ist AgiBot World, ein großes Datenset (über 1 Million Trajektorien für 217 Aufgaben), das entwickelt wurde, um Roboter in variierenden und realistischen Umgebungen zu trainieren. Darüber hinaus hat AgiBot kürzlich neue Finanzierungsrunden mit Beteiligung von Unternehmen wie LG Electronics und Mirae Asset erhalten, was das wachsende Interesse der Investoren im Bereich integrierter Roboter anzeigt.
Parallel dazu macht AgiBot konkrete Schritte in Richtung Kommerzialisierung: Sie haben bedeutende Verträge zur Lieferung von 100 A2-W-Robotern für Automobilkomponentenwerke unterzeichnet, und das Unternehmen plant, eine Mehrheitsbeteiligung an der Firma Swancor Advanced Materials (ca. 2 Milliarden Yuan) zu erwerben, möglicherweise als Methode für den Börseneinstieg. Außerdem wurde der A2-Roboter der erste humanoide Roboter, der gleichzeitig in China, der Europäischen Union und den Vereinigten Staaten zertifiziert wurde.
Die Europäische Kommission untersucht den Schutz von Minderjährigen auf Snapchat, YouTube und in App Stores
Unter dem Einfluss der Richtlinie über digitale Dienste (DSA) hat die Europäische Kommission mit Untersuchungen begonnen, wie Plattformen wie Snapchat, YouTube, Apple App Store und Google Play den Schutz von Minderjährigen online gewährleisten. Die Behörden fordern Informationen zu den Altersverifikationsmechanismen, wie schädliche Inhalte gefiltert werden (z.B. die Förderung von Essstörungen) und der Zugang zu illegalen Produkten (wie Drogen oder Vapes). Bei Nichteinhaltung der Vorschriften riskieren Unternehmen Strafen von bis zu 6 % ihres globalen Umsatzes.
Diese Maßnahme ist Teil der Bemühungen der Kommission, die Bestimmungen der DSA zum Schutz von Minderjährigen und zur Verantwortung digitaler Plattformen durchzusetzen.
OpenAI warnt die EU: wettbewerbswidriges Verhalten und "Lock-in" von Nutzern
OpenAI hat den Behörden der EU (einschließlich der zuständigen Kommissarin, Teresa Ribera) mitgeteilt, dass sie ernsthafte Wettbewerbsprobleme gegenüber großen Unternehmen wie Google, Apple und Microsoft hat. In dem Treffen am 24. September forderte das Unternehmen die Regulierungsbehörden auf, darauf zu achten, dass große Plattformen Nutzer nicht "einsperren" und Eintrittsbarrieren für Wettbewerber auferlegen.
Die Argumente von OpenAI betreffen sowohl die Infrastruktur (Cloud, Datenzugang) als auch die Verteilung von Anwendungen und deuten darauf hin, dass dominante Entitäten ihre Position missbrauchen können, um ihre Vorherrschaft im KI-Markt zu festigen. Obwohl bisher keine formelle Beschwerde eingereicht wurde, ist die Anfrage ein klares Signal, dass OpenAI eine europäische Intervention in die Regulierung des KI-Marktes wünscht.
Dänemark will soziale Netzwerke für Kinder unter 15 Jahren verbieten
Die dänische Regierung unter Premierministerin Mette Frederiksen hat einen Gesetzentwurf vorgeschlagen, der den Zugang zu sozialen Netzwerken für Personen unter 15 Jahren verbieten soll, unter Berufung auf die negativen Auswirkungen auf die psychische Gesundheit und die Konzentration von Kindern. Der Vorschlag enthält jedoch eine Ausnahme: Eltern könnten den Zugang für Kinder im Alter von 13-14 Jahren erlauben, wenn sie zustimmen.
Die Argumente der Beamten basieren auf statistischen Daten, die einen Anstieg von Angstzuständen, Depressionen und Konzentrationsschwierigkeiten bei Jugendlichen zeigen, einerseits, und auf der Feststellung, dass viele Kinder bereits aktive Social-Media-Profile haben, bevor sie 13 Jahre alt werden. Das Verbot ist Teil eines globalen Trends zu strengeren Regulierungen des digitalen Raums für Minderjährige, ähnlich wie in Australien oder Norwegen.
41 % der Schulen berichteten von Cybervorfällen im Zusammenhang mit KI
Eine aktuelle Studie (durchgeführt in den USA und Großbritannien) zeigt, dass etwa 41 % der Schulen von Cybervorfällen betroffen waren, die mit der Nutzung von KI zusammenhängen – von Phishing-Kampagnen bis hin zu schädlichen Inhalten, die von Schülern generiert wurden. Von diesen Vorfällen führten etwa 11 % zu Betriebsunterbrechungen, während 30 % relativ schnell behoben wurden.
Die meisten Bildungseinrichtungen (82 %) geben an, dass sie "zumindest einigermaßen vorbereitet" auf solche Bedrohungen sind, aber nur 32 % fühlen sich "sehr gut vorbereitet". Die Studie zeigt die Diskrepanz zwischen der Einführung von KI-Technologien und der Entwicklung angepasster Sicherheitsrichtlinien: Viele Schulen erlauben die Nutzung von KI durch Schüler und Lehrer, jedoch ohne formale Regeln oder ein solides Rahmenwerk zum Datenschutz und zur Missbrauchsverhinderung.