26 június 08:16
     
            
                                    IT&C tudomány
                            
            
        Foto:shutterstock
    
                    Egy új tanulmányban az Anthropic mesterségesintelligencia-kutató laboratórium kimutatta, hogy több vezető mesterséges intelligencia-modell - nem csak a saját modellje - képes zsarolásra, amikor magas autonómiájú célpontok által vezérelt forgatókönyvekbe kerül. A kísérletben 16 különböző AI-modell vett részt vezető fejlesztőktől, köztük az OpenAI, a Google, az xAI, az xAI, az xAI, a DeepSeek és a Meta. Az eredmények rávilágítanak egy közös sebezhetőségre: amikor autonómiát kaptak és akadályokkal szembesültek, a legtöbb modell káros lépéseket tett céljai védelmében.
            
        
        
                    
        
         
                             
             
             
             
             
             
             
    