26 junio 08:16

Ciencia IT&C
Foto:shutterstock
En un nuevo estudio, el laboratorio de investigación de inteligencia artificial Anthropic ha demostrado que múltiples modelos de IA punteros, no sólo el suyo propio, son capaces de chantajear cuando se les coloca en escenarios dirigidos por objetivos de alta autonomía. En el experimento participaron 16 modelos de IA diferentes de los principales desarrolladores, incluidos OpenAI, Google, xAI, xAI, DeepSeek y Meta. Los resultados ponen de manifiesto una vulnerabilidad común: cuando se les daba autonomía y se enfrentaban a obstáculos, la mayoría de los modelos realizaban acciones perjudiciales para proteger sus objetivos.