search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Изменить язык

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Разделы
  • Срочные новости
  • Эксклюзив
  • Опрос INSCOP
  • Подкаст
  • Диаспора
  • Молдова
  • Политика
  • Экономика
  • Новости
  • Международный
  • Спорт
  • Здоровье
  • Образование
  • Наука IT&C
  • Искусство и образ жизни
  • Мнения
  • Выборы 2025
  • Окружающая среда
О нас
Контакты
Политика конфиденциальности
Условия использования
Быстро пролистайте новостные дайджесты и посмотрите, как они освещаются в разных изданиях!
  • Срочные новости
  • Эксклюзив
    • Опрос INSCOP
    • Подкаст
    • Диаспора
    • Молдова
    • Политика
    • Экономика
    • Новости
    • Международный
    • Спорт
    • Здоровье
    • Образование
    • Наука IT&C
    • Искусство и образ жизни
    • Мнения
    • Выборы 2025
    • Окружающая среда
  1. Главная
  2. Наука IT&C
141 новых новостей за последние 24 часа
26 июня 09:16

Новое исследование лаборатории искусственного интеллекта Anthropic показывает, что не только ее модель, Клод, но и другие ведущие модели ИИ способны на шантаж в сценариях с высокой степенью автономности.

Adrian Rusu
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
Наука IT&C
Foto:shutterstock
В новом исследовании лаборатория искусственного интеллекта Anthropic продемонстрировала, что несколько ведущих моделей ИИ, а не только ее собственная модель, способны на шантаж, когда их помещают в сценарии, управляемые высокоавтономными целями. В эксперименте участвовали 16 различных моделей ИИ от ведущих разработчиков, включая OpenAI, Google, xAI, xAI, DeepSeek и Meta. Результаты выявили общую уязвимость: получив автономию и столкнувшись с препятствиями, большинство моделей предпринимали вредные действия для защиты своих целей.

Источники

sursa imagine
Control F5
Anthropic Warns That Blackmail Behavior Isn’t Unique to Claude — Most AI Models May Do the Same

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Наука IT&C
OpenAI опубликовала новое исследование о том, как модели ИИ, которые действуют совместно, скрывают свои истинные намерения.
event image
Новости
Тесты безопасности показали, что модели ИИ могут предоставлять инструкции для кибератак и изготовления взрывчатых веществ, вызывая серьезные опасения.
event image
Наука IT&C
OpenAI и Anthropic, двое из самых важных игроков в области искусственного интеллекта, решили открыть свои модели для совместного тестирования безопасности
event image
Наука IT&C
Компания, стоящая за чат-ботом Claude, раскрыла, как хакер использовал чат-бота для идентификации, атаки и шантажа как минимум 17 компаний
event image
Наука IT&C
OpenAI исследует причины, по которым продвинутые языковые модели, такие как GPT-5, вызывают галлюцинации
event image
Наука IT&C
Стартап Anthropic, поддерживаемый Amazon, предложит правительству США модель искусственного интеллекта Claude за 1 доллар, присоединившись к другим компаниям, сделавшим подобные предложения.
app preview
Персонализированная лента новостей, поиск с ИИ и уведомления в более интерактивном формате.
app preview app preview
AI ИИ Антропный исследование
app preview
Персонализированная лента новостей, поиск с ИИ и уведомления в более интерактивном формате.
app preview
app store badge google play badge
  • Срочные новости
  • Эксклюзив
  • Опрос INSCOP
  • Подкаст
  • Диаспора
  • Молдова
  • Политика
  • Экономика
  • Новости
  • Международный
  • Спорт
  • Здоровье
  • Образование
  • Наука IT&C
  • Искусство и образ жизни
  • Мнения
  • Выборы 2025
  • Окружающая среда
  • О нас
  • Контакты
Политика конфиденциальности
Политика использования файлов cookie
Условия использования
Лицензии с открытым исходным кодом
Все права защищены Strategic Media Team SRL

Технология при поддержке

anpc-sal anpc-sol