Anthropic сдерживает выпуск своей новейшей AI-модели, поскольку она слишком опасна для публичного релиза, но причина не в том, что вы думаете.

Anthropic приняла решение ограничить доступ к своей новейшей модели ИИ, Claude Mythos Preview, из-за проблем безопасности. Согласно The Hill, проблема не в том, что ИИ не работает хорошо – он на самом деле слишком эффективен. Модель примечательно умело обнаруживает и использует давние уязвимости в программном обеспечении, что делает ее потенциально опасной для общественного использования.

📚

Думаешь, S&P 500 — это марка автомобиля? Ничего страшного. У нас тут объясняют сложные вещи простыми словами и пытаются понять, куда рынок пойдет завтра. Без обещаний, просто факты.

Изучить основы

Хотя обнаружение ошибок — обычное дело при создании программного обеспечения, Mythos Preview — это исключение. Ему уже удалось обнаружить тысячи серьёзных уязвимостей в популярных веб-браузерах и операционных системах, которые не были обнаружены разработчиками и обычными методами тестирования, даже спустя годы.

Модель иногда обнаруживала уязвимости, датируемые почти тремя десятилетиями назад. Anthropic обеспокоена тем, что публикация такого мощного инструмента не ограничится экспертами по безопасности. Компания опасается, что злоумышленники неизбежно получат его и будут использовать для проведения разрушительных кибератак на жизненно важные системы, такие как электросети и больницы.

Чтобы справиться с этим, Anthropic запускает инициативу под названием Project Glasswing

Этот проект объединяет крупные технологические компании, такие как Microsoft, Apple, Amazon Web Services, CrowdStrike и Google, а также более 40 других поставщиков программного обеспечения. Они работают вместе, чтобы использовать мощный новый инструмент под названием Mythos Preview для проактивного поиска и исправления уязвимостей в своих системах до того, как хакеры смогут их использовать, сосредотачиваясь на предотвращении, а не на реагировании.

Поразительно и немного тревожно, что ИИ теперь способен превзойти даже лучших экспертов по безопасности. Anthropic отмечает, что время между обнаружением уязвимости в системе безопасности и её эксплуатацией стремительно сокращается. То, на что раньше хакерам требовались месяцы, теперь можно сделать за минуты с помощью ИИ. Именно поэтому Anthropic действует осторожно – если эти возможности ИИ распространятся слишком быстро, это может иметь серьёзные последствия для национальной безопасности, общественной безопасности и мировой экономики.

Anthropic заявляет, что новая модель ИИ слишком опасна для публичного релиза #TheHill

— #TuckFrump (@realTuckFrumper) April 9, 2026

Anthropic подкрепляет свою приверженность кибербезопасности значительным финансированием. Они предлагают до 100 миллионов долларов в виде кредитов, чтобы помочь организациям использовать их AI-модель в целях безопасности. Кроме того, они жертвуют 4 миллиона долларов на поддержку сообщества open-source безопасности, признавая, что люди, которые поддерживают важнейшую интернет-инфраструктуру, часто не имеют достаточного финансирования. Это стратегическая инвестиция, поскольку open-source программное обеспечение имеет решающее значение для того, как работает наша технология, и его разработчики обычно не располагают большими бюджетами на безопасность, как крупные технологические компании.

Окей, так что я проверил, на что на самом деле способен Mythos Preview, и это серьезно впечатляет – и немного пугает. Он обнаружил уязвимость в OpenBSD, которая скрывалась на протяжении 27 лет, позволяя удаленно приводить системы в состояние сбоя. Но это даже не самая безумная часть. Он также обнаружил множество слабых мест в ядре Linux и объединил их, чтобы полностью захватить машину – все самостоятельно, без указаний с моей стороны. Честно говоря, видя такое, становится совершенно ясно, почему создатели так долго держали это в секрете. Это мощная штука.

Компания ведет переговоры с правительством США о своей технологии, что вполне понятно, учитывая важность, которую Президент Трамп и его администрация придают защите жизненно важной инфраструктуры. Основная цель — сохранить лидерство Соединенных Штатов и их партнеров в области разработки ИИ, одновременно решая потенциальные опасности, которые представляют эти новые технологии.

Anthropic сейчас не выпускает модель Mythos Preview для общего пользования. Однако они сосредоточены на поиске способов безопасного выпуска аналогичных моделей в будущем. Они разрабатывают надежные функции безопасности для предотвращения вредоносных ответов и будут тестировать их в будущих версиях своей модели Claude Opus.

Итак, мы начинаем с Project Glasswing, который, по сути, является безопасным пространством для тестирования действительно мощных новых инструментов безопасности. Честно говоря, это очень важно, потому что кажется, что мы вступаем во времена, когда ИИ будет постоянно использоваться для кибератак. Если мы хотим оставаться защищенными, нам нужно бороться огнем с огнем – использовать сам ИИ для создания защиты и обеспечения безопасности всего. Это как изучение приемов врага, чтобы победить его в его же игре, понимаете?

Смотрите также

2026-04-10 02:30