
Согласно TechCrunch, некоторые люди, не имевшие права доступа, получили доступ к Mythos, новому инструменту кибербезопасности от Anthropic. Это вызывает опасения, поскольку Anthropic заявила, что Mythos может находить и использовать уязвимости в большинстве операционных систем и веб-браузеров, если пользователь даст ему такую команду.
"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.
Найти недооцененные активыКомпания описывает эту технологию как имеющую как преимущества, так и риски. Они предупредили, что в случае злоупотребления она может стать мощным инструментом для хакеров вместо функции безопасности, для которой она предназначалась для предприятий.
Небольшая группа людей получила несанкционированный доступ к инструменту вскоре после того, как Anthropic публично объявила о нём. Они нашли способ проникнуть через частный онлайн-форум и использовали различные методы для обхода мер безопасности. Эта группа известна поиском информации об AI моделях до их официального выпуска и координирует свои усилия на Discord канале.
Пожалуй, наиболее тревожным является то, как группе удалось точно определить местонахождение модели.
Им удалось найти модель в сети, сделав обоснованное предположение о том, где она может находиться, основываясь на том, как Anthropic называл и форматировал свои предыдущие модели. В этом поиске помогли детали, которые были раскрыты в недавней утечке данных в Mercor, компании, занимающейся обучением ИИ и сотрудничающей с ведущими разработчиками.
Группа также получила доступ через сотрудника стороннего подрядчика, работающего с Anthropic. Этот человек, которого допросили по поводу нарушения безопасности, имел авторизованный доступ к моделям и программному обеспечению Anthropic в рамках своей работы – он оценивал технологию для своего стартапа по своему контракту.
что мы знаем о ситуации с несанкционированным доступом к Anthropic Mythos на данный момент:
– 7 апреля: Anthropic объявляет о предварительном просмотре Claude Mythos (‘слишком опасно для публичного релиза’). В тот же день доступ получает частный Discord.
– Bloomberg опубликовал об этом 21 апреля. Все остальные переписывают.
– Vector: a…— Ted Cheng (@HeyTedC) April 22, 2026
Как поклонник работы Anthropic, я внимательно следил за выпуском Mythos. Было действительно интересно наблюдать, как осторожно они его выпускают! Они не просто сделали его доступным для всех; вместо этого они начали с небольшой группы доверенных поставщиков и организаций через что-то под названием Project Glasswing. Насколько я понимаю, это был сознательный выбор, чтобы удержать технологию от попадания в чужие руки и не дать никому использовать её для атаки на безопасность компании – что, я думаю, очень умный ход.
Итак, я слышал много об этой новой модели ИИ, и, очевидно, крупные игроки уже тестируют её. Такие компании, как Apple, Amazon и Cisco, испытывают её. Amazon является большим сторонником команды, стоящей за ней, и они предлагают доступ через свою платформу Bedrock, но сейчас это очень эксклюзивно. Слухи распространяются о том, насколько она полезна, и теперь все – особенно банки и государственные учреждения в США и Европе – пытаются встать в лист ожидания. Они хотят использовать её для защиты своих систем, что логично, не так ли?
В связи с сообщениями о потенциальной проблеме с безопасностью, Anthropic заявила, что они изучают утверждения о том, что кто-то получил несанкционированный доступ к предварительной версии их Claude Mythos AI через стороннего поставщика. На данный момент они не обнаружили признаков того, что системы Anthropic были затронуты, и полагают, что проблема ограничена средой поставщика.
Хотя взлом безопасности кажется серьезным, человек, сообщивший о нем, уточнил мотивы группы. Они заявили, что пользователи, похоже, больше заинтересованы в экспериментировании с новыми моделями, чем в нанесении реального ущерба.
Итак, я слышал, что эта группа, пытающаяся проверить пределы возможностей ИИ, избегает всего, что связано с кибербезопасностью, когда экспериментирует с моделью Mythos. По-видимому, они сосредотачиваются на создании базовых веб-сайтов – видимо, это способ остаться незамеченными. Что еще более интересно, у них есть доступ не только к Mythos, но и к множеству других ИИ-моделей, которые Anthropic еще даже не выпустила. Похоже, они действительно пытаются понять все, над чем работает Anthropic, а не только один конкретный ИИ.
Эта ситуация демонстрирует значительные трудности, с которыми сталкивается Anthropic в предотвращении использования его самой передовой и потенциально рискованной технологии несанкционированными лицами. Если сообщения правдивы, вызывает беспокойство то, сколько других людей могут использовать Mythos без одобрения и что они намерены с этим делать.
Anthropic сейчас имеет дело с последствиями этой утечки безопасности, которая может повредить имиджу их нового, высокозащищенного продукта, предназначенного для бизнеса. Эта ситуация ясно показывает, что даже сильные меры безопасности, такие как Project Glasswing, могут быть уязвимы, если какая-либо часть системы – особенно связанная с внешними компаниями – слаба.
Смотрите также
- Лучшие сборки Legend of Mushroom для каждого класса
- Как получить Фолли в Warframe (Руководство по добыче Фолли)
- Лучшие сборки персонажей в Project Zomboid (обновлено для сборки 42)
- Какой лучший моб в Моб Контрол?
- СТАЛКЕР 2 слишком мрачный? Вот как исправить темное освещение
- Сэди Синк реагирует на разочаровывающую сцену с Макс в 5 сезоне Stranger Things: «Почему мы сейчас записываем эпизод подкаста?»
- Коды игры «Креветочная игра» (январь 2025 г.)
- Гайд по Topping Tart в Cookie Run: Kingdom — вкусные подробности
- Стильное новое сотрудничество Blood Strike с популярным аниме-сериалом Shonen Bleach уже доступно.
- Fantamon: Idle RPG Skill Tier List (Апрель 2026) — Лучшие навыки для каждого класса, в ранжированном порядке
2026-04-23 02:34