
Anthropic, компания, занимающаяся разработкой ИИ и известная своим приоритетом безопасности, по сообщениям журнала Time, отменяет ключевую часть своей основной политики безопасности. Это значительный сдвиг для компании, которая всегда делала акцент на безопасность, и, вероятно, вызовет обеспокоенность и спровоцирует дискуссию.
"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.
Найти недооцененные активыИтак, ещё в 2023 году Anthropic дала очень интересное обещание – они заявили, что не будут создавать новый ИИ, пока не будут абсолютно уверены в его безопасности. Их лидеры, такие как Джаред Каплан, были страстными сторонниками этого, и это было основой их подхода к разработке ИИ. Честно говоря, это выделяло их как осторожных и ответственных, потому что всем остальным казалось, что они соревнуются в создании самого мощного ИИ как можно быстрее. Это была довольно сильная позиция, и я уважал их за это.
Недавно компания приняла решение значительно изменить свои протоколы безопасности для разработки ИИ. Это означает, что они больше не обещают воздерживаться от выпуска моделей ИИ до тех пор, пока не будут уверены, что все потенциальные риски устранены. Отвечая на вопросы об этом сдвиге, главный научный сотрудник Anthropic, Джаред Каплан, объяснил, что приостановка разработки ИИ была бы неэффективной. Он утверждал, что, учитывая, как быстро развивается технология ИИ, им было бы непрактично ограничивать себя, в то время как другие компании продолжают добиваться прогресса.
Новая версия политики обязуется быть более прозрачной в отношении рисков, связанных с безопасностью ИИ, включая предоставление нам более подробной информации о том, как собственные модели Anthropic показывают себя в тестах безопасности.
Компания также стремится быть настолько же безопасной, или даже более безопасной, чем её конкуренты в разработке ИИ. Она пообещала замедлить разработку ИИ, если считает, что опережает тенденции, а потенциальные риски значительны. Этот новый подход означает, что Anthropic больше не так ограничена своими предыдущими правилами безопасности, которые ранее полностью препятствовали созданию более мощных моделей ИИ без предварительного обеспечения их безопасности.
Компания Anthropic сейчас переживает значительный поворотный момент. Если раньше их считали отстающими от OpenAI, то в последнее время они достигли больших успехов как в технологиях, так и в бизнесе. Их модели Claude, особенно Claude Code для кодирования, стали невероятно популярны.
Эксклюзив: Anthropic отказывается от главного обещания безопасности
— #TuckFrump (@realTuckFrumper) February 24, 2026
Компания получила 30 миллиардов долларов новых инвестиций в феврале, что оценивает её стоимость примерно в 380 миллиардов долларов. Доход стремительно растёт, увеличиваясь в десять раз каждый год. Многие инвесторы считают, что их подход к прямым продажам предприятиям более надёжен, чем фокус OpenAI на индивидуальных потребителях. Хотя некоторые могут рассматривать это как уступку рыночным давлениям, Kaplan настаивает на том, что это решение является практическим ответом на текущие условия.
Когда Anthropic запустила свою практику ответственного масштабирования (Responsible Scaling Practices — RSP) в 2023 году, они надеялись, что другие компании в области ИИ последуют их примеру. Хотя никто напрямую не обещал приостановить разработку ИИ, многие компании опубликовали подробные отчеты о том, как минимизировать потенциальные риски, что Anthropic считает положительным результатом их инициативы. Они также предполагали, что RSP послужит моделью для будущих государственных нормативных актов как на национальном, так и на международном уровне.
Несмотря на разговоры о регулировании, оно так и не было реализовано. Администрация Трампа отдавала предпочтение невмешательству в развитие ИИ, даже пытаясь отменить правила на уровне штатов, и в настоящее время нет федеральных законов, регулирующих ИИ. Всемирное соглашение по ИИ, которое казалось достижимым еще недавно, теперь кажется маловероятным. В то же время, конкуренция за лидерство в ИИ – как между компаниями, так и между странами – становится все более ожесточенной.
Каплан ответил на опасения по поводу реакции Anthropic на действия конкурентов, подчеркнув их неизменную приверженность безопасной разработке ИИ. Он объяснил, что Anthropic стремится соответствовать или превосходить стандарты безопасности своих конкурентов. Он считает, что для них крайне важно оставаться вовлеченными в исследования и обеспечение безопасности ИИ – прекращение работы сейчас рискует их обесценить и не обязательно снизит общий риск, особенно если другие продолжат развивать технологию.
Смотрите также
- Лучшие сборки персонажей в Project Zomboid (обновлено для сборки 42)
- Лучшие сборки Legend of Mushroom для каждого класса
- Тир-лист Athena Blood Twins
- Список уровней Maiden Academy
- В интервью ‘Into the Restless Ruins’: «Если что-то и верно, так это то, что инди-разработчики находятся в лучшем положении для процветания по сравнению с более крупными компаниями»
- Out of Darkness: Heavy is the Crown 2 (2026) Обзор фильма
- Как получить все мечи Цитадели Смерти в Black Ops 6 Zombies
- Бумер вылетел, когда Карен ругалась во весь голос из-за свитера в Arizona Dillard’s, ‘Вызовите священника вместе с полицией’.
- Le Zoo — новая игра от Mother, игра с миссией.
- Legacy — Reawakening — это игра в стиле Myst с таинственным подземным миром, которая теперь доступна на iOS и Android
2026-02-26 00:01