
Anthropic, компания, занимающаяся разработкой ИИ и известная своим приоритетом безопасности, по сообщениям журнала Time, отменяет ключевую часть своей основной политики безопасности. Это значительный сдвиг для компании, которая всегда делала акцент на безопасность, и, вероятно, вызовет обеспокоенность и спровоцирует дискуссию.
Думаешь, S&P 500 — это марка автомобиля? Ничего страшного. У нас тут объясняют сложные вещи простыми словами и пытаются понять, куда рынок пойдет завтра. Без обещаний, просто факты.
Изучить основыИтак, ещё в 2023 году Anthropic дала очень интересное обещание – они заявили, что не будут создавать новый ИИ, пока не будут абсолютно уверены в его безопасности. Их лидеры, такие как Джаред Каплан, были страстными сторонниками этого, и это было основой их подхода к разработке ИИ. Честно говоря, это выделяло их как осторожных и ответственных, потому что всем остальным казалось, что они соревнуются в создании самого мощного ИИ как можно быстрее. Это была довольно сильная позиция, и я уважал их за это.
Недавно компания приняла решение значительно изменить свои протоколы безопасности для разработки ИИ. Это означает, что они больше не обещают воздерживаться от выпуска моделей ИИ до тех пор, пока не будут уверены, что все потенциальные риски устранены. Отвечая на вопросы об этом сдвиге, главный научный сотрудник Anthropic, Джаред Каплан, объяснил, что приостановка разработки ИИ была бы неэффективной. Он утверждал, что, учитывая, как быстро развивается технология ИИ, им было бы непрактично ограничивать себя, в то время как другие компании продолжают добиваться прогресса.
Новая версия политики обязуется быть более прозрачной в отношении рисков, связанных с безопасностью ИИ, включая предоставление нам более подробной информации о том, как собственные модели Anthropic показывают себя в тестах безопасности.
Компания также стремится быть настолько же безопасной, или даже более безопасной, чем её конкуренты в разработке ИИ. Она пообещала замедлить разработку ИИ, если считает, что опережает тенденции, а потенциальные риски значительны. Этот новый подход означает, что Anthropic больше не так ограничена своими предыдущими правилами безопасности, которые ранее полностью препятствовали созданию более мощных моделей ИИ без предварительного обеспечения их безопасности.
Компания Anthropic сейчас переживает значительный поворотный момент. Если раньше их считали отстающими от OpenAI, то в последнее время они достигли больших успехов как в технологиях, так и в бизнесе. Их модели Claude, особенно Claude Code для кодирования, стали невероятно популярны.
Эксклюзив: Anthropic отказывается от главного обещания безопасности
— #TuckFrump (@realTuckFrumper) February 24, 2026
Компания получила 30 миллиардов долларов новых инвестиций в феврале, что оценивает её стоимость примерно в 380 миллиардов долларов. Доход стремительно растёт, увеличиваясь в десять раз каждый год. Многие инвесторы считают, что их подход к прямым продажам предприятиям более надёжен, чем фокус OpenAI на индивидуальных потребителях. Хотя некоторые могут рассматривать это как уступку рыночным давлениям, Kaplan настаивает на том, что это решение является практическим ответом на текущие условия.
Когда Anthropic запустила свою практику ответственного масштабирования (Responsible Scaling Practices — RSP) в 2023 году, они надеялись, что другие компании в области ИИ последуют их примеру. Хотя никто напрямую не обещал приостановить разработку ИИ, многие компании опубликовали подробные отчеты о том, как минимизировать потенциальные риски, что Anthropic считает положительным результатом их инициативы. Они также предполагали, что RSP послужит моделью для будущих государственных нормативных актов как на национальном, так и на международном уровне.
Несмотря на разговоры о регулировании, оно так и не было реализовано. Администрация Трампа отдавала предпочтение невмешательству в развитие ИИ, даже пытаясь отменить правила на уровне штатов, и в настоящее время нет федеральных законов, регулирующих ИИ. Всемирное соглашение по ИИ, которое казалось достижимым еще недавно, теперь кажется маловероятным. В то же время, конкуренция за лидерство в ИИ – как между компаниями, так и между странами – становится все более ожесточенной.
Каплан ответил на опасения по поводу реакции Anthropic на действия конкурентов, подчеркнув их неизменную приверженность безопасной разработке ИИ. Он объяснил, что Anthropic стремится соответствовать или превосходить стандарты безопасности своих конкурентов. Он считает, что для них крайне важно оставаться вовлеченными в исследования и обеспечение безопасности ИИ – прекращение работы сейчас рискует их обесценить и не обязательно снизит общий риск, особенно если другие продолжат развивать технологию.
Смотрите также
- Лучшие сборки персонажей в Project Zomboid (обновлено для сборки 42)
- 20 самых креативных планировок ферм Stardew Valley
- Fantamon: Idle RPG Skill Tier List (Апрель 2026) — Лучшие навыки для каждого класса, в ранжированном порядке
- Какой лучший моб в Моб Контрол?
- Arknights объединится с тактическим шутером Tom Clancy’s Rainbow Six: Siege
- Бритни Спирс сожалеет, что над ней «издеваются» из-за ее внешности: «Честно оскорбительно»
- Морган Уоллен выходит из себя и ухмыляется на фотографии во время ареста в Нэшвилле
- У Black Ops 6 будет собственная карта возрождения для Warzone
- Лучшие места для баз в Project Zomboid (сборка 42)
- Ohio Local Park Вандализирован с более чем 10 Галлонами Используемого Моторного Масла Пока Жители Сообщества Негодуют: ‘Кто Даже Думает Это Делать?’
2026-02-26 00:01