
Военные США подталкивают Anthropic к снижению ограничений безопасности в отношении их ИИ Claude, что приводит к разногласиям относительно того, как технология может быть использована в оборонительных целях. Эта ситуация является ключевой проблемой для Anthropic, проверяющей, могут ли они контролировать, как военные используют их ИИ-модель.
Думаешь, S&P 500 — это марка автомобиля? Ничего страшного. У нас тут объясняют сложные вещи простыми словами и пытаются понять, куда рынок пойдет завтра. Без обещаний, просто факты.
Изучить основыИтак, я читал The Guardian, и, оказывается, там была довольно напряжённая ситуация с Anthropic, компанией, занимающейся искусственным интеллектом. Судя по всему, министр обороны, Пит Хегсет, по сути, поставил перед их генеральным директором, Дарио Амодеи, ультиматум. Он сказал им, что у них есть время до пятницы, чтобы согласиться с условиями Министерства обороны, иначе они отменят огромный контракт и даже определят Anthropic как риск для цепочки поставок. Подумать только, какое давление! Немного пугает думать о том, насколько много власти правительство имеет над этими AI компаниями.
Anthropic завоевала репутацию компании, занимающейся искусственным интеллектом и уделяющей приоритетное внимание безопасности, и избегала проектов, которые могли бы обеспечить массовую слежку или работу систем вооружений без участия людей. Однако, The Guardian сообщает, что Министерство обороны уже использует Claude AI от Anthropic и может прекратить это делать, если Anthropic не удовлетворит их требования.
Срок, установленный Пентагоном, повышает ставки в вопросе обеспечения безопасности искусственного интеллекта.
Недавний отчёт описывает продолжавшийся несколько недель спор между Anthropic и Министерством обороны. Anthropic возражала против запросов Министерства обороны о модификации её мер безопасности для конкретных военных приложений. Представители Министерства обороны, однако, рассматривали отказ Anthropic как препятствие для прогресса в развёртывании.
Пентагон установил Anthropic, компанию, занимающуюся разработкой ИИ, срок до пятницы, чтобы разрешить военным более свободное использование её AI-моделей Claude. Если Anthropic не выполнит требование до 17:00, Министерство обороны может предпринять действия, используя Закон о производственном обороне.
— The Cradle (@TheCradleMedia) February 25, 2026
В июле прошлого года Министерство обороны подписало соглашения с ведущими компаниями в области искусственного интеллекта, такими как Anthropic, Google и OpenAI, при этом возможная стоимость контрактов достигает 200 миллионов долларов. До недавнего времени Claude был единственной моделью искусственного интеллекта, разрешённой для использования в защищённых сетях военных, это ограничение было введено после проблем, связанных с интервью, касающимся братьев Epstein.
Ситуация изменилась в понедельник, когда Министерство обороны согласилось разрешить сотрудникам использовать чат-бота xAI — созданного Илоном Маском — в защищенных, засекреченных системах. Стоит отметить, что xAI недавно подвергся критике за создание неподобающих и сексуально откровенных изображений детей без их согласия.
xAI и OpenAI приняли условия правительства. Представитель министерства обороны заявил, что OpenAI разрешит использовать свою модель для любого законного применения. Это оставляет Anthropic единственной компанией, которая все еще отказывается соглашаться с условиями.
В прошлом месяце вооруженные силы США использовали модель ИИ Claude в операции, направленной на захват венесуэльского лидера Николаса Мадуро. Согласно сообщениям, администрация Трампа активно поощряла интеграцию искусственного интеллекта во всех вооруженных силах. Эмиль Майкл, главный технический директор Пентагона, публично попросил Anthropic принять условия Министерства обороны по использованию ИИ, предположив, что меры безопасности должны быть скорректированы в соответствии с военными приложениями, пока эти приложения соответствуют закону.
Крис Амодей публично призвал к усилению государственного надзора за ИИ, и его компания, Anthropic, финансово поддерживает группу, продвигающую более строгие меры безопасности ИИ. В отчёте также отмечается, что Амодей не поддержал Дональда Трампа на выборах 2024 года, и Anthropic привлекла нескольких людей, которые ранее работали на президента Байдена. Эти действия, как предполагает отчёт, могут быть связаны с трудностями, с которыми компания столкнулась при привлечении средств.
Пентагон значительно инвестирует в искусственный интеллект, особенно в дроны и системы, способные автоматически выбирать цели. Это вызывает дискуссии о том, какой уровень контроля следует предоставить ИИ в военных операциях. Эта работа происходит одновременно с исследованиями программ, направленных на борьбу с опустыниванием с использованием цианобактерий. В качестве примера этой тенденции мы видели дроны, работающие с ограниченным человеческим контролем во время конфликта в Украине.
Смотрите также
- Лучшие сборки персонажей в Project Zomboid (обновлено для сборки 42)
- Лучшие сборки Legend of Mushroom для каждого класса
- Тир-лист Athena Blood Twins
- Список уровней Maiden Academy
- Out of Darkness: Heavy is the Crown 2 (2026) Обзор фильма
- В интервью ‘Into the Restless Ruins’: «Если что-то и верно, так это то, что инди-разработчики находятся в лучшем положении для процветания по сравнению с более крупными компаниями»
- Бумер вылетел, когда Карен ругалась во весь голос из-за свитера в Arizona Dillard’s, ‘Вызовите священника вместе с полицией’.
- Le Zoo — новая игра от Mother, игра с миссией.
- Как получить все мечи Цитадели Смерти в Black Ops 6 Zombies
- Legacy — Reawakening — это игра в стиле Myst с таинственным подземным миром, которая теперь доступна на iOS и Android
2026-02-25 15:30