Администрация Трампа отходит от более жесткого регулирования ИИ, но технологическая индустрия всё ещё с нетерпением ждёт исполнительного указа.

Белый дом пытается прояснить неясности относительно того, как он планирует регулировать искусственный интеллект. Недавние, противоречивые заявления официальных лиц вызвали неопределенность в технологической индустрии. Теперь высокопоставленные сотрудники работают над тем, чтобы заверить компании в том, что администрация не потребует от них получения федерального одобрения перед выпуском новых моделей ИИ.

📈

"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.

Найти недооцененные активы

Это изменение в направлении произошло всего через один день после того, как Кевин Хассетт, возглавляющий Национальный экономический совет Белого дома, упомянул в интервью, что администрация рассматривает систему, аналогичную той, как Управление по санитарному надзору за качеством пищевых продуктов и лекарств тестирует лекарства в течение длительного периода времени.

Технологические лидеры, такие как представители OpenAI, Anthropic и Google, обеспокоены предложенной правительством системой, которая может сильно регулировать искусственный интеллект. По данным Politico, эти компании ждут решения от Белого дома, в котором будет изложено, как правительство будет контролировать продвинутые модели AI, особенно те, которые могут быть использованы в злонамеренных целях, таких как кибератаки или создание биологического оружия.

Путаница началась, когда Хассетт заявил, что администрация рассматривает возможность выпуска исполнительного указа, чтобы предоставить четкую дорожную карту для отрасли.

Хэссетт упомянул, что они рассматривают возможность издания исполнительного распоряжения для установления чётких руководящих принципов разработки и выпуска ИИ. Идея заключается в том, чтобы гарантировать, что будущие системы ИИ будут признаны безопасными перед тем, как стать общедоступными, подобно тому, как FDA одобряет лекарства.

Эксперты отрасли быстро интерпретировали эти заявления как указание на то, что правительство планирует более строгие правила, чем ожидалось. Возможность федерального процесса проверки особенно беспокоит тех, кто обеспокоен тем, как легко предприятия могут выйти на рынок и уровнем конкуренции.

Белый дом дистанцируется от более жесткого регулирования ИИ

— POLITICO (@politico) May 7, 2026

Даниэль Кастро, возглавляющий Фонд информационных технологий и инноваций (поддерживаемый такими компаниями, как Anthropic, Microsoft и Meta), отметил, что требование предварительного одобрения может серьезно затормозить разработку AI. Он объяснил, что задержка или отказ в одобрении станет серьезным ударом для компаний. Он также отметил, что получение одобрения одним конкурентом, в то время как другой его не получает, может дать одному значительное преимущество, особенно если процесс одобрения занимает недели или месяцы.

В связи с обеспокоенностью по поводу недавних заявлений, представители Белого дома объяснили, что комментарии Хассетта были неверно истолкованы. Они подчеркнули, что администрация предпочитает работать с технологическими компаниями, а не регулировать их строгими правилами.

Сьюзи Уайлз, глава аппарата Белого дома, напрямую обратилась к недавним опасениям в X (ранее Twitter) в среду вечером. Она подчеркнула, что роль правительства не заключается в предпочтении определенных компаний перед другими. В публикации она заявила, что Белый дом продолжит отдавать приоритет американским инновациям и безопасному технологическому прогрессу, а не полагаться на бюрократические процессы, обеспечивая при этом национальную безопасность. Это была всего лишь четвертая публикация Уайлз на платформе с тех пор, как она стала главой аппарата на прошлой неделе.

Белый дом всё больше обеспокоен тем, что мощные системы искусственного интеллекта, такие как Claude Mythos от Anthropic, развиваются стремительно. Этот ИИ продемонстрировал способность находить и использовать уязвимости в программном обеспечении, даже те, которые упускают из виду опытные эксперты по безопасности. Правительственные чиновники опасаются, что они могут быть не готовы к этим быстро развивающимся технологиям.

Чтобы противостоять этим потенциальным опасностям, источники сообщают, что Белый дом рассматривает возможность обращения к разведывательным агентствам с просьбой оценить новые AI-модели до того, как они станут широко доступны. Это даст правительству США время изучить, как работают эти инструменты, и, возможно, использовать их, прежде чем это сделают такие страны, как Россия и Китай.

На конференции по искусственному интеллекту в Вашингтоне в четверг помощник министра обороны Эмиль Майкл объяснил, что проблемы, возникающие из-за продвинутых моделей ИИ, по сути, связаны с кибербезопасностью. Он спросил, как правительство США будет решать эти киберугрозы и быстро устранять любые возникающие проблемы, заявив, что эти мощные модели неизбежно появятся, независимо от текущих усилий.

Технологическая индустрия в настоящее время работает над сложными правилами безопасности. Центр стандартов искусственного интеллекта Министерства торговли уже использует добровольные соглашения об испытаниях и на этой неделе объявил о новых партнерствах с Google DeepMind, xAI и Microsoft для дальнейшего развития этих усилий.

В последнее время всё стало очень запутанным с компанией Anthropic, занимающейся разработкой ИИ. По сути, они не позволили Пентагону использовать их ИИ для таких вещей, как автоматизированное оружие или массовая слежка, что, на мой взгляд, хорошо. Но правительству это не понравилось. Министр обороны назвал их ‘риском для цепочки поставок’, а Трамп даже приказал всем федеральным агентствам прекратить использовать их разработки, назвав людей, управляющих Anthropic, довольно резкими словами. Честно говоря, это странная ситуация, и кажется, что это действительно может повлиять на будущее ИИ в играх и за их пределами.

Даже с этими ограничениями, государственные учреждения все еще стремятся протестировать модель Mythos, чтобы увидеть, на что она способна. Anthropic сейчас предоставляет доступ лишь нескольким группам безопасности, чтобы помочь им исправить любые важные недостатки в программном обеспечении. Тем временем, OpenAI начинает ограниченные превью своего нового инструмента кибербезопасности, GPT-5.5-Cyber.

Смотрите также

2026-05-09 01:30