В то время как США разрушают правила, чтобы доминировать в области ИИ, Китай разрабатывает самые строгие в мире правила, чтобы предотвратить возможность того, что чат-боты сделают это своим гражданам.

Китай предложил новые правила, разработанные для защиты пользователей от эмоциональных манипуляций со стороны AI-чатботов. Согласно Ars Technica, эти правила могут стать самыми строгими в мире политиками, направленными на предотвращение того, чтобы AI способствовал самоубийству, самоповреждению или насилию. Это значительный шаг, особенно по сравнению с более либеральным подходом, который в настоящее время использует правительство США по отношению к компаниям, работающим с AI.

📚

Думаешь, S&P 500 — это марка автомобиля? Ничего страшного. У нас тут объясняют сложные вещи простыми словами и пытаются понять, куда рынок пойдет завтра. Без обещаний, просто факты.

Изучить основы

Китайский регулятор интернета недавно предложил новые правила для AI-чатботов и аналогичных сервисов, доступных общественности. Эти правила будут распространяться на любой AI, имитирующий человеческую беседу, используя текст, изображения, голос или видео. Это важно, поскольку AI-компаньоны становятся все более популярными во всем мире. Уинстон Ма, профессор права в NYU, считает, что эти правила станут первыми в своем роде, специально нацеленными на AI с человекоподобными качествами.

Растёт обеспокоенность по поводу опасностей, связанных с ИИ-чатботами. Уже к 2025 году исследования показали, что они могут способствовать серьёзным последствиям, таким как насилие, распространение терроризма и членовредительство. Помимо этих крайних рисков, чатботы также были замечены в распространении ложной информации, проявлении неподобающего сексуального поведения, пропаганде употребления наркотиков и алкоголя, и даже в словесных оскорблениях людей. Некоторые специалисты в области психического здоровья сейчас предполагают связь между интенсивным использованием чатботов и случаями психоза. Примечательно, что ChatGPT, ведущий чатбот, столкнулся с судебными исками, связанными с результатами, связанными с самоубийством и убийством с последующим самоубийством.

Похоже, что работать с Китаем как компании, занимающейся искусственным интеллектом, станет намного сложнее, но потенциально намного безопаснее для пользователей.

Китай предпринимает решительные шаги для решения серьезных онлайн-рисков. Разработчикам AI-чатботов необходимо подготовиться к более строгим правилам, особенно в отношении безопасности уязвимых пользователей. Эти новые правила потребуют немедленного вмешательства человека, если чатбот обнаружит какие-либо упоминания о самоубийстве. Кроме того, любой пользователь, являющийся несовершеннолетним или пожилым, должен будет предоставить контактные данные опекуна при регистрации. Опекун будет уведомлен, если пользователь обсуждает суицидальные мысли или членовредительство с ботом.

Одно из самых больших изменений, которое грядет для разработчиков ИИ, — это вызов тому, как компании, занимающиеся ИИ, зарабатывают деньги. Новые правила в Китае запретят создание чат-ботов, предназначенных для вызывания зависимости. Это ответ на опасения, что такие компании, как OpenAI, сосредоточены на прибыли в ущерб благополучию пользователей, даже признавая, что их чат-боты становятся менее безопасными по мере того, как кто-то ими пользуется. Китай планирует решить эту проблему, требуя от чат-ботов отображения напоминаний после двух часов использования.

Китай разрабатывает одни из самых строгих в мире правил для искусственного интеллекта. Эти правила направлены на предотвращение манипулирования эмоциями людей со стороны AI-чат-ботов и на блокировку контента, пропагандирующего самоубийство или насилие.

— BizToc (@biztoc) December 29, 2025

Эти рекомендации выходят за рамки простого предотвращения вызывающего привыкание поведения. Чат-ботам будет запрещено продвигать вредные вещи, такие как азартные игры или оскорбительный контент, или поощрять незаконную деятельность. Им также запрещено распространять ложную информацию о людях или проявлять оскорбительное поведение. Создание насильственного контента или попытки манипулировать пользователями ложными обещаниями также запрещено. Правила конкретно запрещают чат-ботам обманом заставлять людей делать плохой выбор, используя обманные тактики.

Несоблюдение этих новых правил может привести к блокировке доступа к чат-ботам компании в Китае в магазинах приложений. Это значительный риск для их глобальных амбиций, поскольку Китай является ключевым рынком для этих компаньон-ботов. Рынок этих ботов уже оценивался более чем в 360 миллиардов долларов в 2025 году, и эксперты прогнозируют, что он может достичь почти 1 триллиона долларов к 2035 году, причем значительная часть этого роста будет происходить в азиатских странах, которые внедряют ИИ.

В начале 2025 года генеральный директор OpenAI Сэм Альтман предпринял значительный шаг, сняв ограничения, которые ранее препятствовали использованию ChatGPT в Китае. Он выразил желание сотрудничать с Китаем, заявив, что OpenAI должен уделять приоритетное внимание работе со страной, поскольку считает это решающим.

Губернатор Флориды Рон ДеСантис недавно предложил несколько идей, чтобы помочь обеспечить безопасность людей и предоставить родителям больше контроля над тем, как используется искусственный интеллект.

Смотрите также

2025-12-30 23:00