Пока США расчищают путь для захвата власти ИИ, разрушая законы, Китай разрабатывает строгие правила для «цифровых людей», и безопасность детей находится на переднем плане.

Китайский регулятор интернета разрабатывает новые правила для цифровых людей – виртуальных личностей на базе искусственного интеллекта. Согласно CGTN, эти правила потребуют четких меток для идентификации их как ИИ и запретят контент, который может быть вреден для детей или вызывать зависимость. Правила, изложенные в недавно опубликованном проекте под названием «Методы управления информационными услугами цифровых виртуальных личностей», направлены на обеспечение ответственной разработки и использования этих технологий.

📚

Думаешь, S&P 500 — это марка автомобиля? Ничего страшного. У нас тут объясняют сложные вещи простыми словами и пытаются понять, куда рынок пойдет завтра. Без обещаний, просто факты.

Изучить основы

Этот новый план направлен на контроль разработки AI-систем, которые могут имитировать людей – то, как они говорят, выглядят и действуют – особенно по мере того, как эти системы становятся лучше в том, чтобы казаться эмоционально осознающими. Основной упор делается не на остановку развития AI, а на обеспечение безопасности этих инструментов для всех по мере их более широкого использования в таких областях, как школы, служба поддержки клиентов и онлайн-маркетинг.

Как поклонник технологий, я читал об этой новой политике, и она, по сути, охватывает любые сервисы, которые используют ИИ для создания вещей, которые выглядят и звучат как реальные люди – вещи, которые вы увидите в Интернете или с которыми будете взаимодействовать. Она основана на законах, которые у них уже есть, таких как законы о кибербезопасности и защите персональных данных, и это хорошо знать. Звучит так, как будто множество различных государственных ведомств – таких как те, которые занимаются общественной безопасностью, здравоохранением и СМИ – будут работать вместе с местными интернет-регуляторами, чтобы убедиться, что эти правила соблюдаются. Это довольно всесторонний подход!

Резкая разница в намерениях между США и Китаем очевидна в отношении подхода правительства к AI.

Эти новые правила в основном направлены на то, чтобы остановить людей от цифрового выдавания себя за других без разрешения. Предлагаемые правила требуют от любого, кто создает цифровое представление человека – например, аватар – сначала получить четкое согласие от этого человека. Для детей до 14 лет согласие должно быть получено от родителя или опекуна. По сути, платформы не смогут создавать аватары, которые звучат или выглядят как реальные люди без их одобрения.

Крайне важно защищать творческую работу и не допускать использования ИИ подобия исполнителей или копирования материалов, защищенных авторским правом, без разрешения. Это значительный шаг к ограничению распространения дипфейков, которые привели к дезинформации и путанице в сети.

Китай разрабатывает новые правила для искусственного интеллекта (ИИ) для защиты детей и снижения чрезмерного использования онлайн-сервисов. Эти правила потребуют четкой идентификации персонажей, созданных ИИ, запретят дизайн, намеренно вызывающий зависимость у детей в приложениях, и вовлекут несколько государственных учреждений в обеспечение соблюдения. В правилах также подчеркивается необходимость открытости и безопасности, когда речь идет о виртуальных персонажах на базе ИИ, часто называемых «цифровыми людьми». Общественность может предоставить отзывы по этим предлагаемым правилам до мая…

— khabarasia.com (@MyNews366) April 10, 2026

Слушайте, самая важная часть во всем этом, по моему мнению, – это обеспечение безопасности детей. Правила, по сути, говорят, что ИИ-персонажей нельзя разрабатывать так, чтобы они вызывали зависимость у кого-либо – особенно у детей – или заставляли их покупать кучу вещей. Им также нельзя позволять детям до 18 лет создавать ИИ-отношения, которые действуют как романтические партнеры или даже семья. Не допускается также сверхсильный или опасный контент. И если кто-то начинает проявлять признаки того, что причиняет себе вред, платформа должна вмешаться и оказать ему реальную помощь, а не просто продолжать общение с ИИ. Речь идет о том, чтобы поступать правильно, понимаете?

Учитывая растущую обеспокоенность влиянием ИИ на психическое благополучие, особенно важно сосредоточиться на потребностях детей. Мы видели случаи, когда семьи выражали обеспокоенность тем, что ИИ-чат-боты привели к нездоровым эмоциональным привязанностям у подростков.

Две семьи предприняли юридические действия после смерти своих сыновей-подростков. В одном случае, пара из Калифорнии подала в суд после смерти своего 16-летнего сына, Адама Рейна, в апреле 2025 года. Другой случай касался 14-летнего Сьюэлла Сетцера III, который умер в феврале 2024 года после развития романтических отношений с AI чат-ботом. В то время как компании, такие как OpenAI, заявляют, что лишь небольшой процент пользователей проявляет признаки самоповреждения, это все равно представляет собой значительное количество людей, учитывая миллионы, которые используют эти сервисы еженедельно.

Предлагаемые правила также охватывают общую безопасность. Не допускается использование изображений или видео, сгенерированных ИИ, для обмана проверок личности или распознавания лиц. Компании должны предоставить чёткие способы для людей сообщать о проблемах и должны сотрудничать с государственными расследованиями. Если ИИ используется для юридических или общественных услуг, должна быть предусмотрена проверка человеком, и у людей всегда должна быть возможность избежать взаимодействия с автоматизированными системами.

Нарушение этих правил может привести к предупреждениям, временной блокировке аккаунта или штрафам до 200 000 юаней. Эти рекомендации введены для решения потенциальных проблем, возникающих по мере того, как ИИ становится все более реалистичным, и люди все чаще с ним взаимодействуют.

Смотрите также

2026-04-10 22:32