ИИ и Авторское Право: Что Нужно Знать о Правовом Статусе Контента, Созданного Искусственным Интеллектом?

Курс по работе с ИИ

Правовой статус контента, созданного ИИ

Авторское право на результаты, созданные ИИ. В большинстве юрисдикций традиционное авторское право требует наличия человеческого автора. Например, в США суды и Бюро по авторским правам однозначно заявляют, что произведения, созданные без участия человека, не подлежат авторско-правовой охране. Недавнее разъяснение гласит: ни создатель ИИ-инструмента, ни сам инструмент, ни пользователь, просто сгенерировавший результат по запросу – не считаются авторами, и такой материал находится в общественном достоянии. Таким образом, полностью машинный текст или изображение в США не защищены авторским правом, если в них отсутствует творческий вклад человека.

Регулирование использования ИИ-контента в коммерции. Отсутствие традиционных авторских прав на произведения ИИ означает, что любой может свободно использовать такой контент – но и контролировать эксклюзивно его оборот затруднительно. Коммерческие платформы пытаются восполнить пробел через договоры с пользователями: например, многие сервисы заявляют, что предоставляют платным пользователям права на коммерческое использование созданных изображений. Однако юридически это скорее лицензия от разработчиков модели; сама по себе правовая природа ИИ-контента остается неопределенной. Компании, применяющие сгенерированные тексты или изображения в бизнесе, сталкиваются с рисками: если в результате творческой работы ИИ произошло непреднамеренное заимствование фрагментов из обучающих данных, возможно нарушение чужого авторского права. Уже имеются судебные иски (например, от художников и фото агентств) к разработчикам ИИ за то, что их модели обучены на защищенных произведениях без разрешения. Одновременно возникает вопрос ответственности: кто виноват, если ИИ-система создала контент, нарушающий чьи-то права или закон (например, клеветнический текст или запрещенное изображение)? Пока что общая тенденция такова, что ответственность лежит на человеке или компании, использующей ИИ, а не на самом алгоритме. Поэтому бизнесу важно проверять выходные данные ИИ перед коммерческим применением и следовать политикам использования, которые устанавливают разработчики моделей.

Различия по странам. Подход к охране ИИ-контента разнится в разных юрисдикциях. Европейский Союз и многие другие страны фактически разделяют подход США: охраняется только то, что является результатом интеллектуального творчества человека (в терминологии ЕС – “интеллектуальное творение автора”). Без вклада человека защиты не возникает. Великобритания же сохранила в своем законодательстве особую норму о «компьютерно-сгенерированных произведениях». Согласно разделу 9(3) Закона Великобритании об авторском праве, если у произведения нет традиционного автора, автором считается лицо, которое предприняло определенные действия для его создания. Проще говоря, в Британии пользователь, сгенерировавший контент с помощью ИИ и задавший необходимые параметры, может считаться автором, и произведение будет защищено (правда, срок защиты таких работ сокращен до 50 лет). В недавнем обзоре правительство Великобритании решило сохранить эту норму, хотя дискуссии о ее целесообразности продолжаются.

Китай также демонстрирует уникальный подход: хотя в законе прямо не урегулировано, в судебной практике появились случаи, где права на ИИ-контент были признаны за человеком. Так, суд в Шэньчжэне в 2019 году решил, что статья, сгенерированная журналистским ИИ Tencent, защищается авторским правом, потому что при ее создании была «интеллектуальная деятельность» людей (в выборе данных, настройке параметров и т.п.) . А в 2023 году Пекинский интернет-суд признал оригинальность изображения, созданного через Stable Diffusion, аргументируя, что уникальная текстовая подсказка и настройки, внесенные пользователем, отразили личный творческий вклад этого пользователя . В обоих случаях суды фактически назвали автором пользователя, а не разработчиков платформы . Эти прецеденты показывают стремление некоторых юрисдикций приспособить старые нормы к новым технологиях, признавая хотя бы ограниченное авторство человека при работе с ИИ.

Таким образом, при коммерческом использовании контента, сгенерированного ИИ, компаниям необходимо учитывать, что в разных странах статус такого контента может отличаться. Где-то он ничей (общественное достояние), где-то принадлежит пользователю или разработчику. Это создает сложности при трансграничной деятельности – материал, легально используемый без разрешений в одной стране, может столкнуться с претензиями в другой. Прежде всего бизнесу важно иметь явный договор с поставщиком ИИ (лицензию на выходной контент) и следить за развитием законодательства в области интеллектуальной собственности применительно к ИИ.

Определение авторства: создано человеком или ИИ?

Стремительное распространение генеративных моделей породило проблему: можно ли надежно определить, кем создан контент – человеком или алгоритмом? Технологически существуют попытки распознавания ИИ-генераций. Для текстов предлагались специальные классификаторы и программы (например, сервис GPTZero для выявления текстов, написанных ИИ). Для изображений и видео разрабатываются методы цифровой криминалистики, ищущие характерные артефакты генеративных моделей. Однако на практике такие детекторы пока далеки от совершенства. Компания OpenAI пробовала внедрить «классификатор ИИ-текста», но признала его ненадежность (ошибочно помечал тексты людей как сгенерированные и наоборот) и отключила сервис. Исследователи предлагают встраивать в контент «водяные знаки» – скрытые метки, незаметные для человека, но позволяющие алгоритмически проверить источник. Например, сгенерированное изображение может содержать едва уловимый цифровой шаблон, а в сгенерированном тексте – статистический признак, отличающий его от человеческого. Такие подходы заложены в некоторых системах: например, в Китае с 2025 года вводится обязательное маркирование ИИ-контента (видимые метки и скрытые теги с данными об источнике) на всех платформах, распространяющих сгенерированные материалы. Тем не менее, злоумышленник может попытаться удалить или исказить водяной знак – например, слегка отредактировать изображение или перефразировать текст до тех пор, пока проверяющая программа «не даст зеленый свет» . Эксперты отмечают, что «детекторы ИИ-контента сегодня настолько неточны, что это даже опасно»: уже были случаи, когда студентов обвиняли в плагиате только на основании сбоявшего алгоритма обнаружения ИИ .

Правовые аспекты идентификации ИИ-контента. Законодатели осознают проблему и пытаются ввести требования по прозрачности происхождения контента. Проект регуляции ЕС обязывает явно указывать использование ИИ в создании некоторых материалов – например, deepfake-контента. В финальной версии Регламента ЕС об ИИ (AI Act) предусмотрено, что если ИИ используется для генерации аудио-визуального контента, имитирующего реальность (например, синтетическое видео с “реальным” лицом или голосом), то должно быть явно указано, что контент искусственный. Исключения сделаны лишь для случаев, когда это служит законным целям (оперативно-розыскная деятельность, пародия и др.). В ряде стран принимаются отдельные законы против deepfake-фальсификаций – так, законы штатов США (например, Техаса, Нью-Йорк) запрещают использование синтезированного медиа в предвыборных агитациях без уведомления об этом. В целом тенденция такова, что коммерческое использование ИИ-контента требует прозрачности: компании могут обязать помечать опубликованные материалы, созданные ИИ, во избежание введения потребителей в заблуждение. Более того, на уровне индустрии крупные разрабочики сами вводят кодекс поведения – ряд ведущих компаний пообещали в 2023 году внедрять технические средства для маркировки ИИ-генерированного контента.

Однако, пока не появилось надежных универсальных методов, ни один инструмент не гарантирует 100% точности, особенно если ИИ-контент был отредактирован человеком. Существующие правовые требования трудно контролировать в отсутствие точных детекторов. Это юридический вакуум: даже если законом предписано указывать ИИ-происхождение, обеспечить исполнение сложно. Регуляторы рассматривают альтернативные подходы – например, обязать разработчиков хранить информацию о процессе генерации (т.н. provenance данных) и предоставлять ее по запросу властей. Пока же коммерческие пользователи ИИ сами заинтересованы в саморегулировании: например, ряд новостных агентств решили помечать материалы, созданные с помощью ИИ, чтобы поддерживать доверие аудитории.

Резюмируя: на 2025 год нет гарантированной технологии, позволяющей отличить работу ИИ от работы человека. Право старается идти вслед технологиям – в ЕС уже закреплена обязанность маркировать явно подделанный медиа-контент, в Китае вводится всеобщее маркирование ИИ-контента, в США подобные правила обсуждаются (напрямую или через отраслевые стандарты). Бизнесу же важно понимать текущие ограничения: если контент требует достоверности (например, финансовый отчет, журналистская статья), его происхождение и процесс создания могут стать объектом проверки. Поэтому некоторые компании сознательно ограничивают использование генеративного ИИ там, где нужно гарантировать человеческое авторство (например, в научных публикациях или образовательных работах).

Если вам интересна тема создания контента для соцсетей с помощью искусственного интеллекта, приглашаю на мой курс по этой теме - приглашаю на мой курс (https://mnogobukoff.courses/)

курс по созданию контента с помощью ИИ

Регулирование ИИ в Европейском Союзе (AI Act и другие нормы)

Общий подход ЕС. Европейский союз стал пионером в разработке всеобъемлющего законодательства об ИИ. В 2024 году был принят Регламент Европейского Союза об искусственном интеллекте (AI Act) – первая в мире комплексная правовая рамка, регулирующая ИИ-системы. Этот акт вводит единые правила для всех 27 стран ЕС, основанные на риск-ориентированном подходе. Регламент классифицирует применения ИИ по уровням риска и устанавливает соответствующие требования для каждой категории. Полностью запрещены несколько наиболее опасных сфер применения (unacceptable risk), включая социальный рейтинг граждан государством (аналог «системы социального кредита») и некоторые виды биометрического слежения в реальном времени. Большинство же коммерческих приложений попадают либо в категорию «высокорисковых» (high-risk AI), либо менее строгие категории (ограниченный или минимальный риск).

Высокорисковые системы и их регулирование. К категории высокорисковых в ЕС отнесены ИИ-системы, используемые в критически важных областях: например, в обеспечении безопасности продукции, в образовании и экзаменации, при найме сотрудников или оценке кредитоспособности, в управлении основными общественными услугами, в правоохранительной и миграционной сфере, а также в правосудии. Иными словами, это случаи, когда решение ИИ существенно влияет на права и безопасность людей (получит ли человек работу, кредит, справедливое судебное решение и пр.). Для таких систем AI Act предъявляет строгие требования: разработчики и поставщики обязаны проводить оценку качества данных и устранение biais (ст.10), обеспечивать прозрачность и объяснимость работы модели, вести документацию и логи ее решений, предусматривать человеческий надзор и возможность вмешательства человека. Перед выпуском на рынок ЕС высокорисковые ИИ должны пройти процедуру оценки соответствия. Фактически, вводится аналог сертификации: проверяется, что система безопасна, не дискриминирует, уважает приватность и права граждан. Например, система ИИ для отбора резюме на работу должна быть протестирована на отсутствие гендерной или расовой предвзятости, иметь документированную архитектуру и предоставлять информацию пользователям о том, как она работает и какие данные анализирует. Нарушение этих требований грозит огромными штрафами – до 7% мирового годового оборота компании или 35 млн евро, что сопоставимо с наиболее жесткими штрафами в европейских законах (для сравнения, штрафы по GDPR достигают 4% оборота).

Прозрачность и обязательное информирование. Помимо высокорисковых систем, AI Act вводит общие требования к прозрачности для ряда ИИ-продуктов. Например, все генеративные модели общего назначения (так называемые GPAI – General Purpose AI, к которым относятся и большие языковые модели) должны устранять известные недостатки и маркировать свое содержимое, если оно может ввести в заблуждение. Отдельно оговорены deepfake-технологии: любой, кто использует ИИ для создания аудио-, видео- или изображений, имитирующих реальных людей или события, обязан явно обозначить, что контент искусственно создан или изменен. Исключение – если контент очевидно является художественным замыслом (например, кинофильм со спецэффектами). Таким образом, ЕС стремится обеспечить информированность: пользователи должны понимать, имеют ли они дело с ИИ. Даже чат-боты, взаимодействующие с людьми, по требованиям AI Act должны уведомлять, что они – программа, а не человек.

Прочие законодательные инициативы ЕС. Помимо AI Act, Европейский Союз готовит и смежные нормативные акты для всестороннего регулирования ИИ. В частности, обсуждалась Директива об ответственности за ИИ (AI Liability Directive), которая должна была облегчить потерпевшим предъявление исков за ущерб, причиненный ИИ-системой. Однако, в феврале 2025 г. Еврокомиссия отозвала проект этой директивы из-за разногласий, и, возможно, вопросы ответственности будут решаться в рамках обновленного законодательства о продукции. Кстати, Директива о безопасности продукции в ЕС уже обновлена так, что охватывает цифровые продукты и ИИ: в 2024 г. принят новый регламент о ответственности за продукты, распространяющийся и на программное обеспечение, и на ИИ-системы, тем самым если ИИ-продукт причинит вред (например, авария с участием автономного робота), потерпевший сможет требовать возмещения от производителя по тем же принципам, что и за любой неисправный товар.

До вступления AI Act в полную силу (а основные положения начнут применяться в августе 2026 года) в ЕС уже действуют другие нормы, затрагивающие ИИ. Например, Общий регламент по защите данных (GDPR) устанавливает право человека не быть объектом решения, основанного исключительно на автоматизированной обработке, если оно существенно его затрагивает (ст.22 GDPR). Это означает, что компания, принимающая важное решение с помощью алгоритма (например, отказать в кредите), должна предоставить возможность пересмотра решения с участием человека. Также GDPR требует объяснять логику таких решений – фактически, это обеспечивает некоторую прозрачность алгоритмов.

Важность учета европейских требований. Для компаний, планирующих коммерциализацию ИИ-технологий в Европе, соблюдение AI Act станет обязательным. Регламент имеет экстерриториальное действие – он будет применяться и к поставщикам вне ЕС, если они предлагают свою ИИ-систему на рынке ЕС. Поэтому разработчики глобальных генеративных моделей (США, Азия) уже отслеживают европейские правила: например, закладывают функции для упрощения объяснения результатов, готовят документы по этическому ИИ. ЕС фактически задает «золотой стандарт» регулирования, к которому могут подтягиваться другие страны. Однако и вызовы налицо: некоторые критикуют AI Act за излишнюю тяжеловесность и возможное торможение инноваций в Европе, в то время как регионы с более мягким регулированием (США, Азия) смогут быстрее выводить продукты. В ответ ЕС указывает, что единые правила наоборот облегчат компании выход на европейский рынок, устранив разрозненные национальные требования и повысив доверие пользователей к ИИ-продуктам. Как бы то ни было, AI Act знаменует новый этап – переход от саморегулирования индустрии к позитивному праву в сфере ИИ, с прицелом на защиту фундаментальных прав, безопасности и прозрачности.

Обзор законодательства США в области ИИ: федеральный и штатный уровни

В Соединенных Штатах подход к регулированию ИИ пока существенно отличается от европейского. Единого всеобъемлющего закона об ИИ на федеральном уровне нет. Вместо этого действует комбинация из уже существующих законов, отраслевых нормативов и новых инициатив. Американский принцип состоит в том, что отсутствие специального закона не означает правового вакуума: действующие законы распространяются и на использование ИИ. Это подтверждено, например, совместным заявлением сразу нескольких федеральных регуляторов (Федеральная торговая комиссия, Бюро по защите прав потребителей, Министерство юстиции, Комиссия по равным возможностям в сфере занятости) – они напомнили в 2023 году, что их полномочия охватывают программное обеспечение и алгоритмические системы, включая ИИ. Проще говоря, если компания внедрила алгоритм, который вводит потребителей в заблуждение или дискриминирует их, она не избежит ответственности под предлогом «это сделал ИИ». ФТК (FTC) уже неоднократно предупреждала бизнес, что будет применять законы о недобросовестной рекламе и мошеннических практиках к заявлениям об ИИ-продуктах. EEOC (комиссия по равноправию в трудоустройстве) выпустила руководства о недопустимости дискриминации при использовании автоматизированных систем найма. Таким образом, существующая правовая база (защита прав потребителей, антидискриминационные акты, требования безопасности продуктов и пр.) уже сейчас служит «сеткой безопасности» при использовании ИИ .

Понимая растущую роль ИИ, власти США предпринимают шаги к формированию политики и возможного будущего законодательства. В октябре 2022 года Белый дом опубликовал «Черновик Билля о правах в сфере ИИ» (AI Bill of Rights Blueprint) – это не закон, а набор принципов, призывающих обеспечить безопасные и эффективные системы, защиту от алгоритмической дискриминации, право на объяснимость, контроль над данными и возможность отказа от автоматизированных решений. На практике эти принципы пока носят рекомендательный характер. В 2023 году Президент Байден подписал Исполнительный указ о безопасном и надежном ИИ, который обязывает федеральные агентства оценивать риски ИИ, разрабатывать стандарты (через NIST – Национальный институт стандартов и технологий) и даже требует от разработчиков самых продвинутых моделей сообщать правительству о результатах тестирования безопасности своих ИИ-систем. Исполнительный указ также вводит требования для федеральных органов: например, федеральные агентства должны маркировать контент, созданный ИИ, при общении с общественностью. Хотя указ касается непосредственно только правительственного сектора и подрядчиков, он задает тон и для индустрии.

Что касается законодательства, Конгресс США пока не принял ни одного специального закона об ИИ. Тем не менее, активно обсуждаются различные законопроекты. Среди них – предложения создать федеральное агентство по надзору за ИИ, ввести обязательное лицензирование наиболее мощных ИИ-систем или требовать прозрачности алгоритмов. В конце 2023 года в Конгресс были внесены, к примеру, REAL Political Advertisements Act – законопроект, требующий раскрывать использование генеративного ИИ в политической рекламе, и Stop Spying Bosses Act – ограничить слежку за работниками через алгоритмы . Был предложен Algorithmic Accountability Act, обязывающий крупные компании проводить аудит своих алгоритмов на предмет bias и воздействий, но он пока не принят. В то же время принимаются законы, смежные с ИИ: например, обновлением Закона об авторском праве рассматривается требование указывать использование чужих работ в обучении генеративных моделей. В общем, законодательный процесс находится в стадии активного формирования – проводятся слушания в Сенате с участием глав ИТ-индустрии, создаются экспертные комиссии, штудируется опыт ЕС. Ожидается, что федеральное регулирование США, когда сформируется, будет более «легким» и гибким по сравнению с ЕС, ориентированным на стимулирование инноваций и устранение конкретных злоупотреблений (например, deepfake в выборах, недобросовестная реклама, угрозы для безопасности и пр.). На время отсутствия единого закона компании фактически живут в условиях «регулирования через правоприменение»: нужно самим прогнозировать, как суд или агентство применит существующие нормы к их использованию ИИ, и соответствующим образом управлять рисками.

Регулирование на уровне штатов

Пока федеральный закон только обсуждается, американские штаты и города не стоят на месте. В последние два года по стране прокатилась волна местного законодательства, связанного с ИИ. Только в 2024 году **более 45 штатов внесли на рассмотрение законопроекты об ИИ, и в 31 штате были приняты те или иные законы или резолюции**. Это привело к появлению мозаики разнообразных требований на региональном уровне. Тематика таких законов охватывает:

  • Борьбу с дискриминацией и предвзятостью. Например, штат Колорадо принял комплексный закон об ИИ, который требует от разработчиков и внедряющих организаций «проявлять должную осмотрительность, чтобы избежать дискриминации алгоритмов», а также раскрывать потребителям информацию при использовании высокорисковых ИИ-систем. Нью-Йорк (город) еще в 2021 г. принял новаторский локальный закон №144, вступивший в силу в 2023 г., обязывающий работодателей проводить независимый аудит на отсутствие bias у автоматизированных средств отбора персонала и уведомлять кандидатов о применении таких средств. Эти меры направлены на то, чтобы ИИ-решения в найме, кредитовании, страховании и других сферах не нарушали существующие права на равенство.
  • Прозрачность и ответственность при генерации контента. Ряд штатов сосредоточились на проблеме deepfake и дезинформации. Например, **Нью-Гэмпшир ввел уголовную ответственность за мошенническое использование deepfake-технологий** и предоставил жертвам право подать гражданский иск. В некоторых штатах (Техас, Калифорния) запрещено распространять поддельные видеоролики или изображения кандидатов перед выборами. Такие законы требуют четко маркировать смонтированный или ИИ-сгенерированный контент, касающийся общественных деятелей, за определенный период до выборов, чтобы избиратели не были обмануты. Также обновляются законы о порнографии: уже упомянутый закон Нью-Гэмпшира позволяет преследовать создание порноматериалов с “подставленным” лицом без согласия лица – реагируя на волну порномести с использованием ИИ.
  • Защита данных и приватности. Начиная с Калифорнии, несколько штатов приняли собственные законы о защите персональных данных, в которых есть положения об автоматизированном принятии решений. Например, новые законы в Колорадо, Вирджинии, Коннектикуте дают жителям право отказаться от профилирования, влияющего на их экономические или юридически значимые результаты, и требуют от компаний раскрывать наличие такого профилирования. Это перекликается с идеями GDPR и ставит ограничения на бесконтрольное использование алгоритмов, влияющих на потребителей.
  • Конкретные пилотные проекты и исследования. Некоторые законы носят характер продвижения ИИ: Флорида, например, финансирует гранты на внедрение ИИ в школах, Гавайи поручил университету разработать систему прогнозирования лесных пожаров с помощью ИИ . Другие создают комиссии по ИИ (Индияна, Огайо) или требуют от органов власти выработать политики по использованию ИИ (Мэриленд обязывает департамент ИТ разработать правила закупки и применения ИИ-систем в госучреждениях). Эти инициативы направлены на то, чтобы штаты сами разбирались в технологии и готовили почву для будущего управления ею.

Можно сказать, что в США складывается “лоскутное одеяло” регулирования ИИ на уровне штатов . С одной стороны, это позволяет оперативно реагировать на местные проблемы и апробировать разные подходы. С другой – бизнес сталкивается со сложностью: компания, работающая по всей стране, должна учитывать требования десятков юрисдикций. Некоторые из этих законов имеют экстерриториальное действие – например, если интернет-сервис с ИИ обслуживает жителей штата, он должен выполнить законы этого штата, даже работая из другого региона. В результате уже сейчас заметны общие тренды: запрет наиболее вопиющих злоупотреблений (как ИИ-порнографии с участием несовершеннолетних – такой закон принял, например, Южная Дакота), обеспечение прозрачности (уведомление при использовании ИИ-решений, маркировка deepfake) и недопущение дискриминации. Эти направления вполне созвучны тем, что обсуждаются и на федеральном уровне, и в Европе – разница лишь в отсутствии единой системы.

Регулирование ИИ в других странах: Канада, Великобритания, Китай

Помимо ЕС и США, активную позицию в вопросах регулирования ИИ занимают и другие юрисдикции, часто предлагая уникальные подходы.

Канада

В Канаде на федеральном уровне разрабатывается законопроект «Об искусственном интеллекте и данных» (Artificial Intelligence and Data Act, AIDA), который должен стать основой регулирования ИИ. Интересно, что этот акт встроен в более широкий пакет реформ законодательства о приватности – законопроект C-27, объединяющий новую версию закона о персональных данных и нормы об ИИ. Канадский подход во многом напоминает европейский, но со своими отличиями. AIDA предполагает выделение особо “высоковлияющих” (high-impact) систем ИИ, для которых будут установлены требования по оценке и снижению рисков. Однако точное определение high-impact AI и конкретные обязательства планируется прописать в подзаконных актах, а не в самом законе. Законопроект фокусируется на ответственной разработке и использовании ИИ, запрещает заведомо опасные практики и вводит механизм регуляторного надзора (предусматривается должность комиссара по ИИ). На 2025 год AIDA еще не вступил в силу: после внесения в парламент в 2022 г. он продвинулся до этапа комитетских слушаний, но процесс идет медленно. Существует вероятность, что до следующих федеральных выборов (не позже осени 2025 г.) закон не будет принят и потребует повторного внесения. В Канаде параллельно пошли по пути добровольного регулирования: правительство запускало Кодекс поведения для разработчиков ИИ, пригласив компании принять принципы прозрачности, оценку рисков и обеспечение человеческого надзора. Кроме того, Канада вкладывает значительные средства в исследования безопасного ИИ (создан Канадский институт безопасности ИИ, финансируются суперкомпьютеры для ИИ). Таким образом, канадский подход комбинирует законодательную основу и стимулирование инноваций: при принятии AIDA Канада станет одной из первых стран с национальным законом об ИИ, но до того времени упор делается на руководство принципами и инвестиции в развитие надежного ИИ.

Великобритания

Великобритания выбрала иной путь, нежели ЕС, несмотря на географическую близость и ранее общее правовое пространство. Вместо создания единого закона об ИИ, британское правительство объявило «про-инновационный подход к регулированию ИИ». В марте 2023 года был опубликован Белый документ (white paper) по ИИ, предлагающий пять принципов для ответственного использования ИИ:

  1. безопасность (безопасность, надежность и устойчивость системы),

  2. прозрачность и объяснимость,

  3. справедливость,

  4. ответственность и надлежащее управление,

  5. возможность оспорить результаты и добиваться возмещения (contestability and redress) . Ключевое решение Британии – не вводить сразу жестких требований через закон, а поручить существующим отраслевым регуляторам применять эти принципы в рамках их компетенций.

То есть, надзор за ИИ распределен: Управление по финансовому надзору следит за ИИ в финансах, Агентство по здравоохранению – за ИИ в медицине и т.д., интегрируя принципы в уже действующие нормы. На первом этапе принципы носят рекомендательный характер (нет прямых санкций за их несоблюдение). Планируется понаблюдать за эффективностью такого подхода, и затем, когда позволит парламентское время, ввести обязанность для регуляторов учитывать эти принципы при осуществлении своих функций . Примечательно, что Великобритания не создает нового органа регулирования ИИ – вместо этого учреждены координационные центры (например, центральная группа по мониторингу рисков ИИ, “песочницы” для испытаний ИИ-продуктов), но основной упор – на гибкость и недопущение торможения инноваций. Правительство прямо заявило, что жесткое преждевременное законодательство может “связать руки” бизнесу и регуляторам и быстро устареть, учитывая стремительное развитие технологии. Вместо этого избрана контекстуальная, секторальная регуляция: каждая отрасль сама определит, как применять ИИ безопасно. Например, Управление по лекарствам (MHRA) выпустило руководство по применению существующих требований к безопасности медизделий относительно ИИ-алгоритмов в диагностике .

В итоге британский подход можно охарактеризовать как «гибкая рамка без новых законов». Он подчеркивает: во многих случаях существующее законодательство уже охватывает аспекты ИИ (безопасность продукции, защита данных, требования к качеству в образовании и т.д.), а там, где есть пробелы – разумнее сначала выработать их через практику и стандарты, а законодательно закреплять по мере необходимости. Конечно, такой подход имеет и риски – отсутствие единого закона может привести к разным трактовкам принципов разными регуляторами, что создаст неопределенность для бизнеса. Чтобы это смягчить, Великобритания усиливает координацию: создаются центральные функции, и ведется активный диалог с международным сообществом (Лондон в ноябре 2023 г. провел Глобальный саммит по безопасности ИИ, став площадкой для обсуждения международной координации рисков ИИ). В отличие от ЕС, ориентированного на жесткие требования и штрафы, UK делает ставку на эволюционное регулирование, тесное взаимодействие с индустрией и быструю адаптацию к новым достижениям ИИ.

Китай

Китай занимает особое место в ландшафте регулирования ИИ. Подход Китая характеризуется стремлением к строгому контролю над контентом и использованием ИИ с точки зрения государственной безопасности и общественной стабильности. Китай одним из первых выпустил подробные административные правила, прямо касающиеся ИИ: уже в начале 2023 года вступили в силу Правила по управлению «глубокими подделками» (Deep Synthesis), которые обязывают помечать синтезированный медиа-контент и запрещают использовать deepfake для противоправных целей (мошенничества, порочащих видео и т.д.). В августе 2023 года Китай ввел в действие первые в мире правила для генеративного ИИ-сервиса«Временные меры управления услугами генеративного искусственного интеллекта». Эти меры распространяются на всех провайдеров, которые предлагают генерацию текста, изображений, аудио, видео и прочего контента для широкой публики в Китае. Ключевые требования китайского регулирования ИИ включают:

  • Регистрация и лицензирование: Провайдеры генеративных моделей должны зарегистрировать свои алгоритмы в регулирующих органах. Китай уже давно требует от интернет-платформ декларировать используемые алгоритмы рекомендаций; теперь подобный надзор распространяется и на генеративные модели. Перед запуском нового крупного ИИ-сервиса необходимо пройти безопасностную оценку со стороны государственных органов.
  • Контроль контента и цензура: ИИ-системы обязаны предотвращать запрещенный контент. Китайские правила прямо указывают, что генерируемый материал должен соответствовать “основным социалистическим ценностям” и не содержать экстремизма, порнографии, клеветы, угроз государственной безопасности и т.д. Провайдер несет ответственность за фильтрацию нежелательных результатов и обязан немедленно исправлять или удалять контент, если он все же был создан и нарушает правила. Например, при генерации изображений запрещено искажать облик государственных лидеров или создавать фальшивые новости.
  • Прозрачность и маркировка: Китай весьма серьезно относится к информированию пользователей об ИИ-контенте. Новые «Правила маркировки ИИ-контента» от марта 2025 г. (вступают в силу с 1 сентября 2025) требуют, чтобы весь контент, созданный ИИ и распространяемый онлайн, имел явные метки (надписи, водяные знаки), указывающие на его искусственное происхождение, а также скрытые метаданные с информацией об источнике и идентификаторе контента. Более того, платформы (соцсети, видеохостинги) должны внедрить механизмы для обнаружения несоответствующим образом немаркированного ИИ-контента и самостоятельно помечать его как подозрительный или сгенерированный. Это беспрецедентное требование направлено на тотальный охват: даже если кто-то попытается скрыть происхождение контента, платформы обязаны отслеживать и корректировать. Например, если видео не содержит нужной метки, но пользователи жалуются, что оно похоже на deepfake, платформа должна добавить предупреждение о возможной искусственности.
  • Защита данных и пользовательский контроль: Правила обязывают защищать личные данные при обучении моделей (т.е. не нарушать китайский закон о персональной информации, аналог GDPR). Кроме того, если пользователь обнаружил, что результат генерации может нарушать его права (например, порочащая информация или фейк с его лицом), провайдер должен удалить или откорректировать контент и предоставить возможность жалобы.

Китайский регуляторный режим реализуется через мощные государственные органы – Администрация киберпространства Китая (CAC) является главным разработчиком и внедряет эти правила вместе с другими министерствами . Несоблюдение требований влечет серьезные последствия: от штрафов до уголовной ответственности, блокировки сервиса или отзыва лицензий. Таким образом, китайское регулирование ИИ строго централизовано и ориентировано прежде всего на контроль содержимого и предотвращение социальных рисков (дезинформация, подрыв стабильности, оскорбление государственного строя). Это заметно отличается от акцентов западных подходов, где больше говорят о дискриминации, приватности и этике. Китай фактически рассматривает мощный ИИ как объект государственной безопасности, вводя для него режим, схожий с режимом для СМИ и интернета в целом.

Интересно, что при всей строгости, китайские компании продолжают активно развивать ИИ – но делают это в рамках заданных ограничений. Можно ожидать, что Китай и дальше будет первым вводить детальные требования (как это случилось с алгоритмическими рекомендациями и deepfake). Например, обсуждается введение сертификации для сложных моделей ИИ и создание государственного хранилища данных для обучения “этичного” ИИ. Уникальность китайского подхода – в скорости реагирования (правила выпускаются быстро, минуя длительные парламентские процессы) и в приоритете коллективных интересов (общества, государства) над индивидуальными свободами в контексте ИИ. Это создает барьеры для зарубежных ИИ-компаний: для работы в Китае им придется соблюдать местные требования (например, OpenAI не может свободно предоставить ChatGPT китайским пользователям без цензуры и локальной адаптации).

Сравнение подходов и правовые риски при трансграничной коммерциализации ИИ

Как видно из обзора, подходы к регулированию искусственного интеллекта существенно различаются по странам и регионам, отражая различные ценности и приоритеты. В ЕС доминирует «превентивный» подход: идентифицировать риски заранее и обвязать разработчиков процедурами контроля и прозрачности. В США – пока «реактивный» подход: применять имеющиеся законы по мере возникновения проблем, избегая преждевременных ограничений и давая инновациям пространство для развития. Китай применяет «протекционистско-контролирующий» подход, считая ИИ объектом строгого государственного надзора, особенно в части контента и информации. Великобритания и некоторые другие страны склоняются к «гибкому и экспериментальному» пути, где государство наблюдает и направляет, но не устанавливает жестких рамок на ранней стадии технологии.

Эта фрагментированность глобального регулирования создает вызовы для компаний, работающих с ИИ на международных рынках. Бизнесу приходится ориентироваться на наиболее строгие требования из всех применимых – фактически брать на себя соблюдение «наивысшего общего знаменателя»  Например, если европейский закон требует объяснимости алгоритма, глобальная компания может решить внедрить механизмы объяснимости во всех странах, чтобы упростить поддержку одного продукта. С другой стороны, несовместимость подходов порой ставит организацию перед дилеммой: то, что законно в одной стране, может быть незаконно в другой. Так, анонимный генеративный чат-бот без функций отчетности вполне легален в США, но в ЕС после 2026 года его использование, возможно, потребует значительных доработок (вплоть до запрета, если он классифицируется как высокорисковый и не пройдет оценку соответствия). Китайские требования по цензуре контента могут напрямую конфликтовать с принципами свободы слова в других юрисдикциях – поэтому многие иностранные сервисы ИИ просто недоступны в Китае или существуют там в урезанном варианте через партнеров.

Трансграничная коммерциализация ИИ несет правовые риски на нескольких уровнях:

  • Риск несоответствия местным законам. Если продукт с ИИ выходит на новый рынок, велика опасность не учесть национальные правила. Например, ИИ-камера, распознающая лица для доступа в офис, может нормально продаваться в Азии, но оказаться под запретом в Европе (где биометрическая идентификация строго ограничена GDPR и, возможно, будет отнесена к запрещенным в AI Act). Незнание или игнорирование таких норм грозит штрафами, запретом продаж, судебными исками и репутационными потерями. Поэтому компании вынуждены вкладываться в юридическую экспертизу и адаптацию: нередко создаются разные версии продуктов для разных регионов, с отключенными или модифицированными функциями (например, более «консервативная» модель для ЕС, которая меньше рискует нарушить требования).
  • Риск ответственности и ущерба. Алгоритмические решения могут приводить к непредвиденным негативным последствиям – от дискриминации людей до физических инцидентов. В разных странах разные режимы ответственности. В США пострадавший скорее будет опираться на общие нормы деликтного права или закона о защите прав потребителей, в ЕС ему помогут специальные презумпции (по продуктовой директиве обновленной), а в Китае, возможно, дело и до уголовной ответственности компании дойдет, если вред связан с нарушением госбезопасности. Для глобальной компании это означает необходимость строить процессы с учетом худшего сценария: проводить тестирование на безопасность и справедливость алгоритмов, документировать действия (чтобы потом доказать свою добросовестность), покупать страховки от ИИ-рисков. Особенно остро стоит вопрос в автономном транспорте: авария с участием беспилотного автомобиля может повлечь одновременно искажение репутации, и многомиллионные иски, и пристальное внимание регуляторов разных стран. Тут важно заранее определять, кто несет ответственность – производитель софта, автопроизводитель или оператор сервиса – и прописывать это в соглашениях и пользовательских контрактах.
  • Интеллектуальная собственность и данные. Трансграничное использование ИИ затрагивает и вопросы IP и data governance. Модель может обучаться на глобальных данных, но при этом нарушить, скажем, европейское право на частную жизнь или китайские требования по хранению данных внутри страны. Если ИИ-сервис собирает пользовательские данные из ЕС, он должен соблюдать GDPR и, вероятно, скоро – новые правила ЕС о данных для ИИ (идут разговоры о введении обязательной регистрации дата-сетов для обучения). В Китае же законы требуют хранить личные данные китайских граждан на территории Китая и предоставлять их по запросу властей. Это все требует от компаний архитектуры данных, разделенной по регионам, и четкого понимания, где и как данные текут через границы. Плюс, упомянутый ранее вопрос авторских прав: сгенерированный ИИ контент может свободно обращаться в США, но если его попытаться коммерчески монетизировать в стране, признающей авторство таких работ (например, продать изображение, сгенерированное ИИ, как эксклюзивное в Великобритании), могут возникнуть споры.
  • Репутационные и этические риски. Даже помимо прямых юридических последствий, несоответствие локальным ожиданиям может ударить по бизнесу. Например, использование ИИ без “человеческого лица” в сфере, где культурально ценится персональный подход (медицина, юриспруденция), может вызвать отторжение клиентов и критику регулирующих органов. Или компания, которая в одной стране прозрачно сообщает о применении ИИ, а в другой умалчивает, рискует быть обвиненной в двойных стандартах. В эпоху социальной ответственности потребители и инвесторы оценивают, насколько этично и ответственно компания внедряет новые технологии, поэтому глобальные игроки стараются добровольно применять наиболее высокие стандарты повсеместно – будь то стандарты прозрачности, недискриминации или защиты от вреда.

Научиться работать с искусственным интеллектом (https://mnogobukoff.courses/)

Научиться работать с искусственным интеллектом

Вам также может понравиться: