ТОМСК, 8 янв — РИА Томск. Технологии искусственного интеллекта развиваются в России с огромной скоростью, и власти ставят разработчикам и бизнесу задачу перейти от экспериментов к массовой практике во всех регионах. Однако всеобщая ИИ-трансформация спотыкается на законодательстве – в стране нет отдельного закона, всеобъемлюще регулирующего искусственный интеллект, а существующие нормы и правила не отвечают на все ИИ-запросы.
Как нормативно-правовые барьеры тормозят технологии и что с этим делать – об этом РИА Томск рассказали эксперты Томского госуниверситета (ТГУ) и Президентской академии (РАНХиГС).
Ранее федеральные СМИ сообщали, что закон по регулированию ИИ в России разрабатывается, но в IT-комитете Госдумы считают, что торопиться с документом не стоит и он вряд ли появится в 2026 году. Между тем первый в мире закон об ИИ должен начать действовать в январе 2026 года в Южной Корее – это сделает страну пионером по внедрению комплексной нормативно-правовой базы в области ИИ.
Алгоритмы опережают законодателей
Эксперты называют ИИ одним из ключевых драйверов экономического роста и фактором технологической независимости. Совокупный вклад ИИ-технологий в ВВП России к 2030 году должен превысить 11 триллионов рублей. С учетом этого сфера ИИ должна бы иметь четкий и понятный закон, но пока регулирование происходит точечно. Например, по Национальной стратегии развития ИИ.
"Существующая нормативно-правовая база не успевает за темпами технологических изменений, что тормозит внедрение ИИ и ограничивает инвестиции", – говорит директор Института анализа больших данных и искусственного интеллекта ТГУ Вячеслав Гойко.
Эксперт и его коллеги из Университетского консорциума исследователей больших данных отмечают, что важной проблемой в контексте норм и законов является вопрос юридической ответственности. Российское законодательство не готово к случаям, когда значимые решения принимаются автономными системами без участия человека. Нужны адекватные законодательные механизмы. Построить их можно, если есть нормативные критерии юридической ответственности.
Появление такой нормативно-правовой базы может снизить число компаний, которые боятся внедрять ИИ-системы в чувствительных сферах вроде медицины и транспорта.
Нейросети используют чужой труд
Эксперты отмечают, что в России необходимо разработать нормативы определения правового режима обучающих датасетов и результатов генерации. Это позволит решить проблему интеллектуальной собственности, которая заключается в том, что юридическая практика не позволяет квалифицировать ИИ-продукты как результат интеллектуального труда, поскольку они не создаются человеком напрямую.
"Современные модели обучаются на огромных массивах данных, в которых нередко присутствуют работы реальных людей – тексты, изображения, музыка. Когда алгоритм использует чужой труд и затем воспроизводит его фрагменты или создает нечто новое на этой основе – это вопрос уважения к авторам, их труду и культурному наследию", – считает директор Института общественных наук Президентской академии (РАХиГС) Павел Голосов.
По его словам, технологии должны развиваться с вниманием к людям. Это означает прозрачность происхождения данных и маркировку контента как "созданного ИИ", возможность для авторов решать, участвуют ли их работы в обучении, и так далее.
Нормы для контроля
Также важны обязательные технические стандарты и процедуры оценки качества интеллектуальных систем. Стандартизацию, аудит и сертификацию ИИ выполняют Росстандарт и Минцифры, но большая часть их инициативных документов носит лишь рекомендательный характер и не охватывает вопросы безопасности ИИ-систем.
Между тем отсутствие нормативных механизмов контроля и отчетности может замедлять реализацию стратегических планов государства по развитию ИИ.
"Разработка правовых рамок для ИИ требует высокой экспертности, российским государственным органам часто не хватает необходимых компетенций для формирования адекватных регуляторных решений, а эксперты отрасли не слишком стремятся работать с госструктурами, да и в целом многие российские специалисты работают за рубежом", – считает Гойко.
По его мнению, для построения полноценных режимов аудита, надзора и других оценок ИИ-систем нужны специальные подразделения в государственных структурах, обучение соответствующих кадров и привлечение экспертов.
"Эти процессы занимают значительное время, поэтому регулирование отстает от технологического развития или ставит чрезмерные рамки. А это, в свою очередь, снижает доверие бизнеса и увеличивает операционные риски, компании становятся менее заинтересованными в инвестициях и развитии ИИ", – отмечает собеседник агентства.
Что такое ИИ – новый термин
В 2025 году в России сформулировали новый вариант определения термина "искусственный интеллект". Госдума предложила внести его в создаваемый закон об ИИ.
Предыдущее определение (и пока формально действующее) прописано в федеральном законе от 2020 года и Национальной стратегии. Эксперты считают, что оно допускает множество трактовок и не позволяет четко отличить ИИ от традиционного ПО, из-за чего компании не понимают, как именно закон будет видеть их продукт.
Новый термин звучит так: "ИИ – это любая система данных, ПО или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду".