На весь созданный искусственным интеллектом контент хотят нанести водяные знаки

Отсутствие маркировки, что контент был создан с использованием искусственного интеллекта, должно насторожить интернет-пользователя. Он сможет отправить материал на проверку администрации ресурса, а при выявлении нарушения информацию заблокируют или удалят.
Подобные меры для борьбы с дипфейками прорабатывают парламентарии. При этом для начала в законодательство нужно ввести понятия искусственного интеллекта и дипфейка, сообщил «Парламентской газете» первый зампред комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин.
«ИИ прочно вошел в нашу жизнь, при этом с точки зрения законодательства такого понятия, по сути, нет. А регулировать то, чего нет, в том числе защищать людей от негативных последствий использования ИИ, это как ловить руками дым. Важно определить технологию, используя жесткие критерии с точки зрения интересов государства», – заявил он.
Шейкин подчеркнул, что описать искусственный интеллект можно как автономную технологию, основанную на выборе методов для решения конкретных когнитивных задач, которая способна достигать результатов, сопоставимых с результатами интеллектуальной деятельности человека или даже превосходящих их.
Вопрос об ответственности за использование таких механизмов является более сложным. Как отметил парламентарий, это должна быть комплексная ответственность разработчика и пользователя, однако найти баланс и определить меру ответственности каждого непросто.
«Это один из главных вопросов, над которыми мы работаем. Однозначно нужно уйти от запретов, при этом ввести гибкий риск-ориентированный подход. Ведь очевидно, что не нужно одинаково регулировать игру в шахматы с компьютером и использование беспилотных автомобилей», – добавил Шейкин.