Всё говорит о том, что в самом скором времени официально вступят в силу первые в мире правила для искусственного интеллекта. Это может произойти в ЕС, поскольку Европарламент уже разработал правила этой направленности, или в РФ, где с 2020 года проводится эксперимент по правовому регулированию ИИ, рассчитанный на пять лет. При этом наблюдается серьёзный разрывы между использованием ИИ и нарушением прав человека данным ИИ.
Уникальные особенности ИИ
Искусственный интеллект — явление уникальное. Его не существует, вряд ли он в принципе возможен, но все про него говорят, аргументируя это какими-то невероятными доводами. Самый одиозный из них сводится к тому, что с помощью ИИ якобы уже готовятся студенческие работы. Это могло бы подтвердить только факт того, что студенты ленивы и не хотят выполнять их самостоятельно. На деле такие работы представляют собой компиляцию из множества других, находящихся в открытом доступе.
Это ничего не доказывает и не опровергает. Перед студентами не ставится задача совершения научных открытий. Основная цель их работ — обучение. Собирая и обрабатывая информацию из различных научных публикаций студенты должны развиваться. Курсовая работа не является самоцелью. Если программное обеспечение в состояние сделать рерайтинг по нескольким источникам, то это ещё не говорит о том, что мы имеем дело с интеллектуальным трудом в полном смысле этого понятия.
Иногда проблема искусственного интеллекта напоминает проблему 2000 года, которая была талантливо сфабрикована, на «решение» которой были потрачены огромнейшие деньги, но которая на деле представляла собой совокупность нескольких рутинных технических операций, о которых можно было бы и не кричать на весь мир.
По данным минтруда, в настоящее время доля применения «искусственного разума» занимает до 20% в экономике, а к 2030 году данная ниша может дойти до 50%. При этом мы далеко не в восторге от уровня развития этой самой экономики. Конечно, прямые причинно-следственные связи здесь вряд ли возможны, но предположение того, что использование такого программного обеспечения ведёт к рискам вполне обоснованно. Мы толком не знаем, что это за ПО, можем даже сомневаться даже в том, что оно протестировано должным образом. Хотя бы по той причине, что сгенерированные нейросетями тексты читать чаще всего невозможно. Текст лишь создаёт иллюзию того, что он содержит какой-то смысл, но не учит чему-то новому и не побуждает представителей аудитории думать самостоятельно.
Довольно часто мы не разделяем общий переход на цифру, когда документооборот всё более и более исключает бумажные носители, повсеместное использование достижений IT в плане работы с информацией и именно ИИ, или то, что таким термином именуют. В результате проблемы разной природы объединяются в одну большую систему. Мы начинаем сетовать на все трудности сразу. Это широко распространённые утечки персональных данных, которые часто вообще не имеют никакого отношения к нейросетям, а также мошенничество, травля кого-то в социальных сетях и проблема вытеснения машиной человека.
Вполне возможно, что прогноз ЮНЕСКО о том, что знания и навыки 300 миллионов человек с высшим образованием к 2030 году нейросети могут сделать ненужными, оправдан. Это проблема, которая выводит нас к теме безусловного базового дохода, который в РФ даже не обсуждают, а в ЕС уже начали внедрять на практике. В России идут другим путём: прослеживаются попытки ужесточения законодательной базы. В настоящее время известны два основных документа, которые направлены на защиту цифровых прав человека. (Не так давно это понятие «цифровые права» появилось даже в ГК РФ).
Идёт работа над созданием законодательной базы использования ИИ
Итак, в РФ подготовлена «Концепция защиты цифровых прав» и «Цифровой кодекс». И тот, и другой документ ещё не получили выражения в форме законопроектов. Это лишь базовая их основа. При этом наблюдается отсутствие единых стандартов использования того, что скрывается за понятием «искусственный интеллект». В настоящее время оба документа проходят стадию согласования в ведомствах, что вполне объяснимо.
Самое опасное для рядовых граждан здесь в повсеместном внедрении так называемых «умных» технологий, которые могут самостоятельно списывать деньги со счетов или отключать доступ к тем или иным ресурсам. Программный алгоритм сможет принимать решения о том, кто из граждан может быть лишён каких-то прав. В результате человек может быть ограничен в них по причинам, которые ему толком никто даже не объяснит. Более того, сами разработчики не всегда могут детально знать особенности работы сложной системы. Такие примеры уже есть, они выходят за рамки технической проблематики, но пока не имеют и чёткого правового контура.
Основная опасность в том, что имеющиеся попытки применения машины в качестве некоего центра принятия решений проходят вне правовой процедуры. Нет механизма обжалования, возможности убеждать, учитывать субъективную точку зрения. ИИ воспринимается в качестве какого-то абсолютного метода, который всё знает и ошибаться не может. Однако до сих пор внедрение любого программного комплекса неизбежно влечёт за собой появление ошибок и их исправление.
Нам же остаётся только надеяться на то, что в России, усилиями членов СПЧ, Совета федерации и других государственных институтов будет построена схема, которая учтёт все риски и сделает применение ИИ более взвешенным и свободным от очарования мифом во всемогущество машинного «интеллекта».