Электоральная демократия — тип представительной демократии, который основывается на выборности, на голосовании избирателей. Важнейшим принципом организации выборов является гласность и открытость избирательного процесса, достоверность информации о выборах. В настоящее время возрастают угрозы распространения недостоверной информации («фейков») о выборах, связанные с негативным воздействием искусственных интеллектуальных систем, способных самостоятельно создавать контент, влияющий на поведение человека. Эти угрозы подробно рассматривались в 2023 году в консенсус-прогнозе Экспертного института социальных исследований «Искусственный интеллект политики для будущего», в котором в частности приводится опасение, что под воздействием искусственного интеллекта (далее – ИИ) «новый мир будет требовать единогласия и предполагать гораздо более серьезные нарушения прав человека на личную жизнь, суверенитета государств». Среди главных угроз электоральной демократии в консенсус-прогнозе упоминается дезинформация, в том числе так называемые «дипфейки» (ложные аудиозаписи, фотографии и видео). Такие, как, например, «фейковое» видео в котором умерший ещё в 2008 году бывший президент Индонезии Сухарто якобы обращается с призывом к избирателям отдать голос за крупнейшую в Индонезии партию «Голкар». Это видео в 2024 году посмотрели более 5 млн пользователей.
Большой интерес в профессиональной среде вызвало также появление в 2025 году доклада Центра политической конъюнктуры (ЦПК) «Приближение кибер-айсберга», в котором прогнозируется в ближнесрочной перспективе широкое использование нейросетей в электоральной сфере для взаимодействия с избирателями, аналитической работы, политической агитации и пропаганды.
2024 год стал знаковым для института электоральной демократии. Выборы прошли в 64 странах на всех континентах. Для анализа предпочтений электората, политической агитации или непосредственного общения с избирателями использовались современные информационно-коммуникационные, цифровые технологии и технологии ИИ. Так в октябре 2024 года нейросети ChatGPT, Perplexity и GigaChat прогнозировали исход выборов 47-го президента США. Модели проанализировали поддержку кандидатов среди разных групп избирателей, ключевые темы кампании и вероятность успеха в «колеблющихся» штатах. При этом они заметно оказывали поддержку демократической партии. Показательно, что все три нейросети неверно оценили ситуацию, предсказав победу Камалы Харрис. Ошибки в прогнозировании связаны с особенностями языковых моделей, применяемых в современных информационно-коммуникационных технологиях. Они представляют собой мощный инструмент для автоматизации обработки и анализа текстовых данных, способны значительно повысить эффективность решения широкого спектра задач, включая информационный поиск, генерацию текстов, перевод и анализ настроений избирателей. Однако их использование в электоральной сфере также сопряжено с рядом проблем, которые требуют тщательного изучения.
Одной из ключевых проблем является предвзятость информации, генерируемой языковыми моделями. Это связано с тем, что алгоритмы, лежащие в основе таких моделей, «обучаются» на больших объемах данных, которые могут содержать скрытые предвзятости. Эти предвзятости могут проявляться в виде стереотипов, дискриминационных высказываний, других форм социальной несправедливости или преднамеренной и программируемой дезинформации. С другой стороны, использование невалидных языковых моделей приводит к недооценке существенных обстоятельств, влияющих на предпочтения избирателей, и к ошибкам.
Для понимания серьезности угроз, стоящих перед электоральной демократией, показательно обсуждение цифровых технологий, которое состоялось в январе 2024 года в рамках Всемирного экономического форума между его председателем Клаусом Швабом и соучредителем Google Сергеем Брином. Тогда обращаясь к Сергею Брину Клаус Шваб предположил исчезновение в скором времени выборов как явления в связи с распространением ИИ. Он заявил: «Цифровые технологии в основном обладают аналитической мощностью; теперь мы переходим к прогностической мощности, и мы уже увидели первые примеры, и ваша компания в значительной степени эволюционировала в этом направлении. Следующим шагом может стать переход в предписывающий режим, а это значит, что вам больше не нужно проводить выборы, потому что вы уже можете их прогнозировать». Желание транснациональных элит устранить выборы как «досадную помеху» на пути к своему глобальному доминированию вполне понятно. Свободные и всеобщие выборы – ключевая составляющая национального суверенитет и его источник. Усилия к подрыву легитимности выборов, делигитимации избирательного процесса являют своей целью суверенитет государства.
Президент России неоднократно отмечал, что «наличие собственных разработок нового поколения ИИ — одно из ключевых условий научного, технологического, мировоззренческого суверенитета страны». Электоральный суверенитет, понимаемый как исключительное право народа определять подходящую избирательную систему и самостоятельно проводить выборы и референдумы в соответствии с внутренним законодательством, является неотъемлемой частью национального суверенитета. С учётом важности защиты электорального суверенитета от иностранного вмешательства, цифровизация избирательного процесса должна базироваться на суверенных отечественных технологических разработках. Таких, как программно-технический комплекс дистанционного электронного голосования, созданный ПАО «Ростелеком».
В российской электоральной практике отечественные технологии ИИ уже используются, например, при проверке подписных листов в поддержку кандидатов. По информации Э.А. Памфиловой ЦИК России работает ещё над несколькими пилотными проектами с применением ИИ. По мнению специалистов, речь может идти также об использовании в будущем ИИ для выявления дезинформации, направленной на подрыв доверия к выборам или обман избирателей («фейковых» новостей) и анализа бумажных и электронных бюллетеней с целью предотвращения фальсификаций. В этой связи критически важным для электорального суверенитета специалисты считают продвижение собственных российских языковых моделей, которые легли бы в основу алгоритмов ИИ.
По мнению электорального эксперта Г.Н. Митина технологии ИИ могут быть востребованы нижестоящими избирательными комиссиями в их текущей работе при формировании информационных материалов, маршрутизации поквартирного обхода, работе с обращениями граждан, анализе электоральной статистики, иной организационной, аналитической и правовой работе. Однако участие ИИ по мнению экспертов возможно исключительно в качестве цифрового помощника или ассистента избирательных комиссий. Он не может их полностью заменить. В противном случае использование ИИ приведёт к сокращению конституционных гарантий участия граждан в делах государства в составе независимых коллегиальных органов организации избирательного процесса — избирательных комиссий. Тем более должно быть ограничено влияние ИИ на принятие решений, связанных с регистрацией партий и кандидатов, финансированием избирательных кампаний, предвыборной агитацией, где цена ошибки очень высока. Ответственность за принятие таких решений могут нести только люди. Во избежание ошибок ИИ, в том числе в результате так называемых «галлюцинаций ИИ», то есть «вымышленных» ответов, не имеющих отношения к действительности, должны быть продуманы вопросы дополнительной верификации человеком проектов решений, подготовленных с использованием ИИ.
Очевидны также возможности использования ИИ в политической борьбе. Одним из первых проектов в России была нейросеть «Жириновский», которая объединяет текстовые и речевые данные основателя партии ЛДПР Владимира Жириновского с соответствующим видеорядом. В октябре 2023 года депутаты от ЛДПР внесли в Государственную Думу законопроект, направленный на регулирование использования ИИ в предвыборной агитации. Поправки предусматривали возможность использования изображений и синтезированной речи, созданных с помощью ИИ, без необходимости получения письменного согласия от физических лиц. Вместо этого предлагалось обязательное информирование избирателей о применении таких технологий.
Правительственная комиссия по законопроектной деятельности, однако, не поддержала предложение ЛДПР и сослалась на правовую позицию Конституционного суда, согласно которой «специальное регулирование осуществления предвыборной агитации направлено прежде всего на то, чтобы не допустить возможность формирования у избирателей искаженного представления о кандидате, а также на обеспечение равенства прав кандидатов и защиту прав и интересов граждан, не являющихся кандидатами». Кроме того, в отзыве комиссии говорилось, о том, что предлагаемые поправки не согласуются с принципом неприкосновенности частной жизни. Точку в этом вопросе поставил Верховный Суд Российской Федерации, запретивший создавать и использовать агитационные материалы с использованием изображений умершего физического лица, в том числе созданные с применением компьютерных технологий.
Всероссийская политическая партия «Единая Россия» с 2023 года активно использует технологии ИИ для прогнозирования и аналитики, генерации видеоматериалов и изображений, их презентации, моделирования реакции избирателей, систематизации и упрощения сложных материалов. При этом функционеры Единой России отмечают возможности использования технологий ИИ «оппонентами России», которые пытаются «сформировать альтернативные нашим собственным сценарии будущего».
Использование ИИ в предвыборной агитации представляет собой сложное и многогранное явление, которое может оказывать как положительное, так и отрицательное влияние на политический процесс.
Резюмируя основные преимущества технологии ИИ глава Центра политической конъюнктуры А.А. Чеснаков выделяет следующие перспективные направления его использования в электоральном процессе:
– анализ электоральных предпочтений на основе обработки больших данных (Big Data), включая демографические, экономические и социокультурные данные об избирателях, особенностях их поведения в Интернете, составление уникальных психографиков для создания профиля поведенческих моделей электората;
– агитация на основе анализа потребления данных пользователями, проведенного нейросетью, отправка рекламных рассылок избирателям и минитаргетинг в зависимости от их ожиданий;
– генерация уникального контента (картинок, слоганов, постов в соцсетях, ответов на вопросы избирателей, видеороликов) для целевой аудитории с соблюдением законодательства о персональных данных;
– персонифицированное политическое общение через внедрение чат-ботов (партийных навигаторов), а также голосовых помощников (виртуальных ассистентов) для взаимодействия с избирателями на тематических сайтах;
– интерпретация с использованием технологий ИИ хода и результатов выборов электоральными наблюдателями, политологами, политтехнологами, другими экспертами, комментирующими избирательный процесс и участвующими в формировании повестки вокруг выборов.
По мнению экспертов Центра политической конъюнктуры А.А. Чеснакова, К.Н. Костина, М.Ю. Виноградова технологии ИИ будут активно использоваться уже на грядущих в 2026 году выборах в Государственную Думу Федерального Собрания Российской Федерации. Они станут частью политического имиджа партий и кандидатов, во многом определят успешность избирательных кампаний и, возможно, получат нормативное закрепление.
Однако, по мнению экспертов, полностью легализовать использование нейросетей в электоральной сфере пока рано. Общее правовое регулирование в этой сфере должно учитывать перспективы развития технологий дополненной реальности для создания цифровых «аватаров» политиков и «дипфейков», которые могут использоваться для проведения информационных атак на оппонентов, вводить людей в заблуждение, провоцировать тревожность и снижать уровень «цифровой гигиены». В этой связи член Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека А.С. Брод справедливо утверждает, что приоритетным должно стать правовое ограничение незаконных действий с использованием ИИ, в том числе, направленных против электорального суверенитета Российской Федерации. Важным в этой связи являются требования об обязательной маркировке контента, произведённого с использованием ИИ, а также классификации систем ИИ по уровню потенциального риска (неприемлемый, высокий, ограниченный и минимальный), предложения по введению которых в настоящее время обсуждаются в рабочей группе Государственной Думы по законодательному регулированию искусственного интеллекта (ИИ). Кроме того ряд обозревателей предлагают вовсе запретить использование иностранных нейросетей в избирательном процессе в порядке применения п. 6. ст. 3 Федерального закона от 12.06.2002 № 67-ФЗ «Об основных гарантиях избирательных прав и права на участие в референдуме граждан Российской Федерации», в которой содержится запрет международным и иностранным организациям каким-либо образом участвовать участвовать в избирательных кампаниях и кампаниях референдума. В этой связи важными представляются вопросы авторского права на результаты интеллектуальной и творческой деятельности с применением ИИ, которые в действующем законодательстве в полной мере не урегулированы.
Основы правового регулирования ИИ в Российской Федерацией заложены Национальной стратегией развития искусственного интеллекта на период до 2030 года, которая была утверждена Указом Президента Российской Федерации от 10 октября 2019 года № 490. К задачам Стратегии относится создание системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ. Дальнейшее развитие ИИ в различных сферах общественных отношений и отраслях экономики идёт путём создания экспериментальных правовых режимов или так называемых «цифровых песочниц», которые позволяют выявить риски развития ИИ в этих сферах и своевременно предложить варианты их правового регулирования. В электоральной сфере используется риск ориентированный подход к применению цифровых технологий. Например, при проведении эксперимента по организации дистанционного электронного голосования на выборах в Мосгордуму в 2019 году, не было отмечено серьёзных сбоев, что послужило основанием для дальнейшего развития системы ДЭГ и её распространения на другие регионы.
На настоящем этапе цифровой трансформации публично-правовых отношений в электоральной сфере перспективным представляется «мягкое регулирование» ИИ, например, путём заключения соглашения парламентских политических партий об ответственном использовании ИИ, в том числе для политической агитации. Подобный универсальный Кодекс этики в сфере искусственного интеллекта действует в России с 2021 года. По информации на 2024 год к Кодексу присоединились 851 организация и 44 федеральных органа исполнительной власти.
Соглашение между политическими партиями позволило бы снизить риски неэтичного использования ИИ, нарушающего права избирателей и интересы других участников избирательного процесса. Тем самым может быть соблюдён баланс между безопасностью и развитием ИИ, защищены конституционные права гражданин на легитимность избирательного процесса, свободу и достоверность волеизъявления, составляющие фундамент электоральной демократии.