Перейти к основному содержанию

Влияние искусственного интеллекта на медийное пространство

ИИ
© РИА Новости / Изображение сгенерировано ИИ

Анатомия искусственного интеллекта

Современные алгоритмы искусственного интеллекта (ИИ) продолжают демонстрировать все более высокую эффективность в целом спектре важных задач — от машинного мультиязычного перевода до второго мнения в медицине. В свою очередь, большие языковые (LLM), а также мультимодальные (MMLM) модели способны генерировать тексты и медиа, формируя не только качественный аналитический материал для экспертов, но и определенные нарративы в медиапространстве. Как показывают исследования по теории фрейминга, то, как именно подается информация, во многом определяет ее восприятие. Еще в 1993 году Роберт Энтман отмечал в своей работе, что фрейминг — это "отбор некоторых аспектов реальности и придание им большей значимости в сообщении таким образом, чтобы продвинуть определенное понимание проблемы, ее причин, а также моральную оценку и пути решения".

Сегодня при широком использовании известных монетизируемых через интернет моделей ИИ для генерации текстов новостей, это может приводить к привлечению внимания к одним фактам и умалчиванию о других, тем самым задавая выгодную определенным акторам интерпретацию событий. Например, алгоритм может подчеркнуть эмоциональные аспекты истории и опустить контекст, создавая искаженную картину обрабатываемого материала.

Возникает также вопрос о глобально транслируемых нарративах и их культурных аспектах. Крупные технологические компании часто взаимодействуют с медиа по всему миру, распространяя тем самым не только единый контент, но и стандарты его модерации через призму предобученных моделей. Это не может не усиливать риск своего рода информационной "мягкой силы", распространению влияния через малозаметное убеждение. В работе " Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics " (Benkler et al., 2018) на примере американских медиа показано, как скоординированная сеть СМИ способна формировать и усиливать нужные нарративы на масштабном уровне. Глобальные цифровые платформы, обладая аудиторией в миллиарды людей, могут непреднамеренно транслировать ценности и рамки их обсуждения, исходящие преимущественно от глобальных на сегодняшний день лидеров в ИИ, таких как OpenAI, Mistral, Deepseek и пр. В результате, возникает опасность нарушения нейтральности к культурным особенностям и фундаментальным ценностям различных стран: локальные мнения и голоса могут заглушаться, а глобальный дискурс способен приобрести уклон, выгодный владельцам технологий и их партнерам. Это можно обозначить как новый цифровой вектор на основе высокотехнологичной интеллектуальной автоматизации экспорта идеологических доктрин через управление информационным потоком.

Важно понимать, что ИИ-системы обучены на колоссальных массивах данных, в которых уже присутствует определенная политическая и культурная предвзятость. Исследователи области компьютерной лингвистики начали находить свидетельства того, что большие языковые модели отражают картину мира своих создателей, то есть могут склоняться к ценностям, заложенным разработчиками и трендами в обучающих данных.

Так, в работе Röttger et al. (2022) продемонстрирована идеологическая предвзятость в ответах моделей. Продвинутые ИИ практически интерпретируют факты через призму определенных установок, что потенциально усиливает односторонние нарративы. Это определенный вызов, ведь часто усилия сделать модели полностью “непредвзятыми” связаны с фундаментальным вопросом: а возможно ли идеологически нейтральное повествование, или любые данные так или иначе характеризуются от обратного? Если ИИ встроен в медиаэкосистему, он непременно станет актором, влияющим на общественное мнение — и этот эффект следует осознавать и учитывать.

Гиперперсонализация как орудие дезинформации

Генеративные модели ИИ уже научились создавать убедительные тексты, изображения, видео и звук. Следующий шаг — объединение таких моделей в мультиагентные системы для скоординированного управления дезинформационной кампанией. Представьте сеть из множества специализированных ИИ-агентов: одни анализируют тренды в социальных сетях, другие генерируют новостные статьи или посты, третьи — создают фейковые фотографии или видео, а четвертые — управляют тысячами фейковых аккаунтов для распространения такого контента. Подобная система способна работать практически без вмешательства человека, непрерывно адаптируя ложные нарративы под целевые аудитории.

Гиперперсонализация делает дезинформацию особенно эффективной. С помощью больших данных и вычислительной социологии злонамеренные акторы могут сегментировать аудиторию по десяткам признаков — от политических взглядов до личных страхов. Инструменты анализа социальных сетей и моделирования поведения позволяют понять, какой контент “зацепит” конкретного человека. Далее генеративный ИИ создает сообщения, идеально подстроенные под мировоззрение или эмоциональное состояние этой аудитории. Например, одним пользователям покажут видео с вызывающими страх образами, другим — “новость”, апеллирующую к их ценностям. Все элементы — текст, изображение, звук — можно синтезировать под индивидуальный психологический профиль. В результате возникает синтетическая версия “правды”, максимально убедительная и практически неотличимая от органического контента.

Наука о данных уже фиксирует проблемы, связанные с такими ИИ-порожденными сообщениями. Например, большие языковые модели статистически подбирают слова, не всегда понимая смысл, из-за чего могут непреднамеренно воспроизводить стереотипы.

Более того, такие модели способны генерировать и усиливать ложные сведения и пропаганду, если обучены на смещенных данных. Это означает, что мультиагентная система на базе таких моделей рискует лавинообразно тиражировать фейки, пока ее не остановить. Также важно помнить о концепции "performative prediction": когда ИИ не просто отражает реальность, а формирует ее. Если алгоритм массово распространяет идею, часть общества начинает действовать, исходя из этой идеи, тем самым делая ее “реальной” в социальном смысле. Например, достаточно убедительная дезинформация о кризисе может спровоцировать панические настроения или экономические решения, которые материализуют искусственно подготовленный кризис.

Интеграция с существующими подходами вычислительной социологии усиливает эти угрозы. Например, использование анализа сетевых графиков коммуникации выявляет лидеров мнений и узлы распространения, а мультиагентная система, в свою очередь, может таргетировать именно их для максимального охвата и конверсии. Эмоциональное картирование (например, анализ тональности постов) позволяет уловить коллективное настроение и подобрать момент для информационной атаки, когда общество наиболее восприимчиво. Таким образом, неверифицированный генеративный ИИ вместе с данными соцсетей может стать инструментом массовой дезинформации, способный адаптироваться и учиться на реакциях людей в режиме реального времени. Масштаб и скорость такого воздействия беспрецедентны, и традиционные методы опровержения фейков часто не успевают среагировать.

Отдельно стоит отметить, что недавнее исследование (Rettenberger et al., 2025) оценило политические склонности самых популярных открытых языковых моделей и обнаружило интересную закономерность: более крупные модели (с большим числом параметров) "склоняются" в сторону левых взглядов, тогда как модели поменьше часто дают более нейтральные ответы. Например, модель “Llama3-70B” показывала высокое согласие с тезисами левоцентристских тезисов, в то время как меньшие модели чаще выбирали нейтральную позицию. Хотя разработчики не закладывают напрямую “левизну” или “правизну”, алгоритм обучается на контенте, где может преобладать определенная точка зрения (скажем, некоторые тексты могут быть склонны к неолиберальному тону). Если журналист или политик начнет полагаться на такой ИИ для подготовки материалов, существует риск смещения дискурса влево или вправо незаметно для автора. Это невольная, но ощутимая форма влияния, которая в сочетании с гиперперсонализацией может приводить к еще большей поляризации мнений.

Технические меры противодействия

Невзирая на мрачные сценарии, параллельно развиваются и технологии противодействия дезинформации. Одно из ключевых направлений — маркировка контента, то есть явное обозначение материалов, созданных ИИ, или материалов, достоверность которых не подтверждена. Крупные платформы экспериментируют с пометками вроде “это изображение сгенерировано искусственным интеллектом” или предупреждениями под сомнительными постами. Хотя такие ярлыки не являются панацеей, они дают аудитории сигнал отнестись к содержанию критически.

Другой подход — внедрение цифровых водяных знаков в синтетический контент. Современные методы позволяют добавлять в текст или изображение тонкие скрытые паттерны, незаметные для человека, но определяемые алгоритмами. Например, генератор текста может вставлять специальные последовательности слов или символов, а нейросеть для изображений — менять пиксели по определенному алгоритму. В итоге появляется “подпись” модели. Исследователи отмечают, что "сложные цифровые водяные знаки встраивают едва заметные шаблоны в ИИ-контент, которые может обнаружить только компьютер". Такие отметки помогают автоматизированно фильтровать сгенерированный контент или хотя бы помечать его для проверки. Однако злоумышленники тоже не стоят на месте: водяные знаки можно попытаться исказить или полностью удалить, изменив незначительно изображение (через инструменты зашумления, в т.ч. нейросетевого) или перефразировав текст. Полностью защититься этим методом нельзя — необходима координация между разработчиками моделей, чтобы каждое поколение ИИ содержало проверяемый маркер. Кроме того, открытые модели без ограничений могут распространяться без всяких меток, что создает “лазейку”. Тем не менее, водяные знаки повышают порог входа для массовой дезинформации: теперь злоумышленнику нужно затратить больше сил, чтобы скрыть следы ИИ.

Дополняет этот арсенал мультиформатная верификация — проверка контента сразу по нескольким параметрам. Например, для подозрительного видео можно анализировать и само изображение (не искажен ли фон, реалистичны ли тени), и аудиодорожку (есть ли неестественные артефакты голоса), и метаданные файла (дата создания, устройство съемки). Сопоставление между форматами тоже дает "улики": если видео якобы новостное, соответствует ли сказанное на аудио тому, что происходит на картинке? Если фото привязано к событию, совпадают ли погодные условия и окружение с данными из независимых источников о том дне? Алгоритмы на базе компьютерного зрения и аудиодетекции учатся выявлять аномалии, характерные для синтетических медиа. Например, известны инструменты, отлавливающие deepfake видео по неестественному движению глаз или синхронизации губ с речью. Для текстов создаются классификаторы, вычисляющие статистические признаки “машинного” слога. Конечно, это противостояние между ИИ-генераторами и ИИ-детекторами продолжается: совершенствуется одно, улучшается и другое.

Важную роль в противодействии играют журналисты и специалисты по проверке фактов, вооруженные специализированным ИИ. Возникает гибридная модель: естественный и искусственный интеллект. Автоматизированные системы мониторинга могут круглосуточно сканировать информационные потоки, отмечая всплески аномальной активности (например, сотни одинаковых сообщений с новых аккаунтов) или новые вбросы на известных дезинформационных площадках. Затем аналитики-люди проверяют отфильтрованные алгоритмом случаи, используя и традиционные методы журналистики, и подсказки ИИ (например, автоматический поиск первоисточника фото). Такой симбиоз ускоряет разоблачение фейков: то, на что у редакции ушли бы дни, сейчас выявляется за часы. Уже сейчас крупные медиаорганизации и независимые фактчекинговые проекты применяют полуавтоматические "конвейеры проверки" — от простого поиска совпадений в тексте до использования нейросетей для расшифровки видео и поиска в них несостыковок. В идеале, до четверти всего информационного потока в будущем будет проходить через подобные фильтры и проверки, что значительно осложнит жизнь ботнетам. Тем не менее, даже лучшие алгоритмы не способны понять контекст и умысел так, как это может сделать опытный журналист.

Координация усилий и роль человеческого суждения

Несмотря на прогресс технологий детекции, главный вывод очевиден: ИИ не заменяет человеческое суждение. Машина может помочь собрать факты, указать на противоречия или отслеживать распространение информации, но интерпретация остается за человеком. Особенно это касается сложных культурных и политических контекстов. То, что в одной стране шутка, в другой — оскорбление; что для одной социальной группы “радикально”, для другой — норма. ИИ, не обладая живым опытом, легко ошибается в понимании подтекста. Например, генеративная модель может корректно процитировать речь политика, но не уловить сарказма или исторических отсылок, и в итоге преподнести искаженный смысл. Поэтому на каждом этапе — от разработки алгоритмов до модерации контента — необходимо участие экспертов по гуманитарным наукам, журналистов, социологов. Они зададут рамки, в которых ИИ-инструменты будут использоваться безопасно.

Борьба с дезинформацией

Эффективная борьба с дезинформацией требует координации всех стейкхолдеров: ИТ-сектора, государства, медиа и общества. Технологические компании несут ответственность за внедрение этичных ограничений в свои модели (например, обучение на более сбалансированных данных, установка фильтров против явной лжи). Государственные структуры могут создавать нормативную базу — от маркировки deepfake-материалов до наказания организаторов информационных атак — и инвестировать в просвещение населения. Медиаорганизации должны придерживаться стандартов фактчекинга и не потакать погоне за кликами ценой распространения непроверенных сенсаций. А общество — это мы с вами — должно повышать цифровую грамотность. Каждый пользователь, прежде чем поделиться кричащим постом, должен задуматься: не пытаются ли им манипулировать? В школах и университетах уже появляются программы, обучающие критически относиться к информации, особенно исходящей от анонимных источников или подозрительно слишком хорошей, чтобы быть правдой.

Послесловие

В эпоху, когда ИИ становится соавтором информационной повестки, крайне важно сохранить человеческий контроль над смыслом и ценностями. Искусственный интеллект — всего лишь инструмент, и от нас зависит, станет ли он источником прогресса и просвещения или оружием массовой дезинформации. Объединив усилия технологов, журналистов, политиков и активных граждан, можно выстроить систему сдержек и противовесов, в которой преимущества ИИ используются на благо, а риски его злоупотребления сведены к минимуму.

Авторы:

Александр Яковенко, руководитель комитета по глобальным проблемам и международной безопасности научно-экспертного совета Совета Безопасности РФ, заместитель генерального директора МИА «Россия сегодня».

Олег Рогов, старший научный сотрудник Института искусственного интеллекта AIRI.

Оригинал статьи опубликован на сайте РИА «Новости».