КолонкаОбщество

Фейк-машина

Может ли Роспечать изготовить устройство для отлова дезинформации — за 100 млн рублей?

Инфоповод у нас сегодня знатный — цитирую приближенную к государственному телу прессу: «Федеральное агентство по печати и массовым коммуникациям (Роспечать) предлагает создать дата-сервис на основе искусственного интеллекта для проверки достоверности новостей. Об этом говорится в письме замруководителя Роспечати Ильи Лазарева, направленном в курирующее ведомство Минкомсвязь 31 июля». Паровозом идут две ключевых цифры: «Создать такой дата-сервис нужно к 2023 году, а затраты на него оценены в 94,3 млн руб.».
Иллюстрация: Петр Саруханов / «Новая»
Иллюстрация: Петр Саруханов / «Новая»

Скорые на непродуманные выводы головы прицепились к этим рублям и вывели версию, обреченную на успех у критически настроенных мозгов нации: «Роспечать предлагает распилить почти 100 млн рублей на создании нейросети по распознаванию фейков. То есть то, что не удалось сделать за много миллионов долларов Фейсбуку или Твиттеру, сделает (ну или сделает вид, что сделает) Роспечать, то самое федеральное агентство, которое официально распространяет максимальное количество фейков через госканалы» (цитата из популярного телеграм-канала с многотысячной аудиторией).

Распил, подарок-2024 и настоящая машина

Версия с распилом — назовем ее версией № 1 — лежит на поверхности, однако, на мой взгляд, ошибочна до неприличия. Что можно сказать про якобы несерьезную сумму и то, что фейсбуку не удалось? 94,3 млн рублей — это 1,3 млн долларов. Стоимость готового аппаратно-программного комплекса, задействующего ту или иную форму AI (искусственного интеллекта) для проведения сетевого мониторинга и фильтрации данных — от 6 до 40 тыс. долларов. Стоимость кастомной разработки (т.е. под конкретные специфические нужды клиента) — от 300 тыс. до 500 тыс. долларов. Это по американскому прейскуранту.

Поскольку Роспечать собирается использовать труд российских разработчиков и программистов, цифры можно ополовинить, а то и очетвертовать.

Иными словами, в бюджете 1,3 млн долларов для создания готового аппаратно-программного комплекса (того, что в письме Лазарева именуется «дата-сервисом»), основанного на движке AI и задействующего в качестве механизма обучения ту или иную нейросеть, нет ничего смешного. Он более чем реален, было бы желание.

Версия № 2 — не менее обывательская, чем первая, и тоже привязанная к цифрам:

дата-сервис для отлова фейков нужно создать, говорите, к 2023 году? А-а-а-а! У-у-у-у! Так это ж тов. Лазарев решил потрафить тов. Путину!

Подарок, типа, поднести ко дню рождения — к 17 марта 2024 года: на протяжении всей избирательной кампании на страже законности будет свирепствовать беспощадный отлов фейков, которыми, можете не сомневаться, попытаются замутить отечественное информационное поле атлантисты и пятая колонна. А вот накося вам выкуси: добро непременно победит зло.

Внутренний голос подсказывает, что добро победит зло в РФ в 2024 году и без «чудо-машины» Роспечати. Что касается Путина, то ему — опять внутренний голос — рвение чиновников уровня замов и замзавов, вероятнее всего, глубоко фиолетово. Равно как и освоение бюджета Роскомпечатью. Мелковато как-то для главного государственника отечества.

Списываем, одним словом, со счетов версию № 2 тоже и переходим к версии № 3: Илья Лазарев написал письмо про машинку для борьбы с фейками, потому что Роспечать таки реально собирается такую построить! Можете себе это представить? Не вопрос — проверим и эту гипотезу.

Прямо на берегу необходимо отделить зерна от плевел и определиться с тем, что Роспечать все-таки собирается строить (если, конечно, реально собирается, а не в очередной раз зондирует инфопочву). Если ведомству нужен действующий программно-аппаратный комплекс, который сможет шерстить заданный ему список СМИ, блогов и социальных сетей на предмет выявления неадекватных информационных вбросов и сливов по заранее определенным критериям (что нужно считать фейком, а что не нужно), то, как я выше уже сказал, в наши дни это не вопрос. Создадут такую чудо-машинку за милую душу. И даже еще от бюджета останется на премии бюджетникам низового звена.

Иной коленкор — насколько эффективной окажется такая перлюстрация. И тут как раз мы попадаем в воды, где плавают фейсбуки с твиттерами, а бюджеты для изучения и тестирования измеряются не одним миллионом долларов, а десятками миллиардов.

Нисколько не сомневаюсь, что Роспечать на такое даже в тайных помыслах не замахивалась, однако для понимания эффективности самой приземленной «чудо-машины» нам необходимо хотя бы в общих чертах представить себе современные рубежи технологий, которые мы пытаемся сейчас оценить.

Как же обстоят дела с «высокими технологиями» в борьбе с фальсифицированными новостями? Если коротко, то никак.

В том смысле, что ни малейшего шанса противостоять fake news как современному оружию гибридной войны у AI и нейросетей на их текущем уровне развития нет даже отдаленно. Это если вкратце. Теперь — подробности.

Москва, третий фейк

Технология фальсификации информации в условиях Web 2.0 (т.е. интернета, отданного на откуп социальным сетям) творит поистине чудеса.

В 2018 году в Science было опубликовано исследование, в котором проанализировали распространение в Twitter 126 тысяч (!) разнообразных фейковых сообщений в период с 2006 по 2017 год. Результаты исследования привели научное сообщество в ступор: в распространении фейков приняло прямое и непосредственное участие около 3 миллионов человек! 1% самых популярных фейков продвигали от 1000 до 100 тысяч пользователей социальной сети, в то время как число распространителей правдивой информации в редких случаях достигало 1000 человек.

Иными словами, fake news эффективнее правдивой информации в 100 раз!

Значение этого вывода сложно переоценить: получается, что совершенно неважно, кто запустил фейк в оборот — глупый мизантроп, ангажированный диверсант или компьютерный бот. Кто бы ни запустил, эффективность распространения достигается не за счет «запускателя», а за счет имманентной привлекательности fake news в глазах обывателей. У этой привлекательности есть много рациональных объяснений, выходящих за рамки нашей темы, поэтому отложим их до оказии.

Сейчас важно запомнить: народ любит фейки! И будет их распространять с остервенением, которое не остановит ни Белый дом, ни Роспечать.

О необходимости бороться с fake news весь мир заголосил в 2016 году. Мы все помним, с чем этот крик души был связан — с избирательной президентской компанией, в которой «враги Америки» (риторика Белого дома) продемонстрировали удивительную дисциплинированность и умения. Забавно, что тогда же, в 2016 году, весь мир ткнул пальцем в главного фейконосца планеты — наше с вами дорогое отечество.

С тех пор ровным счетом ничего не изменилось: Россия повсеместно — на всех пяти континентах — воспринимается как государство, достигшее зияющих высот в умении вести гибридные боевые действия с помощью распространения фейков.

Именно Россия, а не Китай, потому что второй архивраг Запада целиком сосредоточен на промышленном шпионаже и в вопросы идеологии принципиально не лезет. По понятным причинам: Китай сам заидеологизирован до гипофиза, поэтому отлично понимает: как он аукнет, так ему могут и откликнуть.

России в этом отношении проще: у нашей страны нет экономических претензий (в отличие от СССР) в плане «догоним и перегоним». Зато есть претензии сугубо идеологические:

мы — носители традиционных ценностей, столп здравомыслия и правильной сексуальной ориентации. Если у кого-то возникают необоснованные сомнения, можете свериться с новой Конституцией — там это прямым текстом прописано.

Поскольку сделать российские ценности привлекательными за пределами собственного государства проблематично (в силу исторической памяти ранее уже осчастливленных народов), экспорт идеологии возможен только в апофатической форме, то есть не через навязывание нашего позитива, а через выявление их собственного негатива. По этой причине внешняя пропаганда России строится исключительно на демонстрации ущербности «альтернативных ценностей», заразивших западную цивилизацию.

Главная задача — подрыв оппонента изнутри. Этим РФ прилежно занимается последние шесть лет, за что и снискала репутацию главного распространителя fake news. Со своей стороны добавлю, что репутация эта несправедлива, поскольку для дискредитации беспросветного лицемерия западного мироустройства не нужны никакие фальсификации, достаточно постоянно приоткрывать завесу над правдой. Чего стоит одна лишь утечка в прессу записи с нагрудных видеорегистраторов офицеров полиции Томаса Лейна и Алекса Кенга, запечатлевшей арест Джорджа Флойда.

Как бы там ни было, но де-факто признанный статус России как главного производителя fake news в мире, с одной стороны, развязал руки заинтересованным государственным ведомствам (вроде Минобороны США), с другой — создал колоссальное давление на научные лаборатории, от которых срочно затребовали революционных подвижек в борьбе с фальсифицированными новостями.

Если вы почитаете релизы американских госструктур на тему противостояния «киберврагу», то поразитесь их браваде и уверенности в успехе. Так, Минобороны уже рапортовал в Конгрессе о запуске «проекта, готового отразить широкомасштабные автоматизированные атаки по дезинформации». DARPA (Управление перспективных исследовательских проектов Министерства обороны США) заказала изготовление аппаратно-программного комплекса, который сумеет с высокой степенью надежности выявить «фейки, скрытые в 500 тысячах историй, фотографиях, видео и аудиоклипах».

С чем боремся?

Короче, Пентагон к борьбе готов и осваивает бюджеты в таких объемах, о которых Роспечати и мечтать не приходится. А насколько к борьбе готовы «товарищи ученые»?

Fake news можно разделить на две части по критерию формата: аудиовизуальные и текстовые. С выявлением фейков первого типа особых проблем не возникает в силу простоты вычленения формальных признаков: движения головы, мимика лица, неестественные движения глаз, пиксельные артефакты, ложные модуляции голоса — все это на видео и аудио с DeepFake отлавливается на ура. Сегодня существует море программ для создания аудио и видеофейков и еще больше софтверных разработок, позволяющих подобные подделки выявлять.

С другим форматом fake news, текстами, дела обстоят — полный швах.

Распознать на автоматизированном (машинном) уровне тексты, написанные людьми с помощью существующих технологий, невозможно абсолютно.

Здесь нужно нанимать армию высококвалифицированных сотрудников, которые будут 24 часа в сутки выявлять информационные подделки и диверсии штучно и вручную. Как вы понимаете, задача нереальная.

Единственная надежда — на тексты, которые генерируются не людьми, а компьютерами. Компьютеры в этой области в последнее время достигли высоких уровней правдоподобия: достаточно помянуть нейросетевой текстовый генератор GPT-3, созданный компанией Илона Маска OpenAI. На днях как раз приключилась забавная история: студент университета Беркли Лиам Порр две недели кряду публиковал в своем блоге мотивационные тексты о продуктивности, в которых человеческого только и было, что заголовок, параграф вступления и фотография, весь остальной текст статей дописывал GPT-3. Да так дописывал, что почти никто из читателей блога не догадался о подвохе.

Тем не менее именно в выявлении фейковых текстов, написанных нейросетевыми генераторами, ученые добились наибольшего успеха. Знаете почему? Потому что для выявления фейков используются сами же текстовые генераторы! Те знают собственные поделки как облупленные и мигом выявляют «творчество» аналогичных собратьев по разуму.

Что касается выявления фейковой информации, созданной человеком, то здесь ученые сделали лишь небольшой шажок — более ли менее успешно (94% точности) научились определять т.н. Stance, соответствие тексту заявленным интенциям (Automated Stance Detection). Этот процесс разделяют на два этапа:

  • интенции проверяемого текста сравниваются с позицией помянутых в нем документов-первоисточников;
  • интенция заголовка проверяемого текста сравнивается с остальным его содержанием.

По всем позициям рассчитывается репутационный рейтинг (т.н. reputation score), на основании которого с учетом эмпирического анализа и ранее собранной статистики пытаются сделать выводы об уровне правдоподобия текста, проверяемого на наличие фейковой информации.

Думаю, не нужно объяснять, что текущему этапу до полноценного распознавания fake news — как до луны. Даже на уровне выявления формальных признаков дезинформации. О таких тонких формах обмана, как «фигура умолчания» (то есть умышленное исключение из дискурса деталей, нарушающих стройность интенции), я даже не поминаю.

Полагаю, с версией № 3,исходящей из реальности планов Роспечати, мы тоже разобрались, переходим к следующей.

Фейки, Трамп и демократия

Версия № 4: сегодня США готовятся к президентским выборам, поэтому игроки с подмоченной репутацией из кожи вон лезут, чтобы засвидетельствовать свою рукопожатность. Первым этим благородным делом занялся TikTok. На днях китайские властители тинейджерских умов планеты запустили две инициативы: в первой заявили о намерении оспорить в суде исполнительное постановление Трампа о запрете социальной сети, во второй объявили об интенсификации борьбы с fake news, в первую очередь — политического толка.

Об аналогичной интенсификации рапортовали также Facebook с Twitter. Я это к чему? К тому, что, может, заявление Роспечати следует рассматривать именно в подобном контексте: вдруг обозначение намерения создать чудо-машину для борьбы с фейками — это символическое вручение верительной грамоты от главного подозреваемого? В этом случае Роспечать выполняет важный государственный внешнеполитический заказ и создает утечку, призванную продемонстрировать миру: смотрите, мы никуда не лезем, сами сильно озабочены проблемой fake news и даже собираемся освоить — страшно вымолвить — 1 миллион долларов для решения проблем.

Наконец, последняя, версия № 5,с помощью который можно объяснить демарш Роспечати с чудо-машиной для борьбы с фейками. Мне лично эта версия не нравится, однако она, как ни печально, имеет все шансы оказаться наиболее приближенной к истине.

Итак, в свете усиления накануне президентских выборов в Америке обвинений в адрес РФ в том, что она-де является главным распространителем fake news, Роспечать предложила своему курирующему ведомству — Минкомсвязи — занять принципиальную позицию: а не проверить ли нам самим, чем чистоплюи забугорные занимаются? Поступил, типа, сигнал о том, что враг не дремлет и штампует под шумок собственные фейки с целью опорочить и оклеветать нашу родину.

А раз так, то для отработки сигнала создаем за пару лет и один миллион долларов чудо-машину по магической дефейкизации, запускаем, и — что же мы видим?

В первые же часы работы вскрываются потоки лжи, клеветы и очернительства, нисходящие от наших западных партнеров и недоброжелателей. Что и требовалось доказать. Галочка. Профит.

Мневерсия № 5не нравится, потому что это прах моей бабушки: пинг-понг обвинений — древний и замшелый прием советской пропаганды. Мне как-то не хочется верить, что столь примитивные игры в 2020 году могут захватывать воображение чиновников. Мне лично по душе версия с «ритуальным вручением верительных грамот». По крайней мере она самая выгодная для России — и в тактическом, и в стратегическом отношениях.

Одна незадача: реальности до моей интуиции нет никакого дела.

shareprint
Добавьте в Конструктор подписки, приготовленные Редакцией, или свои любимые источники: сайты, телеграм- и youtube-каналы. Залогиньтесь, чтобы не терять свои подписки на разных устройствах
arrow