Комментарий · Общество

Камера найдется для каждого

Как цифровизация превращается в призыв на госслужбу бесконечного числа «умных» вахтеров

Михаил Калашников , техноблогер, автор телеграм-канала The Scope

Фото: Владимир Баранов / РИА Новости

Только за последние две недели мы узнали о трех российских инициативах по использованию искусственного интеллекта (ИИ) в правоохранительных целях. «Умные камеры» (то есть камеры, изображение с которых автоматически распознается алгоритмами) предлагают использовать для выявления курения в неположенных местах: «информация будет в режиме реального времени пересылаться лицам, ответственным за безопасность». Параллельно в Самаре тестируют проект по обнаружению вооруженных людей возле школ: «система самостоятельно находит потенциальных стрелков и вызывает полицию». Наконец, Федеральная служба судебных приставов планирует использовать искусственный интеллект для поиска должников и обещает, что к 2023 году ИИ будет самостоятельно составлять 80% всех резолюций.

По сравнению с Китаем, где присылают штраф прямо в телефон, если вы переходите дорогу на красный, а у полиции есть «умные» солнцезащитные очки, определяющие нарушителей в толпе, 

российские идеи выглядят достаточно скромными. Но кажется, это только начало.

Несмотря на слова «умный» и «интеллект» применительно к нейросетевым алгоритмам, это инструмент, который лучше всего выполняет однообразную работу не очень квалифицированного сотрудника. Технологический визионер Бенедикт Эванс советует представлять возможности нейросетей как наличие у вас бесконечного количества стажеров.

Часто это выглядит как магия. Раньше фоторедакторы тратили часы, вырезая контуры людей из фотографий для обложек журналов. Сейчас нейросетевой алгоритм делает это мгновенно и бесплатно. Нейросети находят аномалии на рентгеновских снимках, переводят тексты, раскрашивают черно-белые фотографии. Не говоря уже о том, что угадывают, какая музыка или новый фильм вам понравятся.

ИИ — мощный инструмент, который уже меняет мир, но у него есть ограничения. Важно понимать, что нейросеть всегда действует по инструкции, выполняя порученную задачу на основании примеров, на которых она обучалась.

Это очень похоже на то, чем в стране заняты миллионы людей, работающих в сфере безопасности и контроля: силовики низового уровня, охранники, консьержи, контролеры, сотрудники всевозможных Роскомнадзоров и других регулирующих органов. Охрана, слежка, выписывание штрафов и оформления протоколов — занятия, требующие миллионов человеко-часов работы. В России этот класс людей продолжает расти, в том числе из-за инициатив государства, постоянно придумывающего, что еще нужно начать регулировать и как правильно отчитываться. Судя по всему, государство ценит этот ресурс и умеет использовать его в своих целях.

Фото: Сергей Бобылев / ТАСС

При этом работников в этой сфере стабильно не хватает. В пояснительной записке Минюст отмечает, что судебные приставы перегружены. Из-за того, что они, в том числе, охраняют здания судов, сотрудники работают по 16 часов в сутки. Всегда открыто множество вакансий участковых и патрульных, которые тоже жалуются на огромные объемы бумажной работы. Инициативы по регулированию упираются, в конечном счете, в физическую нехватку исполнителей.

Нейросети — способ увеличить этот ресурс на порядок при небольшом росте расходов и полном сохранении контроля. 

Всех действительно не пересажаешь, но точно можно всех обнаружить и в чем-то оперативно ограничить:

например, оштрафовать или заблокировать счета. Алгоритмы не боятся бумажной работы и способны заполнить протокол любой степени подробности.

Судя по всему, от распознавания лиц мы уже никуда не денемся — эти технологии внедряют во всем мире, независимо от государственного устройства (с этим тезисом можно спорить, например, в Калифорнии в 2019 году был принят первый закон, запрещающий госорганам использовать технологию распознавания лиц. Ред.). Наше лицо уже сейчас распознают собственный телефон, турникет в офисе, камера московского подъезда и множество других устройств, о которых мы можем даже не подозревать. Плюсов здесь достаточно много, и они могут отчасти компенсировать минусы. «Плати улыбкой», как формулируют в Китае.

Инициативы по определению дыма или оружия на фотографиях — в том же ряду. Обещают, что курильщиков будут ловить, в первую очередь, там, где это реально опасно (допустим, на заправках), а возражать против борьбы ИИ с массовыми убийцами в принципе сложно. Да, скорее всего, такая нейросеть будет стоить дорого, никогда не сработает, а даже если сработает — то ловить вооруженного террориста может быть поздновато. Но это точно доставляет меньше проблем и работает не хуже, чем еще одна рамка металлодетектора.

Больше вопросов вызывают идеи ФССП о передаче функций судебных приставов алгоритмам — в первую очередь, из-за масштабности и неконкретности задачи.

Дело в том, что 

настоящие проблемы начинаются тогда, когда нейросети используют для принятия решений, а не только для определения, что за человек на видео.

Например, в США и Европе алгоритмы уже используются для решений о досрочном освобождении и необходимости отмечаться в полиции. ИИ выбирает районы для патрулирования и предсказывает, кто из малолетних правонарушителей больше всего похож на уголовника. И это уже не говоря о привычных, но жизненно важных вещах: выдача виз, оформление кредитов, первичный отсев кандидатов в найме.

Любая достаточно сложная нейросеть — это черный ящик. Невозможно точно объяснить, почему именно вам не дали кредит, какие именно из сотен факторов оказались решающими и что теперь вам делать. Более того, у нейросетей возможны выбросы, когда очень похожие наборы данных дают разный результат: условно, одному из близнецов не дают визу, а второму дают. На больших объемах эти выбросы незаметны и компенсируют друг друга, но когда выброс коснулся именно вас и непонятно, что дальше делать, это может быть крайне болезненно.

Нейросети полностью зависят от данных, на которых они обучались. Когда они сталкиваются с чем-то новым или недостаточно представленным, они склонны к ошибкам. Частое проявление — системный расизм, связанный с тем, что ИИ технологических гигантов обучается на данных, где больше белых людей. В сравнительно безобидных случаях это приводит к тому, что людей с темной кожей чаще путают с другими или не отмечают на фото вообще. В случае алгоритмов, принимающих финансовые, кадровые или правоохранительные решения, системный расизм ведет к более тяжелым проблемам.

К тому же разработчики алгоритмов могут выбирать, какие именно факторы использовать при обучении. В августе 2020-го английские школьники протестовали возле местного министерства образования с криками «Пошел ты, алгоритм», когда новая система оценок начала учитывать исторические данные об успеваемости в их школе. Это привело к тому, что ученики известных частных школ получили больше высших баллов, чем обычно, а школьникам из бедных районов стало почти невозможно поступить в университет.

Наконец, умные алгоритмы тоже можно обмануть. Иногда это выглядит как шутка: программисты небольшой обработкой фотографии добиваются того, чтобы нейросеть определила кота как тостер. Иногда как мелкая хитрость: соискатели придумали добавлять в резюме целые абзацы про свои умения невидимым белым шрифтом, чтобы повысить свои шансы у алгоритмов отделов кадров. В целом, если вы определяете данные, попадающие в нейросеть (например, формируете какое-то досье человека), то можете довольно сильно управлять результатами на выходе.

Непрозрачность, склонность к предрассудкам, полная зависимость от процесса обучения и методов ввода данных — серьезные недостатки нейросетей, которые вызывают бурные дискуссии во всем мире. Нет уверенности в том, что для российского государства эти особенности ИИ выглядят как проблемы, а не как возможности.