Как это работает

Большой брат проследит. Как алгоритмы прогнозируют преступления, жертвуя правами человека

Дарья Чернина 15 сентября 2021, 09:00

Допустим, у вас нет высшего образования и постоянной работы. Внезапно вы решили сменить место жительства. Если случайно окажетесь в районе, где произошло убийство, то станете потенциальным подозреваемым. Так работают технологии предсказания преступлений. А еще они напоминают сюжет «антиутопий», где безликая система решает, способен ли человек нарушить закон. 

Редакция Vector разобралась в популярных алгоритмах для прогнозирования преступлений в США, а также изучила, как с ними обстоят дела в Украине.

Мир Филипа Дика в современном обществе

В кулуарах полицейского участка Нью-Йорка живут трое бормочущих уродцев с огромными головами и атрофированными телами. Майк, Донна и Джерри — пророки из аналитического отдела полиции штата. Вокруг них кучится техника: приемники данных, анализаторы, компараторы и прочие компьютерные механизмы. Их цель — расшифровывать лепет умственно отсталых провидцев. Их язык непонятен человеку. При этом в любом из слов или даже слогов этих существ может крыться предвидение настоящего преступления.  

Отдел, занимающийся расшифровкой этой какофонии, называется Precrime. Он создан, чтобы выявлять и задерживать потенциальных злоумышленников — тех, кто только думал о преступлении. В этом аналитическом отделе работает главный герой рассказа Филипа Дика «Отчет меньшинства» Джон Андертон. В систему предсказаний преступлений офицер полиции верит незыблемо. Ведь согласно статистике, Precrime уменьшил количество тяжких преступлений в городе на 99,8%.

Рассказ Дика впервые опубликовали в 1956 году в журнале научной фантастики Fantastic Universe. В 2002 году Стивен Спилберг экранизировал историю о несовершенных преступлениях в ленте «Особое мнение».

А теперь перенесемся в 2013 год, в Остин, район в западной части Чикаго. В одном из небольших домов живет чернокожий 22-летний Роберт Макдэниел. Рано утром к нему постучались сотрудники полиции. Молодой мужчина с удивлением пригласил их в дом. Перешагнув порог, они сообщили Роберту, что он будет вскоре вовлечен в стрельбу. При этом полицейские не определили, в какой роли будет Макдэниел — стрелком или жертвой. 

Эта информация базировалась на алгоритме предсказания преступления, который использовали в полиции Чикаго. Вероятность, что Роберт вскоре пострадает, составляла 99,9%. Мужчина не знал, как реагировать на эту информацию. Его ничего не связывало с криминалом. Однажды Роберта оштрафовали за небольшое количество марихуаны, в другой раз — за игры в кости на улице. На этом список преступлений Роберта заканчивался. 

После этого визита за мужчиной практически все время наблюдали полицейские. Жители района начали подозревать, что Роберт в чем-то замешан.

Когда научно-фантастический сюжет стал реальностью

В 1994 году комиссар полиции Нью-Йорка Уильям Браттон решил реорганизовать работу на своем участке. У правоохранителей отсутствовали свежие базы данных, коммуникация между отделами была налажено слабо. Следствием этих проблем стал рост преступности в городе. 

Так, Браттон решил на своем участке создать и внедрить программу Compstat. Она работала на базе алгоритма, который анализировал статистику преступлений в определенной местности. Рапорты полицейских заносились в программу. В них — данные о самом преступлении, полная информация о жертвах, времени и месте. Алгоритм сравнивал информацию и мог установить связь между субъектами преступлений.

Результатом работы Compstat стала компьютерная карта Charts of the Future. Она иллюстрировала, где чаще всего происходили разборки в городе. Это помогло сфокусировать работу полиции в определенных микрорайонах, которые алгоритм считал потенциально опасными. Информация в Compstat обновлялась каждые пять недель. 

Спустя время проект показал результат. За три года общий уровень преступности по городу снизился на 27,44%, а убийств — на 38,66% (на 3000 жертв меньше, чем было с 1990 по 1993). Такие показатели заинтересовали другие штаты. Compstat стал важной частью работы правоохранительной системы США.

Уильям Браттон

PredPol: теория ограбления одного дома

В 2012 году появился стартап PredPol (Predictive Policing). Его создателями стали доктор антропологии Калифорнийского университета Джефф Брантингэм и математик Джордж Молер. До запуска стартапа ученые публиковали исследования территориальных инстинктов у членов бандитских группировок. 

Они легли в основу ПО для предотвращения преступлений — PredPol. Оно анализирует исторические данные о преступлениях в указанном районе. После чего выдает полиции данные о самых опасных точках, где вероятно может случиться преступление. Таким образом сотрудник полиции может визуализировать историю преступлений в определенном районе в масштабе трех, семи, 14 или 28 дней. 

В отличие от Compstat, PredPol использует машинное обучение. На выходе у программы также образовывается карта с квадратами в примерно 152 м². Каждому из них соответствует прогнозируемая вероятность преступлений. Если область отмечается красным, то она высокая, зеленым — низкая.

Модель PredPol включает три аспекта преступного поведения:

Стартап суммарно привлек $3,7 млн. В 2011 году PredPol внедрили в тестовом режиме в районе Лос-Анджелеса под названием Футхилл (Foothill). На территории примерно 100 км² проживают почти 200 000 человек. Большинство их них — выходцы из Латинской Америки и Мексики. Спустя время PredPol помог снизить количество квартирных краж в Лос-Анджелесе на 25%, а в Санта-Крузе (Калифорния) — на 19%.

Скріншот мапи PredPol

Palantir: секреты незаметной слежки 

Palantir — пожалуй, один из самых масштабных и секретных проектов по сбору и обработке данных. Компанию основали Питер Тиль, Джо Лонсдейл, Алекс Карп, Стивен Коэн и Натан Геттингс в 2003 году. Среди ее клиентов — Credit Suisse, JP Morgan Chase, Airbus, ЦРУ, ФБР и Минобороны США. В 2015 году Palantir запатентовал систему прогнозирования преступлений.

В использовании продукты Palantir похожи на базы данных. Например, журналисты Business Insider изучали террористические атаки в Багдаде. Так, они выяснили, что программа позволяет визуализировать на карте все атаки за определенный период. Также база содержит подробные данные про каждую из них. Плюс Palantir позволяет установить связь между людьми, причастными к тому или иному событию.

С момента создания Palantir был замешан минимум в двух громких скандалах. Например, в 2011 году в сеть утекла презентация стратегии и методов борьбы с Wikileaks. В том числе Palantir предлагал кибератаки и давление на журналистов, поддерживающих этот проект. После огласки в Palantir официально извинились перед всеми причастными.

Также в 2018 году The Verge рассказало, что полиция Нового Орлеана шесть лет использовала систему прогнозирования преступлений от Palantir. Таким образом правоохранители собирали сведения о жителях города без их ведома. В этом же году полиция Нового Орлеана отказалась от партнерства с Palantir.

SSL: Когда стратегическим объектом может стать каждый 

«Список стратегических объектов» (ССО) или Strategic Subjects List (SSL) — модель, ориентирована на обнаружение потенциальных преступников. Она стала результатом сотрудничества Чикагского отдела полиции и Иллинойского технологического института. 

Алгоритм SSL ставил акцент не на территориальном аспекте, а на человеческом. Он ранжирует людей по количеству нарушений и присваивает каждому от 0 до 500 баллов. Соответственно, 0 означает «низкий уровень риска» того, что человек будет вовлечен в инцидент со стрельбой как в роли преступника, так и жертвы.

Для этого SSL использует восемь атрибутов для ранжирования и оценки:

Также алгоритм анализирует наличие у потенциального преступника образования, связей с ранее судимыми людьми и частые смены места жительства.

Именно этот алгоритм внес 22-летнего Роберта Макдэниела в списки потенциально опасных людей. Всего в нем по состоянию на 2013 год было примерно 420 имен, к 2017 —  400 000. SSL финансировалось за счет федерального гранта — около $4 млн. Осенью 2019 году он закончился, и программа прекратила работу. 

Роберт Макдэниел. Фото: The Verge

В чем опасность подобных алгоритмов?

У современных превентивных алгоритмов много недоработок. Поэтому оказаться в списках потенциальных преступников может каждый. 

Риск увеличивается в случае с чернокожими, латиноамериканцами или мигрантами. Так как согласно вышеуказанным алгоритмам, такие люди чаще склонны к правонарушениям. По мнению американских правозащитников, это усиливает неравенство и дискриминацию в обществе. 

Директор правозащитной организации Electronic Frontier Foundation (EFF) Шахид Буттар считает, что предсказательные технологии неминуемо предвзяты.

«Если согнать в один район больше полиции, там найдут больше преступлений. Потом ИИ предскажет, что это очень криминогенное место», — говорит правозащитник.

По мнению профессора права юридического факультета Университета округа Колумбия Эндрю Фергюсона, эффективность подобных предиктивных систем все еще не доказана.

«На самом деле не было внешней проверки того, работает ли эта технология, что она вообще означает, с чем ее сравнивают. Не хватает также исследований и научных данных по этому поводу», — говорит преподаватель.

Как итог, подобные программы используются недобросовестными полицейскими для набивания статистики работы. Об этом еще в 2010 году заявил бывший офицер полиции Нью-Йорка Адриан Скулкрафт.

Используют ли методы предсказания преступлений в Украине?

На сегодняшний день в работе украинских правоохранителей используются специальные информационно-поисковые системы и базы данных. Они содержат огромный объем информации по объектам, которые служили вещественными доказательствами по уголовным производствами. Среди них: 

Ряд баз данных для нужд органов уголовной юстиции были созданы сотрудниками Научно-исследовательского института изучения проблем преступности имени академика В. В. Сташиса Национальной академии правовых наук Украины.

Например, один из таких проектов — «Профиль убийцы» (2016). Это база данных. В нее нужно ввести минимум четыре признака конкретного уголовного производства (пол и возраст жертвы, место и способ убийства). После этого программа автоматически формирует несколько версий относительно личности убийцы и мотивов совершенного преступления.

2 декабря 2020 года Кабинет министров утвердил Концепцию развития искусственного интеллекта в Украине. В ее рамках планируют внедрить до 2030 года ИИ в отрасли образования, науки, кибербезопасности, обороны и публичного управления. 

В документе также значится, что ИИ планируют подключать для «предотвращения общественно небезопасных явлений путем анализа явных данных». Также концепция предполагает создание «Этического кодекса ИИ» с учетом практики подобных систем в Европе и США.

Как будет работать подобных механизм в Украине и когда его внедрят — пока неизвестно. 

Читайте также

Что (не)так с Black Friday. Откуда пошла традиция и почему не стоит бояться больших скидок

Открыть бизнес за границей. Как получить средства на новое дело в ЕС

Как купить USDT через обменник. Подробная инструкция

TemplateMonster — 20 лет. История компании от маленькой вебстудии до маркетплейса из 175 000 продуктов

Международная IT-компания Astound Commerce набирает людей в команду. Кого именно ищут и почему вы захотите там работать

Сохранение позиций на рынке, йога онлайн, покупка Starlink. Как Govitall работает во время войны

Еще один «Дон Кихот». Как беларус создал приложение для высмеивания путинской пропаганды и почему это вызывает дежавю

Новые услуги и поддержка Украины. Как в FAVBET адаптировали работу и продукт военные реалии

30 докладов об IT и сбор средств на ВСУ. Что будет на международной IТ-конференции NIX MultiConf

Калиновый венок и символы войны. Morphy.vision создала AR-фильтр в рамках open call от Banda и Brave.ua