Полиция США использует ИИ для предсказания преступности, который может усиливать дискриминацию
Алгоритм предлагает усиленное наблюдение за чернокожими и латиноамериканцами, живущими в бедных районах.
AP
Использование искусственного интеллекта правоохранительными органами тревожит американских социологов и криминалистов: они ссылаются на долгую историю таких технологий, которые особое внимание уделяют чернокожими и латиноамериканцами, пишет The Washington Post. При этом полицейские могут не брать в расчёт тот факт, что способность алгоритма предсказывать преступления ограничена.
В конце июня группа ученых из Чикагского университета представила алгоритм, который может предсказывать преступления с «90-процентной точностью». Система определяет места в крупных городах, которые, по её расчетам, имеют высокую вероятность совершения преступлений в перспективе следующей недели. ИИ протестировали в разных районах восьми крупных городов США, включая Чикаго, Лос-Анджелес и Филадельфию.
Для прогнозирования система использует данные о ранее совершённых преступлениях. А значит, работа алгоритма напрямую зависит от качества загруженных в него данных.
Проблема в том, что, по словам социолога Винсента Саутерленда, исторически сложилось так, что полицейские данные в США предвзяты. Правоохранители чаще арестовывают или обвиняют кого-то в преступлении в районах с низким доходом, где живёт много чернокожих и латиноамериканцев.
Это означает, что в большинстве наборов данных о преступной деятельности чрезмерно представлены расовые меньшинства, живущие в гетто. Подача этих данных в алгоритм приводит к предположению, что в этих областях происходит больше преступлений. Получается так называемая «петля обратной связи», которая имеет расовую и социально-экономическую предвзятость.
В 2019 году полицейское управление Лос-Анджелеса приостановило программу прогнозирования преступности LASER, которая использовала исторические данные о преступлениях для прогнозирования «горячих точек» преступности и ПО Palantir для присвоения людям оценок криминального риска. Тогда внутренний аудит показал, что это привело к тому, что полиция несправедливо стала больше подозревать чернокожих и латиноамериканцев.
В Чикаго полиция использовала прогностическое ПО, чтобы составить список людей, которые с наибольшей вероятностью могут быть причастны к насильственным преступлениям. Последующее расследование Chicago Sun-Times показало, что программное обеспечение включало в список каждого человека, которого арестовывали или у которого снимали отпечатки пальцев в Чикаго с 2013 года. Программа была свернута в 2020 году.
В попытках ограничить предвзятость создатели алгоритмов отсекают часть набора данных. Например, создатели нового алгоритма из Чикаго опустили данные о мелких правонарушениях, поскольку в них чаще фигурируют цветные и малообеспеченные граждане. Вместо этого они предоставили алгоритму данные об убийствах, нападениях, избиениях, кражах со взломом и угонах автомобилей.
Однако, по данным The Washington Post, учёные в области уголовного правосудия и полицейские эксперты отмечают, что даже если алгоритм точен, правоохранительные органы всё равно могут использовать его для необоснованного наблюдения за цветными людьми, живущими в более бедных районах.
#искуственныйинтеллект #сша