Читать интересную книгу Бог, человек, животное, машина. Технология, метафора и поиск смысла - Meghan O'Gieblyn

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 52 53 54 55 56 57 58 59 60 ... 67
а гипотеза о тактике рассуждений, которую он мог использовать). В некоторых случаях объяснения исходят от совершенно другой системы, обученной генерировать ответы, которые призваны убедительно объяснить в семантических терминах решения, принятые первоначальной машиной, в то время как на самом деле эти две системы совершенно автономны и не связаны между собой. Эти вводящие в заблуждение объяснения в конечном итоге просто вносят еще один слой непрозрачности. "Проблема усугубляется, - пишет критик Катрин Пассиг, - потому что даже существование отсутствия объяснения скрывается".

Однако в какой-то степени дебаты о технических объяснениях и их предполагаемой невозможности - это ловкий трюк, призванный отвлечь внимание от реальных препятствий на пути к прозрачности, которые носят юридический и экономический характер. Система КОМПАС, которая использовалась в деле Эрика Лумиса, жителя Висконсина, которому было отказано в праве знать, по каким критериям алгоритм определял его тюремный срок, на самом деле не была моделью "черного ящика"; она была разработана частной компанией и защищена правом собственности. Google, Amazon, Palantir и Facebook - многие компании, внедрившие технологии "черного ящика" в государственные системы, - естественно, не решаются раскрывать принцип работы своих программ даже в тех случаях, когда это возможно, чтобы конкуренты не получили доступ к их исследованиям. Учитывая, что эти машины теперь интегрируются в огромные системы, стремящиеся к прибыли, которые сами по себе непостижимы, существует все больше теневых границ между машинами, которые эзотеричны по своей природе, и теми, которые скрыты для защиты власть имущих. Нам не только не позволено знать информацию, которую эти системы имеют о нас, нам не позволено знать, почему нам не позволено знать.

Эта непрозрачность имеет еще более коварные последствия. Хотя эти технологии часто превозносят за их "нейтральность", этот покров безликой объективности делает учреждения, которые их используют, более неуязвимыми для обвинений в несправедливости. Как отмечает Ванг в книге "Карцеральный капитализм", многие полицейские департаменты взяли на вооружение предиктивные модели в качестве ответа на свой "кризис легитимности", видя в них решение проблемы широко распространенного общественного недоверия к полицейским, возникшего в результате многолетнего расового господства и произвольного применения силы. Предиктивная полиция позволяет полицейским провести ребрендинг "таким образом, чтобы подчеркнуть статистическую безликость и символически устранить самостоятельность отдельных сотрудников", - пишет Ванг, представляя таким образом деятельность полиции как "нейтральную, беспристрастную и рациональную". Но персонификация - необходимая часть морального возмущения. ACAB, аббревиатура, ставшая известной благодаря антиполицейским протестам, теряет свою риторическую силу, когда в ней нет субъекта. "Все полицейские базы данных - ублюдки" не имеет смысла, - пишет Ванг.

Когда дело доходит до данных, используемых для этих прогнозов, - информации, которую тихо выкачивают из нас компании, торгующие тем, что ученый Шошана Зубофф называет "поведенческими фьючерсами", - нас часто успокаивают напоминанием о том, что зеркало двустороннее. Успокаивающий бальзам "метаданных" заключается в том, что наша информация в равной степени анонимизирована и обезличена для тех, кто на ней наживается. Нам говорят, что никто не читает содержание ваших писем, а только то, с кем вы переписываетесь и как часто. Они не анализируют ваши разговоры, просто отмечают тон вашего голоса. Ваше имя, лицо и цвет кожи не отслеживаются, только почтовый индекс. Это, конечно, не из уважения к частной жизни, а скорее следствие философии самосознания, которая характеризует информационные технологии с первых дней кибернетики - представления о том, что человека можно описать исключительно в терминах шаблонов и вероятностей, без какой-либо заботы о внутреннем мире. Как отмечается в исследовании MIT, посвященном моделям человеческого поведения, невозможно определить "внутренние состояния человека", поэтому прогнозы должны опираться на "косвенный процесс оценки", глядя на различные внешние состояния, которые можно измерить и оценить количественно. Зубофф утверждает, что капитализм наблюдения часто ошибочно идентифицируется как форма тоталитаризма, который стремится переделать душу гражданина изнутри наружу. Но доктрина цифрового наблюдения не интересуется душой. В идеологии, которая не верит в мысли, не может быть "мыслепреступлений". "Ей все равно, во что вы верите. Ему все равно, что вы чувствуете", - говорит Зубофф об этой доктрине. "Ее не волнует, куда вы идете, что вы делаете или что читаете". Вернее, эти действия интересуют его только с точки зрения того, "что он может получить в качестве сырья, превратить в поведенческие данные и использовать в качестве прогнозов для своего рынка".

Эти метаданные - оболочка человеческого опыта - становятся частью петли обратной связи, которая затем активно изменяет реальное поведение. Поскольку прогностические модели опираются на прошлое поведение и решения - не только самого человека, но и других людей с теми же демографическими характеристиками, - люди оказываются запертыми в зеркале своего цифрового отражения, и этот процесс исследователь из Google Вячеслав Полонский называет "алгоритмическим детерминизмом". Алгоритмы правоохранительных органов, такие как PredPol, обозначающие красными рамками конкретные районы, где вероятно совершение преступлений, получают свои прогнозы на основе исторических данных о преступности, а это значит, что они часто направляют полицейских в те же самые бедные районы, которые они патрулировали, руководствуясь только своей интуицией. Разница в том, что теперь эти решения, подкрепленные авторитетом эмпирических данных, вызывают предубеждение подтверждения, чего не скажешь об интуиции. "Каково отношение или менталитет офицеров, которые патрулируют одну из коробок?" - спрашивает Ванг. спрашивает Ванг. "Ожидают ли они, входя в бокс, что наткнутся на совершаемые преступления? Как ожидание найти преступление может повлиять на то, что офицеры обнаружат на самом деле?" Офицеры, которые останавливают подозреваемого в таких местах, часто используют прогнозы программы для подтверждения "обоснованных подозрений". Другими словами, человек является подозреваемым, потому что алгоритм определил этот район как тот, где могут находиться подозреваемые.

 

Есть и более открытые и преднамеренные случаи, когда предсказание скатывается в модификацию поведения. После скандала с Cambridge Analytica в 2016 году, когда частная компания продала данные пользователей Facebook политическим кампаниям для размещения целевой рекламы, Марк Цукерберг возмущался, настаивая на том, что его компания стала жертвой "злоупотребления доверием", и скрывал тот факт, что платформа сама тайно манипулировала своими пользователями с 2010 года. На промежуточных выборах в том году и на президентских выборах 2012 года Facebook прикреплял стикеры "Я проголосовал" к определенному проценту домашних страниц пользователей в день выборов, а в некоторых случаях - список проголосовавших друзей человека - тактика, которая должна была использовать социальное давление, чтобы подтолкнуть пользователей к голосованию. То, что это считалось "экспериментом" (это утверждение подкреплялось тем фактом, что его результаты были опубликованы в журнале Nature), создавало впечатление, что компания просто делает прогнозы или проверяет гипотезы для какого-то будущего использования, тогда как на самом

1 ... 52 53 54 55 56 57 58 59 60 ... 67
На этом сайте Вы можете читать книги онлайн бесплатно русская версия Бог, человек, животное, машина. Технология, метафора и поиск смысла - Meghan O'Gieblyn.
Книги, аналогичгные Бог, человек, животное, машина. Технология, метафора и поиск смысла - Meghan O'Gieblyn

Оставить комментарий