что Хилари Клинтон – сатанистка[284]. Однако с тех пор он взял на себя больше ответственности за политические кампании. Как сообщали Алексис Мадригал и Иэн Богост, «компания поощряет рекламодателей передавать ей все бразды правления, что позволяет Facebook самостоятельно распределять средства на рекламу, аудитории, графики и бюджеты»[285]. Также он экспериментирует с содержанием и внешним оформлением рекламных объявлений. В какой-то момент ИИ не столько ищет аудиторию, сколько ее создает, и выступает не столько проводником послания, сколько его соавтором.
Во многих контекстах крупные технологические фирмы – это не только платформы, но также и публикаторы, не только посредники, но и медиа. Их собственные конструктивные решения означают, что резюме материалов, которые распространяются в Facebook, а также выдаются в мобильных приложениях и настольных версиях Google, стремятся выглядеть одинаково авторитетно, независимо от того, какой у них источник[286]. Соответственно, история из сфабрикованного издания Denver Guardian, в которой Хилари Клинтон безосновательно связывалась с самоубийством агента ФБР, может предстать столь же авторитетной, как и получившее Пулитцеровскую премию журналистское расследование, в котором подобные теории заговора разоблачались[287]. К тому же Facebook получает и более прямую прибыль от фейковых новостей: чем больше пользователи делятся какой-то историей (каковы бы ни были ее достоинства), тем больше рекламных прибылей она приносит[288]. К концу выборов 2016 г. фейковые новости в Facebook в этом плане превзошли по эффективности реальные новости[289]. Нам всем известно, что Facebook помог кампании Трампа сосредоточить свои силы на афроамериканской аудитории, чтобы подавить их голоса[290].
Пока рекламные деньги продолжали сыпаться, этика во всем этом играла вторичную роль. Директоров по безопасности в фирме игнорировали, даже когда они говорили топ-менеджерам, что государственные и негосударственные акторы занимаются на платформе злонамеренными манипуляциями[291]. Конечно, Facebook в этом был не одинок; безответственность маргинальных новостных источников (и нерадивость достойных медиаинститутов) ускорила рост популярности авторитарных лидеров, известных своей ксенофобией. Однако гиганты технической индустрии редко оказывались невинными попутчиками. Facebook крайне неохотно реагировал на вирусное содержание фейкового характера, вводящее в заблуждение[292]. Если Джеку Дорси из Twitter понадобилось шесть лет, чтобы остановить такого разоблачителя истории Сэнди Хук, как Алекс Джонс (агрессивно защищавшего сторонников теории заговора, которые изводили родителей убитых детей, заявляя, что родители сами подстроили резню), значит, что-то с сетью не так. Основная проблема – слепая вера в ИИ, стоящий за алгоритмическими лентами новостей, и вытекающее из этой веры уклонение от ответственности руководителей технологических компаний, которые могли бы приструнить смутьянов.
Технологические гиганты более не могут убедительно выдавать себя за платформы для чужого контента, особенно когда они наживаются на микротаргетировании рекламы, доносящем определенный контент до людей, на которых она более всего влияет[293]. Они должны взять на себя редакторскую ответственность, а это значит, что следует привлечь намного больше журналистов и фактологов, чтобы справиться с проблемами, которые алгоритмы решить не смогли[294]. Апологеты крупных технологических фирм заявляют, что несколько фирм не могут брать на себя подобную ответственность (или что это просто глупо). Они утверждают, что объем распространяемого контента просто-напросто слишком велик, чтобы им управлял какой-то человек или какая-то группа. Они продолжают раздраженно настаивать на том, что идеальное решение проблем платформ – это алгоритмы, а не человеческие знания и навыки. Этот аргумент игнорирует реальность постоянной алгоритмической и ручной настройки новостных потоков в таких сетях, как Facebook[295]. Любое устойчивое решение проблемы потребует сотрудничества журналистов и программистов.
Проблема уклонения больших технологических компаний от своих обязанностей собственника
После каждого крупного скандала большие технологические фирмы приносят извинения и обещают исправиться. Иногда они даже вкладывают деньги в более обширную модерацию контента или закрывают наиболее одиозные источники дезинформации и насилия. Однако каждый шаг к безопасности и ответственности на платформах может быть отменен из-за неспособности все время следить за проблемой, халатности и потенциальной прибыли, которая скрывается в привлекательном и красочном контенте. Этот цикл мы наблюдали в случае Google и антисемитизма. Хотя в 2004 г. поисковый гигант снабдил наконец специальными метками некоторые сайты с нацистским содержанием и издания расистов, позже он отступил, пока в 2016 г. к нему не обратились журналистка Кэрол Кадваладр и известный исследователь Сафия Умоя Нобле[296]. К 2018 г. многие заподозрили, что алгоритмическая «кроличья нора» была оптимизирована искусственным интеллектом так, чтобы завлекать ничего не подозревающих пользователей к контенту альт-правых или даже к более опасным источникам[297]. Пока ИИ управляет автоматической публичной сферой, нацеленной на получение прибыли, можно ожидать повторения той же схемы: приступ озабоченности, вызванный критикой в адрес медиа, после которого снова воцаряется безответственность.
Хотя подобное отступление не является неизбежным, такова ясная и актуальная опасность ИИ, для которого в основном важны лишь требования акционеров крупнейших фирм. Только масштаб может дать прибыли, которые нужны инвесторам, и только ИИ может управлять масштабом на его актуальном уровне. Как заметил Ивэн Оснос в своей статье о Марке Цукерберге, «между масштабом и безопасностью он выбрал масштаб»[298]. Дети, диссиденты, модераторы, владельцы взломанных аккаунтов и другие жертвы – все они ежедневно несут на себе бремя этого решения, переживая предсказуемые последствия гигантизма социальной сети. И если огромные банки стали слишком большими, чтобы обанкротиться, гигантские технологические фирмы слишком велики, чтобы подобные последствия их волновали.
Раньше электронной нянькой считалось телевидение, которое развлекало детей, чьи родители были слишком заняты или бедны, чтобы занять их чем-то более интересным. YouTube выдает миллионы различных мультфильмов, которые помогают родителю или няньке с клинической точностью найти именно то, что загипнотизирует кричащего младенца или уставшего ребенка. Но огромный запас видеоматериалов, которые доступны по одному клику, неимоверно усложняет задачу родительского контроля. Если какие-то нездоровые люди включали в мультипликационный контент инструкции о том, как совершить самоубийство, искусственный интеллект YouTube, ничего не понимающий в смысле ролика, ставил ему такой же рейтинг, что и совершенно невинным детским программам.
Обычный процесс модерации контента на YouTube в принципе со временем может улучшиться, научившись быстрее отлавливать видеоматериалы такого рода. Но некоторый контент, порождаемый алгоритмами, вызывает опасения другого уровня. Учитывая распространение в сети автоматических ремиксов, такие невинные мультипликационные герои, как свинка Пеппа, могут болтать в видео с друзьями, а потом размахивать ножами и ружьями в «сатирическом» ролике, который автоматически запускается сразу после настоящего. Художник Джеймс Бридл утверждает, что дело не ограничивается одной лишь благопристойностью. По его словам, в таких видео с Пеппой особенно пугает то, что «очевидные пародии и мрачные пастиши взаимодействуют с легионами