заложенная в GDPR, серьезно ограничивает развитие систем на ИИ.
Если задуматься над этим вопросом в отрыве от контекста, большинство людей захотят вернуть себе права на распоряжение своими личными данными — и для этого у них есть GDPR и прочие нормативно-правовые акты. Но взглянем на проблему через призму функциональности ИИ-программ и приложений. Если отнять у них львиную долю данных, они заметно поглупеют либо вовсе перестанут работать.
В рассказе «Остров счастья» мы исходим из того, что, выплескивая воду (минимизируя риски, связанные с сохранением приватности), можно случайно выплеснуть и младенца (парализовать сервисы на ИИ). Вместо этого можно вывести технологии на более зрелый уровень, когда ИИ станет можно доверять, — тогда мы без опасений позволим ему хранить наши данные, однако сможем запрещать использовать их по его (ИИ) усмотрению.
Если бы этот «доверенный ИИ» знал о нас все, что известно Google, Facebook и Amazon и даже больше, наши возможности намного превысили бы функционал сегодняшних интернет-сервисов. Множество разрозненных хранилищ, где содержатся наши данные, сольются в гигантский информационный океан. Наш «доверенный ИИ» (назовем его Остров) узнает о нас все и сможет сам отвечать на запросы данных от третьих сторон.
Например, когда музыкальный сервис Spotify запросит наше местоположение, Остров оценит, насколько польза от пользования сервисом превышает риск предоставления ему доступа к нашим данным. Он будет исходить из информации о наших ценностях и предпочтениях, а также о компании, делающей запрос. А нас это избавит от надоедливых и непонятных всплывающих окон, где приходится что-то подтверждать.
Остров станет не только высокоэффективным ИИ-помощником, но и защитником наших данных и посредником при взаимодействии с любыми приложениями. Можно сказать, это будет новый социальный контракт в отношении личных данных.
КОМУ МОЖНО ДОВЕРИТЬ ХРАНЕНИЕ НАШИХ ДАННЫХ?
Как нам убедиться, что Острову можно доверить всю нашу информацию? Если вызывают подозрение даже Google и Facebook, что уж говорить об Острове! Он ведь соберет куда больше данных, чем они. Кроме того, основываясь на этой информации, можно с высокой точностью предугадывать наше внутреннее состояние и эмоции, даже когда мы стараемся их скрыть. Так что же нам делать?
Фундаментальная проблема заключается в том, что когда интересы владельца ИИ и его пользователей расходятся, последние оказываются в проигрыше. Мы видели это в предыдущих главах («Золотой слон», «Боги за масками», «Квантовый геноцид» и «Спаситель рабочих мест»); кроме того, мы читаем об этом везде, где пишут о Google и Facebook.
Корень проблемы в том, что ИИ, на котором работают эти корпорации, настроен на явную коммерческую выгоду — ведь это частные компании, их акции торгуются на фондовой бирже, поэтому они приоретизируют цели, которые не интересны пользователям. Просить эти компании поменять их приоритеты на наши интересы бессмысленно — их прибыли сразу обвалятся.
Желая «отдать ИИ в хорошие руки», нам нужно искать структуру, над которой не довлеет коммерческая выгода. Тогда она естественным образом, без сопротивления, поставит во главу угла наши интересы.
Что же это за организация, интересы которой совпадают с пользовательскими? В «Острове счастья» мы видим, возможно, идеализированный пример великодушной монархии в небольшом богатом государстве. В XXI веке такой образ может показаться архаичным, но прообразом правителя в этом рассказе стал Фридрих Великий, прусский король[147], который говорил: «Главное мое занятие — это <…> просвещать умы, взращивать нравственность и давать людям такое счастье, которое пристало человеческой природе и какое позволяют средства, имеющиеся в моем распоряжении».
Приверженец просвещенного абсолютизма, Фридрих Великий полагал, что в его власти улучшить жизни подданных. Щедрый монарх имеет большой кредит доверия от своего населения и должен быть смелым, чтобы провести серьезные реформы. В XVII и XVIII веках именно просвещенные монархи оказались ключевыми фигурами, благодаря которым наступила эпоха Просвещения.
Нам тоже необходима подходящая фигура — катализатор для появления мощного ИИ, собирающего массивы данных. И совсем уж не так невероятно, чтобы этой фигурой оказалась королевская династия с благотворительными склонностями. Я также прогнозирую, что в следующие 20 лет небольшие страны под управлением популярных в народе сильных лидеров станут наиболее вероятными кандидатами на внедрение революционных технологий.
Но можно представить себе и другие варианты. Как насчет современного цифрового сообщества единомышленников, готовых пожертвовать свои личные данные на благо всего общества? Остальные члены социума смогут убедиться, как защищены и насколько корректно используются эти данные.
Уже разрабатываются научные проекты, экспериментирующие с подобными механизмами — на уровне университетских сотрудников, персонала и студентов.
Другая возможность — разработка некоммерческого ИИ наподобие «Википедии» или Движения свободного программного обеспечения[148]. Наконец, кто-то может разработать децентрализованную блокчейн-сеть, которую не контролирует и на которую не может повлиять ни один человек либо организация (как на биткойн).
Хранение личных данных в распределенной сети сложнее реализовать, чем хранение биткойнов, но, возможно, и эту задачу со временем удастся решить.
Как бы там ни было, у каждой организации всех названных типов гораздо больше шансов соответствовать интересам пользователей, чем у компаний, чьи акции торгуются на бирже.
Постепенно могут появиться технологические решения, которые позволят усидеть на двух стульях — и получить мощный ИИ, и защитить личные данные даже от их владельца.
Решения в этом направлении ищет новая отрасль — «конфиденциальные вычисления». Например, федеративное обучение представляет собой основанную на ИИ методику, которая обучает его на множестве децентрализованных устройств, содержащих локальные образцы данных. По эффективности она приближается к централизованному обучению, но не дает видеть данные центральному владельцу ИИ.
Другой метод, известный как гомоморфное шифрование, кодирует информацию таким образом, что владелец ИИ не в состоянии ее расшифровать. ИИ обучается непосредственно на зашифрованных данных. Такой метод еще не работает в случае глубокого обучения, но можно ожидать новых прорывов и в этой области.
И наконец, доверенная среда исполнения (TEE) считывает зашифрованные и защищенные данные, а затем обрабатывает их для ИИ внутри процессора с гарантией того, что они не покидают его в незашифрованном виде… (Правда, существует риск, что компания-изготовитель оставит для себя лазейку.)
Разумеется, у каждой из описанных технологий имеются слабые места и проблемы реализации, мешающие развернуть полноценный ИИ с надежной защитой личных данных. Но в следующие двадцать лет внимание к информационной безопасности будет расти, и я предвижу существенный прогресс в применении конфиденциальных вычислений в деле сохранности персональных данных.
Как мы видим из рассказа, к 2041 году конфиденциальные вычисления еще не охватят весь мир, однако технологии уже достаточно разовьются, чтобы сюжет «Острова счастья» мог воплотиться в жизни.
Скептиков заверю: предлагаемые варианты — не панацея, а лишь возможные пути, которые, по моему мнению, нужно изучить параллельно с внедрением GDPR и другими методами. У населения