ходе которого эксперт пытается определить, является ли собеседник человеком или машиной. Если эксперт (или коллегия экспертов) не может отличить компьютер от человека, это означает, что компьютер прошел тест Тьюринга. Многие специалисты не считают тест Тьюринга эффективным критерием отчасти потому, что он оказался не защищенным от мошенничества. Например, в 2014 году на конкурсе, устроенном Редингским университетом в Великобритании, чат-бот, созданный 13-летним украинцем, обманул судей, объявивших этот алгоритм первым, прошедшим тест Тьюринга. Разговор, впрочем, длился каких-то пять минут, и практически никто из специалистов в области искусственного интеллекта не отнесся к этому заявлению серьезно.
Курцвейл тем не менее уверен, что намного более строгий вариант этого теста был бы надежным индикатором подлинного машинного интеллекта. В 2002 году он заключил пари на $20 000 с предпринимателем Митчем Капором. В пари оговаривается сложный комплекс правил, включая наличие судейской коллегии из трех человек и четырех конкурсантов — чат-бота на основе ИИ и троих людей[171]. Курцвейл выиграет пари лишь при условии, что к концу 2029 года большинство судей сочтет ИИ-систему человеком после двухчасового диалога с каждым из конкурсантов. Мне представляется, что прохождение этого теста было бы убедительным доказательством появления ИИ человеческого уровня.
Хотя Курцвейл известен как изобретатель, сейчас в нем видят прежде всего футуриста с довольно проработанной теорией долгосрочного ускорения технологического развития и набором экстравагантных, если не сказать завиральных идей о том, куда приведет этот прогресс. Говорят, он ежедневно принимает 100 или больше пищевых добавок в надежде продлить жизнь[172]. Более того, он верит, что уже достиг «второй космической скорости в обретении долголетия», иными словами, рассчитывает доживать до каждой следующей инновации в области медицины, продлевающей жизнь[173]. Делайте это бесконечно, избегая попадания под пресловутый автобус, — и вы достигнете бессмертия. Курцвейл сказал мне, что не пройдет и десяти лет, как любой из нас сможет позволить себе следовать этому плану. Он считает использование продвинутого искусственного интеллекта для высокоточного моделирования биохимических процессов важнейшей движущей силой прогресса. «Если бы мы смогли смоделировать биологические процессы, а в этом нет ничего невозможного, то сумели бы проводить клинические испытания за часы, а не за годы и генерировать собственные данные, как делаем это с беспилотными машинами, настольными играми или математикой», — сообщил он мне[174].
Подобные идеи, а особенно искренняя вера в возможность собственного бессмертия, превращают Курцвейла в объект для насмешек, и многие исследователи ИИ пренебрежительно относятся к его иерархической схеме создания универсального интеллекта. Однако из разговора с ним я вынес следующее: он и его идеи прочно утвердились в Google. После прихода в эту компанию в 2012 году он возглавляет команду, работающую над объединением его теории мозга с новейшими достижениями в глубоком обучении с целью создания продвинутой системы распознавания речи. Одним из первых результатов его работы является опция Smart Reply, способная давать готовые ответы в Gmail. Хотя это, по общему мнению, очень далеко от ИИ человеческого уровня, Курцвейл сохраняет веру в свою стратегию. Он сказал мне, что «люди используют этот иерархический подход» и что когда-нибудь его будет «достаточно для универсального ИИ»[175].
Свой путь к универсальному искусственному интеллекту выбрала OpenAI, исследовательская организация из Сан-Франциско, основанная в 2015 году при финансовой поддержке в том числе Илона Маска, Питера Тиля и сооснователя LinkedIn Рида Хоффмана. Изначально OpenAI создавалась как некоммерческая организация, объявившая своей миссией безопасный и этичный поиск универсального ИИ. Ее появление в определенной мере связано с обеспокоенностью Илона Маска тем, что сверхчеловеческий машинный интеллект может стать серьезной угрозой для человечества. С самого начала своей деятельности OpenAI привлекла к работе некоторых ведущих исследователей в этой сфере, включая Илью Суцкевера — члена команды Джеффа Хинтона в Торонтском университете, создавшей нейронную сеть, которая одержала триумфальную победу в состязании ImageNet в 2012 году.
В 2019 году Сэм Альтман, в то время отвечавший за самый статусный инкубатор стартапов в Кремниевой долине Y-Combinator, стал генеральным директором OpenAI и осуществил сложную юридическую перетасовку, в результате которой к первоначальной некоммерческой организации была присоединена коммерческая компания. Это было сделано с целью получения инвестиций от частного сектора, которые позволили бы OpenAI вкладывать огромные средства в вычислительные ресурсы и конкурировать за профессионалов в области ИИ. Этот маневр быстро окупился: в июле 2019 года Microsoft объявила, что вложит в новую компанию миллиард долларов.
В гонке за универсальным ИИ OpenAI является, пожалуй, лучше всего финансируемым конкурентом DeepMind, принадлежащей Google, хотя имеет намного более скромный штат. OpenAI, как и DeepMind, занимается разработкой мощных глубоких нейронных сетей с использованием обучения с подкреплением, и ее команде удалось создать системы, способные побеждать лучших игроков в таких видеоиграх, как Dota 2. Однако OpenAI фокусируется на построении все более масштабных глубоких нейронных сетей на все более мощных вычислительных платформах. Хотя многие в этой области предупреждают, что масштабирование как стратегия становится неустойчивым, OpenAI сохраняет глубокую приверженность этому подходу. Действительно, миллиардная инвестиция Microsoft будет предоставлена по большей части в форме вычислительной мощности, обеспечиваемой облачной платформой Azur этого технологического гиганта.
Следует признать, что установка OpenAI «чем больше, тем лучше», позволила компании многого достичь. Один из самых значимых, хотя и спорных, ее прорывов был связан с демонстрацией мощной системы обработки естественного языка GPT-2 в феврале 2019 года. GPT-2 состоит из «генеративной» нейронной сети, обученной на огромном массиве текстов, загруженных из интернета. Генеративная система фактически дает обратный выходной сигнал, то есть вместо того, чтобы идентифицировать или классифицировать данные — как при снабжении фотографий подписями, система создает совершенно новые примеры, сходные с данными, на которых она была обучена. Генеративные системы глубокого обучения — это технологический фундамент так называемых дипфейков — медийных подделок, которые очень трудно или даже невозможно отличить от реальности. Дипфейки — критически важный фактор риска, связанный с искусственным интеллектом, последствия которого мы рассмотрим в главе 8.
GPT-2, получив вводный фрагмент текста или даже одно-два предложения, создает целое повествование: фактически она подхватывает вводный фрагмент там, где он заканчивается, и довершает сюжет. GPT-2 произвела переполох среди исследователей ИИ и в еще большей степени в СМИ, поскольку повествование, создаваемое ею, в большинстве случаев отличается поразительной связностью. Оно настолько связное, что OpenAI перестала делиться кодом GPT-2 с остальными исследователями ИИ, как поступила и со своим предыдущим проектом, опасаясь злоупотреблений. Руководство OpenAI беспокоила возможность вброса в интернет вала фейковых новостей, сгенерированных системой GPT-2, или, скажем, сфабрикованных отзывов на товары онлайн-магазинов. Это решение вызвало критику в сообществе исследователей ИИ, ценящем свободный обмен идеями. Менее чем через год OpenAI изменила свою позицию