нам учиться. Но пластичность машины гораздо выше. Она способна полностью перестроить свои методы работы – для этого достаточно изменить одну или несколько программ. Таким образом, компьютер может эмулировать мозг, но не наоборот.
Когда фон Нейман сравнил производительность параллельной организации мозга с (немногими) вычислительными машинами своего времени, стало ясно, что в этом отношении мозг во много раз превосходит машины 1950-х годов. Лишь недавно появились первые суперкомпьютеры, быстродействие которых более или менее сопоставимо с некоторыми консервативными оценками скорости, необходимой для функциональной имитации работы человеческого мозга (около 1016 операций в секунду). Полагаю, в начале 2020-х годов оборудование для такого уровня вычислений будет стоить 1000 долларов США. Хотя лекции написаны фон Нейманом на заре компьютерной эры, он не сомневался: рано или поздно мы создадим как техническое, так и программное обеспечение, которое позволит имитировать человеческий интеллект. Именно поэтому он и подготовил эту рукопись.
Фон Нейман в полной мере осознавал темпы прогресса и его значение для будущего человечества, что подводит нас к пятой ключевой идее информационной эры. Спустя год после смерти фон Неймана в 1957 году его коллега, математик Стэн Улам, напомнил нам следующие его слова: «Непрерывно ускоряющийся технический прогресс и перемены в образе жизни людей создают впечатление приближения к некой важной сингулярности в истории человечества, за которой все человеческие дела в том виде, в каком мы их знаем, не смогут продолжаться». Это первый известный случай употребления слова «сингулярность» в контексте человеческой истории.
Рэй Курцвейл
Предисловие ко второму изданию
Эта тоненькая книжка на первый взгляд выглядит весьма невинно, но на самом деле она находится в самом центре громадного урагана – на небольшом островке ясности и спокойствия, вокруг которого бушуют вихри конкурирующих теорий и исследовательских программ. Она тем более примечательна, что была написана в 1956 году, в самом начале бурного развития компьютерных технологий, определившего вторую половину XX века. В своей последней серии лекций, опубликованных в данной книге, Джон фон Нейман пытался дать объективную оценку механизмам работы мозга, рассматриваемым, с одной стороны, сквозь призму современной теории машинных вычислений, а с другой – в свете компьютерных технологий и эмпирической нейронауки в том виде, в каком они существовали в тот период.
Можно было бы ожидать, что любая оценка, сделанная в то время, теперь должна безнадежно устареть. Однако в действительности все наоборот. Что касается чистой вычислительной теории (теории генерации элементов любой вычислимой функции), основы, заложенные Уильямом Черчем, Аланом Тьюрингом и, в известной степени, самим фон Нейманом, оказались не только в высшей степени прочными, но и весьма полезными в решении широкого круга проблем.
Что касается компьютерных технологий, то все современные машины, которые теперь стоят в каждом офисе и в каждом втором доме в Америке, построены на так называемой архитектуре фон Неймана. Все они – примеры функциональной организации, предложенной и исследованной фон Нейманом. В основе этой организации лежит последовательная «программа», которая хранится в модифицируемой «памяти» машины и определяет природу и порядок основных шагов, выполняемых «центральным процессором» в ходе вычислений. В настоящей работе фон Нейман предлагает краткое, но четкое обоснование такой организации, хотя он говорит о «коде», тогда как сейчас мы говорим о «программах»; он говорит о «полных кодах» и «сокращенных кодах», а мы – о «программах на машинном языке» и «языках программирования высокого уровня». Но изменились только слова и частота тактовых импульсов. Джон фон Нейман узнал бы свою архитектуру в любой машине, существующей сегодня, – от органайзеров Palm Pilot,[5] играющих в покер, до суперкомпьютеров, моделирующих процессы образования галактик.
Ситуация, сложившаяся вокруг эмпирической нейронауки, сложнее, но вместе с тем гораздо интереснее. Прежде всего необходимо сказать, что в некоторых нейронауках (нейроанатомии, нейрофизиологии, возрастной нейробиологии и когнитивной нейробиологии) достигнут значительный прогресс. И здесь кропотливые исследования длиной в полвека породили совершенно новую науку. Благодаря новейшим экспериментальным методам (таким, как электронная и конфокальная микроскопия, фиксация потенциала, электро– и магнитоэнцефалография, компьютерная томография, позитронно-эмиссионная томография и магнитно-резонансная томография) сегодня мы имеем гораздо лучшее представление о волокнистой микроструктуре мозга, электрохимическом поведении его микроскопических частей и общих механизмах его функционирования при различных видах познавательной деятельности. Несмотря на то что мозг по-прежнему хранит много тайн, он уже не является «черным ящиком», каковым представлялся когда-то.
Как ни странно, начиная с 1950-х годов и вплоть до настоящего времени эти две родственные науки, одна из которых посвящена изучению искусственных, а другая – естественных когнитивных процессов, развивались в отрыве друг от друга. Люди, получавшие ученые степени в области информатики, как правило, мало знали о биологическом мозге (а многие – вообще ничего). Поскольку подавляющее большинство исследований в области информатики были ориентированы на написание программ, разработку новых языков или усовершенствование микросхем, глубоких познаний в сфере эмпирических нейронаук не требовалось. Аналогичным образом специалисты по нейронаукам практически ничего не знали о теории машинных вычислений, теории автоматов, формальной логике, двоичной арифметике или электронике транзисторов. Бо́льшую часть своего рабочего времени эти ученые тратили на окрашивание образцов мозговой ткани для последующего микроскопического исследования или на вживление в мозг микроэлектродов для анализа электрического поведения нейронов во время выполнения различного рода познавательных задач. Если они и прибегали к помощи машин, то использовали их в качестве инструмента для упорядочивания результатов экспериментов – то есть так, как используют вольтметр, калькулятор или картотечный шкаф.
Хотя в каждой из этих наук еще предстоит открыть много нового, ни одна не внесла сколь-нибудь существенного вклада в изучение предмета другой. Несмотря на кажущееся совпадение – исследование когнитивных и вычислительных процессов, – они развивались параллельно; каждая добилась потрясающих успехов самостоятельно, без всякой помощи со стороны «сестры». Но почему?
Пожалуй, самый частый ответ, который можно услышать, заключается в том, что по своей физической организации и вычислительной стратегии биологический мозг очень отличается от архитектуры фон Неймана, используемой в стандартных вычислительных машинах. В течение почти пятидесяти лет две сестринские науки фактически занимались изучением принципиально разных предметов. А потому и неудивительно, что они развивались в значительной независимости друг от друга.
Вышеупомянутый ответ по-прежнему остается спорным и в дальнейшем вполне может оказаться ошибочным. Однако он лежит в основе текущих дискуссий о том, каким именно образом биологический мозг творит свои многочисленные познавательные чудеса и как лучше всего подходить к конструированию различных форм искусственного интеллекта. Должны ли мы проигнорировать очевидные ограничения биологических систем (ограничения, в основном касающиеся скорости и надежности) и сосредоточиться на ослепительном потенциале электронных систем – систем, которые даже с архитектурой фон Неймана могут выполнять или симулировать любые вычислительные операции? Или вместо этого лучше имитировать организацию, свойственную мозгу насекомых,