самые передовые открытия специалистов по квантовому туннелированию и нанобиологии, развитие технологий все больше упирается в философские вопросы. То, что на данный момент справедливо в исследованиях полупроводников, оказывается неприемлемым в другом случае: ни в научном, ни в естественном, ни в моральном отношении. И если мы решим критически взглянуть на то, что подсказывают нам технологии, мы увидим, в чем ошиблись. Если присмотреться к данным, ошибка станет очевидна, но сами данные слишком часто используются как аргумент.
В статье 2008 года в журнале Wired вышла статья Криса Андерсона «Конец теории», в которой утверждалось, что из-за огромного объема данных, доступных современным исследователям, традиционные научные процессы устарели(5). Больше не нужно строить модели мира и проверять их на ограниченной выборке. Сегодня вычислительные кластеры из многих компьютеров могут обработать сложные массивы всеобъемлющих данных и выдать истину: «Если данных достаточно, то цифры говорят сами за себя». В качестве примера Андерсон привел алгоритмы перевода Google, которые даже без знания глубинных лингвистических структур могли установить соответствия между языками, основываясь на массиве уже переведенных текстов. Андерсон расширил этот подход на геномику, неврологию и физику, в которых ученые все чаще обращаются к обширным вычислениям, чтобы разобраться в больших объемах собранной информации о комплексных системах. В статье говорилось, что в век больших данных «корреляции достаточно, можно больше не искать модели».
В этом и заключается магия больших данных. Теперь необязательно знать или понимать все о предмете изучения, чтобы докопаться до истины, достаточно положиться на цифровую информацию. В смысле ошибка больших данных – логичное следствие научного редукционизма, согласно которому сложные системы можно понять, если разбить их на составляющие и изучить каждый из компонентов в отдельности. И такой редукционистский подход был бы оправдан, если бы действительно поспевал за нашим опытом, но практика показывает, что простого анализа недостаточно.
В фармакологии особенно очевидно, насколько научному методу вредит полная зависимость исследований от больших объемов данных. За последние шестьдесят лет, несмотря на огромный рост фармакологической отрасли и сопутствующие ему огромные инвестиции в разработку лекарств, скорость выпуска новых медикаментов фактически упала, если учитывать денежные суммы, потраченные на исследования; более того, она снижалась последовательно и ощутимо. С 1950 года количество одобренных новых лекарств на миллиард долларов США, потраченных на исследования и разработки, сокращается вдвое каждые девять лет. Тенденция к снижению настолько очевидна, что исследователи придумали для нее термин: закон Рума, то есть закон Мура наоборот(6).
Закон Рума свидетельствует о растущем беспокойстве в научном сообществе по поводу того, что с исследованиями что-то не в порядке. Снижается не только количество новых открытий, но и полученные результаты становятся менее надежными из-за комбинации различных механизмов.
Одним из показателей научного прогресса является соотношение количества статей, публикуемых в научных журналах, и количества ретракций, то есть отзывов статей по инициативе автора или редакции. Еженедельно выходят десятки тысяч научных статей, из которых отзывается лишь небольшая часть, но даже это меньшинство вызывает глубокую озабоченность у научного сообщества(7). Проведенное в 2011 году исследование показало, что за предыдущее десятилетие количество отзывов статей увеличилось в десять раз, и это открытие пробудило интерес к дальнейшему изучению данной проблемы, чтобы выяснить причины такого роста(8). Результаты поразили: обнаружилась устойчивая корреляция между индексом ретракции журнала (процентом отозванных статей) и его импакт-фактором (численным показателем цитируемости журнала); то есть статьи, опубликованные в журналах с более высоким рейтингом, отзывались значительно чаще статей, опубликованных в менее авторитетных журналах.
Дальнейшее исследование показало, что более двух третей отзывов статей в медико-биологической сфере произошло из-за нарушений и неэтичного поведения со стороны исследователей, а не из-за ошибок в тексте публикации. Авторы отмечают, что полученные данные могут быть весьма заниженными, так как о случаях мошенничества в науке часто умалчивают(9). Ярким тому подтверждением служит опрос, согласно которому только 2 процента ученых признались в том, что фальсифицировали данные, при этом 14 процентов утверждали, что знали о таких случаях среди коллег(10). Более того, увеличилось процентное соотношение статей, нарушающих научную этику, ко всем отозванным статьям(11). Многих ученых это шокировало, поскольку отзыв статьи считался проявлением добросовестности автора, поправляющего закравшуюся ошибку. Что еще хуже, невозможность отозвать все заслуживающие этого статьи портит научный климат в целом, отчего в дальнейшем наука все дальше уходит от того, какой должна быть.
Известно о нескольких случаях мошенничества, которое долгое время совершали крупные ученые. В конце 1990-х годов Хван У Сок, биотехнолог из Южной Кореи, стал известен как «гордость Кореи» за свои научные заслуги. Он был одним из первых в мире, кому удалось клонировать коров и свиней. Несмотря на то, что Хван У Сок так и не представил научно достоверных, верифицируемых данных, он часто фотографировался с известными людьми, например с политиками, и стал предметом гордости Южной Кореи, подняв самооценку целой нации. Мир радостно принял новость об успехе Хван У Сока в клонировании эмбриональных стволовых клеток человека, что ранее считалось невозможным. А позднее, в 2004 году, его обвинили в том, что он вынуждал работавших с ним исследователей становиться донорами клеток. Тем не менее, эти обвинения не помешали журналу Time назвать его одним из людей года. В заметке говорилось, что он «уже доказал, что клонирование человека не научная фантастика, а свершившийся факт»(12). Последовавшим расследованиям этики открыто мешали политики, патриотически настроенные газеты и даже местные активисты, а больше тысячи женщин выразили готовность стать донорами яйцеклеток во благо науки. Однако в 2006 году стало известно, что Хван У Сок полностью подделал свое исследование. Публикации были отозваны, а сам он приговорен к двум годам тюрьмы условно.
В 2011 году Дидерик Стапел, декан Школы социальных и поведенческих наук Тилбургского университета, был вынужден уйти в отставку, после того как выяснилось, что он сфабриковал результаты почти всех своих исследований, а также работ своих студентов. Как и Хван, у себя на родине Стапел был настоящей знаменитостью, и голландцы гордились его публикациями. Например, в 2011 году он опубликовал работу, в которой исследовал центральный вокзал города Утрехт и обнаружил, что люди чаще проявляли расизм, если вокруг было грязно. В другой работе он заявлял, что мясная диета делала людей эгоистичнее и асоциальнее(13). Оба исследования основывались на выдуманных данных. Когда мошенничество было раскрыто, Стапел попытался оправдать свои поступки страхом неудачи и давлением академической среды, из-за которых ученые вынуждены публиковаться часто и при этом делать важные открытия, просто чтобы сохранить свой статус.
Случаи с Хваном и Стапелом, хотя и представляют собой исключения, наглядно показывают, почему статьи чаще отзываются из серьезных и авторитетных научных журналов