2.4.8. УСЛОВНЫЕ ВЕРОЯТНОСТИ ПОЯВЛЕНИЯ
Как мы видели, появление отдельной единицы (звука или буквы, единицы выражения, слова и т. п.) может быть полностью или частично детерминировано контекстом. Теперь мы должны внести ясность в понятие контекстуальной детерминированности (или обусловленности) и вывести те импликации, которые оно имеет для лингвистической теории. Для простоты мы сначала ограничим свое внимание рассмотрением контекстуальной детерминированности, действующей в пределах синтагматически связанных единиц одного уровня языковой структуры; другими словами, мы в данный момент пренебрежем тем очень важным моментом, что комплексы единиц низшего уровня реализуют единицы высшего уровня, которые сами имеют контекстуально детерминированные вероятности.
Мы будем употреблять символы х и у как переменные, каждая из которых обозначает отдельную единицу или синтагматически связанную группу единиц; кроме того, мы допустим, что х и у сами находятся в синтагматической связи. (Например, на уровне единиц выражения х может обозначать /b/ или /b/ + /i/, а у — /t/ или /i/ + /t/; на уровне слов х может обозначать men 'мужчины' или old 'старые' + men, а у — sing 'петь' или sing + beautifully 'прекрасно'.) Как х, так и у имеют среднюю a priori вероятность появления — рх и ру соответственно. Подобным образом сочетание х + у имеет среднюю вероятность появления, которую мы обозначим как pху.
В предельном случае статистической независимости между х и у вероятность сочетания х + у будет равна произведению вероятностей х и у: рху = рх × ру. Этот фундаментальный принцип теории вероятности можно проиллюстрировать посредством простого числового примера. Рассмотрим числа от 10 до 39 (включительно) и обозначим через х и у цифры 2 и 7 в первой и второй позиции их десятичного представления: сочетание x и у будет, таким образом, обозначать число 27. В пределах рассматриваемого ряда чисел (исходя из предположения, что все 30 чисел равновероятны) рх = 1/3 и py = 1/10. Если бы мы «задумали число между 10 и 39» и попросили бы кого-нибудь отгадать задуманное число, его шанс угадать правильно (без помощи другой информации) был бы один из тридцати: рхy = 1/30. Но допустим, что мы сказали ему, что это число кратно 3. Ясно, что его шанс правильно отгадать вырастает до 1/10. С нашей точки зрения, более существенно (поскольку мы рассматриваем вероятность появления одного знака в контексте другого) то, что выбор одного из двух знаков не является больше статистически независимым от выбора другого. Вероятность у, если дано, что х = 2, равна 1/3, поскольку только три числа кратны 3 в данном ряду (21, 24, 27); а вероятность x, если дано, что у = 7, равна 1, поскольку только одно число в пределах данного ряда оканчивается на 7 и кратно 3. Можно обозначить эти равенства как py (x) = 1/3 и рх (у) = 1. Условная вероятность появления у в контексте х равна 1/3, а условная вероятность х при данном у равна 1. (Два выражения «в контексте» и «при данном» следует понимать как эквивалентные; оба употребительны в работах по статистической лингвистике.) Обобщая этот пример: если рх (у) = рх (то есть если вероятность х в контексте у равна его априорной, необусловленной, вероятности), то х является статистически независимым от у; если же вероятность появления х увеличивается или уменьшается с появлением у, то есть если рх (у) > рх или рх (у) > рх, то х «положительно» или «отрицательно» обусловлен у. Крайним случаем «положительной» обусловленности является, конечно, полная избыточность при рх (у) = 1 (у предполагает х), а крайним случаем «отрицательной» обусловленности — «невозможность», то есть рх (у) = 0 (у исключает х). Важно иметь в виду, что контекстуальная обусловленность может быть и «положительной» и «отрицательной» (в том смысле, в каком эти термины здесь употребляются), а также что вероятность х при данном у не всегда, а точнее, лишь в редких случаях, равна вероятности у при данном х.
Необходимым условием того, чтобы результаты какого бы то ни было статистического исследования представляли интерес для лингвистики, является разграничение между различными видами обусловленности. Как мы видели выше, синтагматические отношения могут быть линейными или нелинейными; поэтому и обусловленность может быть линейной или нелинейной. Если х и у линейно связаны, то при любой рх (у) мы имеем дело с прогрессивной обусловленностью в тех случаях, когда у предшествует х, и с регрессивной в тех случаях, когда у следует за х. Независимо от того, является ли обусловленность прогрессивной или регрессивной, х и у могут непосредственно соседствовать (находиться рядом в линейно упорядоченном синтагматическом комплексе); в этом случае, если х обусловлен у, мы говорим о переходной (transitional) обусловленности. Многие популярные описания статистической структуры языка склонны изображать дело так, будто условные вероятности, действующие на всех уровнях языковой структуры, непременно предполагают линейную, переходную и прогрессивную обусловленность. Это, разуме ется, не так. Например, условная вероятность появления определенного существительного в качестве субъекта или объекта при определенном глаголе в латыни не зависит от относительного порядка, с каким слова встречаются во временной последовательности (ср. § 2.3.5); употребление префиксов un- и in- в английском языке (в таких словах, как unchanging 'неизменный' и invariable 'неизменный') регрессивно обусловлено; возможность появления определенной единицы выражения в начале слова может быть «положительно» или «отрицательно» обусловлена наличием некоторой единицы выражения в конце слова (или наоборот) и т. д.
Конечно, в принципе можно подсчитать условную вероятность любой единицы относительно любого контекста. Существенно, однако, правильно выбрать контекст и направление обусловленности (то есть, скажем, подсчитывать рх (у), а не рy (x)) в свете того, что уже известно об общей синтагматической структуре языка. (Определенный класс единиц X может предполагать или допускать появление единиц другого, синтагматически связанного с ним класса Y на определенном по отношению к нему месте (и может также исключать возможность появления единиц третьего класса Z). При условии, что это так, можно подсчитать условную вероятность отдельного члена класса Y). Результаты будут иметь статистический интерес тогда, и только тогда, когда рх (у) или рy (x) будут существенно отличаться от рх и рy.
2.4.9. ПОЗИЦИОННЫЕ ВЕРОЯТНОСТИ АНГЛИЙСКИХ СОГЛАСНЫХ *
Вероятности можно также подсчитывать для отдельных структурных позиций. Например, в таблице 4 для каждого из 12 согласных устной английской речи приводятся 3 ряда вероятностей: (i) априорная вероятность, средняя для всех позиций; (ii) вероятность в позиции начала слова перед гласными; (iii) вероятность в позиции конца слова после гласных.
Таблица 4
Вероятности некоторых английских согласных в различных позициях в слове
«Абсолютная» Начальная Конечная [t] 0,070 0,072 0,105 [n] 0,063 0,042 0,127 [l] 0,052 0,034 0,034 [d] 0,030 0,037 0,039 [h] 0,026 0,065 - [m] 0,026 0,058 0,036 [k] 0,025 0,046 0,014 [v] 0,019 0,010 0,048 [f] 0,017 0,044 0,010 [b] 0,016 0,061 0,0005 [p] 0,016 0,020 0,008 [g] 0,015 0,027 0,002
Можно заметить существенные различия частотностей отдельных согласных в разных позициях в слове. Например, из перечисленных единиц [v] — наименее частая в позиции начала слова, но третья по частотности в позиции конца слова; с другой стороны, [b] — третья по частотности единица в начальной позиции слова, но наименее частая в позиции конца слова (за исключением [h], который вообще не встречается на конце. NB: мы говорим о звуках, а не буквах). Другие (как [t]) имеют высокую вероятность или (как [g] и [р]) низкую вероятность для обеих позиций. Также заметим, что диапазон колебаний между наивысшей и наименьшей вероятностью больше для конца слова, чем для начала. Факты этого рода получают отражение в описании статистической структуры фонологических слов английского языка.