A trivial model: Abstract languages sharing a phonologyLet's start wit перевод - A trivial model: Abstract languages sharing a phonologyLet's start wit русский как сказать

A trivial model: Abstract languages

A trivial model: Abstract languages sharing a phonology
Let's start with a simplified case (we'll complicate it later). We will compare two unrelated languages A and B, each of which has 1,000 lexemes of the form CVC, and an identical semantics and phonology. That is, if there is a lexeme a in A with some meaning M, there will be a lexeme bp in B phonetically identical to a, and a lexeme bs with the same meaning as a.
What is the probability that bp is bs?-- that is, that there is a chance resemblance with a? It can be read off from the phonology of the typical root. Supposing there are 14 consonants and 5 vowels, it is 1/14 * 1/5 * 1/14, or 1 in 980. (This assumes that the vowels and consonants are equiprobable, which of course they are not.) For ease of calculation we'll round this to 1 in 1000.
Semantic and phonetic leeway
Proffered resemblances are rarely exact. There is always some phonetic and semantic leeway. Either can be seen as increasing the set of words in B we would consider as a match to a given word a in A.
For instance, suppose for each consonant we would accept a match with 3 related consonants, and for each vowel, 3 related vowels. Since we're assuming a CVC root structure, this gives 3*3*3 = 27 words in B which might match any given a.
And suppose for each word a we will accept 10 possible meanings for b. This applies to each of the 27 phonetic matches; so a can now match a pool of 27*10 = 270 lexemes. The probability that it does so is of course 270 in 1000, or .27. Every lexeme in A, in other words, has a better than 1 in 4 chance of having a random match in B!
How many chance resemblances are there now? The same formula can be used, with the revised estimate for p:
(1000! / (r! (1000-r!))) .27r .73(1000-r).
There is a significant probability for very high numbers of matches, so we must continue calculating for r well into the hundreds. The results can be summarized as follows:
p( up to 210 ) - negligible
p( 211 to 220 ) = .0002
p( 221 to 230 ) = .0020
p( 231 to 240 ) = .0148
p( 241 to 250 ) = .0647
p( 251 to 260 ) = .1686
p( 261 to 270 ) = .2661
p( 271 to 280 ) = .2571
p( 281 to 290 ) = .1536
p( 291 to 300 ) = .0573
p( 301 to 310 ) = .0134
p( 311 to 320 ) = .0020
p( over 320 ) - negligible
This looks a lot like a normal distribution, and in fact it is one, if np and n(1-p) are both over 5. (For typical lexicon sizes, the distribution will be normal if p > .01.) The 'expected case'-- the number of matches with the highest probability-- will be np; in the above case, 270, with a probability of .0284.
I will suggest refinements to this model below, but the basic features are in place: a probability for a single match; a calculation for number of expected matches; and an adjustment for phonetic and semantic leeway.
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
Тривиальные модель: абстрактные языки обмена фонологияДавайте начнем с упрощенный случай (мы будем усложнять его позже). Мы будем сравнивать два несвязанных языки A и B, каждый из которых имеет 1000 лексемы формы CVC и идентичные семантики и фонология. То есть, если лексема в A с некоторым значением M, будет существовать лексемы bp в B фонетически идентичны и лексемы bs с то же значение.Какова вероятность того, что bp bs?--то есть, что есть шанс сходство с? Это может быть прочитанным от фонологии типичных корня. Предположим, есть 14 согласных и гласных 5, это 1/14 * 1/5 * 1/14 или 1 в 980. (Это предполагает, что гласные и согласные завершился, который, конечно, они не являются). Для удобства расчета мы будем круглый это 1 в 1000.Семантической и фонетической дрейфПредложенную сходства редко точным. Всегда есть некоторые фонетические и семантические свободу. Либо можно рассматривать как расширение набора слов в B, мы бы рассматривать как совпадение для данного слова в а.Например предположим, что для каждого согласного мы согласимся матч с 3 смежных consonants и для каждой гласной, 3 связанных с гласных. Поскольку мы предполагаем CVC корневой структуры, это дает 3 * 3 * 3 = 27 слов в B, которые могут соответствовать любой заданной.И предположим, что для каждого слова мы будем принимать 10 возможных значений для b. Это относится к каждому из 27 фонетических матчей; Таким образом может теперь соответствуют пул 27 * 10 = 270 лексем. Вероятность того, что он делает это, конечно, 270 в 1000 или.27. Каждую лексему в A, иными словами, имеет более чем 1 в 4 шанс иметь случайный матч в B!Сколько шансов сходства там сейчас? Та же формула может использоваться с пересмотренной сметы p:(1000! / (r! (1000-r!))) .27r .73(1000-r).Существует значительный вероятность для очень большого количества матчей, поэтому мы должны продолжать вычисления для r и в сотни. Результаты можно обобщить следующим образом:p (до 210) - незначительной p (211-220) =.0002 p (221 до 230) =.0020 p (231 до 240) =.0148 p (241 до 250) =.0647 p (251 до 260) =.1686 p (261 до 270) =.2661 p (271 до 280) =.2571 p (281 до 290) =.1536 p (291-300) =.0573 p (301-310) =.0134 p (311 до 320) =.0020 p (свыше 320) - незначительной Это выглядит много, как нормальное распределение, и в самом деле, это один, если np и n(1-p) оба над 5. (Для размеров типичного лексикон, распределение будет нормально если p >.01.) «Ожидаемые дело»--количество совпадений с наибольшей вероятностью--будет НП; в описанном выше случае, 270, с вероятностью.0284.Я буду предлагать усовершенствования этой модели ниже, но основные черты в место: a вероятность для одного матча; расчет для количество ожидаемых матчей; и корректировка для семантической и фонетической свободу.
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
Простейшая модель: абстрактные языки разделяющих фонологию
Начнем с упрощенного случая (мы осложнит его позже). Мы сравним два несвязанных языки А и В, каждый из которых имеет 1000 лексем вида CVC, и идентичную семантику и фонологии. То есть, если есть лексема а в А с некоторым значением М, будет лексема п.о. B фонетически идентично, и лексемы бс с тем же значением, а.
Какова вероятность того, что ВР бс? - - то есть, что есть шанс сходство с? Он может быть считана из фонологии типичного корня. Предположив есть 14 согласных и 5 гласных, это 1/14 * 1/5 * 1/14, или 1 в 980. (Это предполагает , что гласные и согласные равновероятны, что, конечно , они не являются.) Для удобства расчет мы округлить это 1 в 1000.
семантических и фонетических Leeway
протянутую сходств редко бывают точными. Существует всегда некоторая фонетическая и семантическая свобода действий. Либо можно рассматривать как увеличение набора слов в B мы будем рассматривать в качестве соответствия к данному слову а в А.
Например, предположим , что для каждого согласного мы будем принимать матч с 3 -х связанных согласных звуков, а также для каждой гласной, 3 связанных гласные. Так как мы предполагаем корневую структуру CVC, это дает 3 * 3 * 3 = 27 слов в B , которые могли бы соответствовать любому дано.
И пусть для каждого слова а мы будем принимать 10 возможных значений для б. Это относится и к каждой из 27 фонетических совпадений; так что теперь может соответствовать пул 27 * 10 = 270 лексем. Вероятность того, что она делает это, конечно , 270 в 1000 году , или .27. Каждый лексема в А, другими словами, имеет более чем 1 в 4 шанс иметь случайный матч в B!
Сколько шансов сходств там сейчас? Та же формула может быть использована, с пересмотренной оценкой для р:
. (!! 1000 / (г (1000 г))) .27r .73 (1000 г)
Существует значительная вероятность того, для очень большого числа матчей , поэтому мы должны продолжать вычисления для г хорошо в сотни. Результаты могут быть суммированы следующим образом :
р (до 210) - ничтожна
р (211 до 220) = .0002
р (221 ​​230) = .0020
р (231 до 240) = .0148
р (241 250) = 0,0647
р (251 260) = 0,1686
р (261 270) = 0,2661
р (271 280) = 0,2571
р (281 290) = 0,1536
р (291 300) = 0,0573
р (301 до 310) = 0,0134
р (311 320) = 0,0020
р (более 320) - ничтожна
Это выглядит очень похоже на нормальное распределение, а на самом деле это одно, если нп и п (1-р) как по 5. (Для типичных размеров лексикона, распределение будет нормальным , если р> .01.) НАСТОЯЩЕЕ "ожидаемый случай" - количество матчей с наивысшим probability-- будет нп; . В приведенном выше случае, 270, с вероятностью .0284
я предложить уточнений к этой модели ниже, но основные черты на месте: вероятность для одной игре; расчет для ряда ожидаемых матчей; и корректив для фонетического и семантического свободу действий.
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: