Once points belonging to different clusters are merged, the situation  перевод - Once points belonging to different clusters are merged, the situation  русский как сказать

Once points belonging to different

Once points belonging to different clusters are merged, the situation gets progressively worse as the clustering progresses. What typically happens is a rip­ple effect - as the cluster size grows, the number of at­tributes appearing in the mean go up, and their value in the mean decreases. This makes it very difficult to distinguish the difference between two points that differ on few attributes, or two points that differ on ev­ery attribute by small amounts. A detailed description with an example of the ripple effect in centroid-based hierarchical algorithms is provided in (GRS97].
Set theoretic similarity measures such as the Jaccard coefficient? (JD88] have often been used, instead of eu­clidean distance, for document clustering. With the J accard coefficient as the distance measure between clusters, centroid-based hierarchical clustering schemes cannot be used since the similarity measure is non­metric, and defined for only points in the cluster and not for its centroid. Thus, we have to use either the minimum spanning tree (MST) hierarchical clustering algorithm or hierarchical clustering with group aver­age [JD88]. The MST algorithm merges, at each step, the pair of clusters containing the most similar pair of points while the group average algorithm merges the ones for which the average similarity between pairs of points in the clusters is the highest. The MST algo­rithm is known to be very sensitive to outliers while the group average algorithm has a tendency to split large clusters (since, as mentioned earlier, the average similarity between two subclusters of a large cluster is small). Furthermore, the Jaccard coefficient is a mea­sure of the similarity between only the two points in question - it thus, does not reflect the properties of the neighborhood of the points. Consequently, the Jac­card coefficient fails to capture the natural clustering of "not so well-separated" data sets with categorical attributes and this is illustrated further in the follow­ing example.
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
После того, как объединяются точек, принадлежащих к различным кластерам, ситуация постепенно становится хуже в процессе кластеризации. Обычно происходит эффект ряби - как размер кластера растет, количество атрибутов, входящих в означает идти вверх, и их значение в среднем уменьшается. Это делает его очень трудно отличить разницу между двумя точками, которые отличаются по несколько атрибутов, или две точки, которые отличаются на каждый атрибут в небольших количествах. Подробное описание с примерами волновой эффект в основе центроид иерархические алгоритмы приводится в (GRS97]. Установите теоретические сходства таких мер, как коэффициент Jaccard? (JD88] часто используются, вместо евклидово расстояние, для кластеризации документов. С коэффициентом accard J как мера расстояния между кластерами центроида схемах иерархической кластеризации нельзя использовать так как мера сходства неметрического и определены для только точек в кластере и не его центр тяжести. Таким образом мы должны использовать минимальный алгоритм связующего дерева (MST) иерархической кластеризации или иерархическая кластеризация с средней группы [JD88]. MST алгоритм слияния, на каждом шаге, пара кластеров, содержащих наиболее аналогичные пары точек во время алгоритм средняя группа объединяет те, для которых средний сходство между парами точек в кластерах является самым высоким. Чтобы быть очень чувствительны к выбросам, в то время как группа среднее алгоритм имеет тенденцию для разбиения больших кластеров (с тех пор, как упоминалось ранее, средняя сходство между двумя подгруппам большого кластера малых) известен алгоритм MST. Кроме того коэффициент жаккарда является мерой сходства между только две точки в вопросе - таким образом, не отражает свойства окрестности точки. Следовательно, Jaccard коэффициент не удается захватить природные кластеризации "не так хорошо разделенных" наборов данных с атрибутами, категорический и это показано в следующем примере.
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
После того, как точки, принадлежащие разным кластерам будут объединены, ситуация становится все хуже и хуже, как прогрессирует кластеризации. Что обычно происходит, является волновой эффект - в размер кластера растет, количество атрибутов, появляющихся в среднем идти вверх, и их стоимость в среднем уменьшается. Это делает его очень трудно отличить разницу между двумя точками, которые отличаются от атрибутов несколько, или двух точек, которые отличаются от каждого атрибута в небольших количествах. Подробное описание с примером волнового эффекта в центроида на основе иерархических алгоритмов приведены в (GRS97].
Установить теоретические меры сходства, такие как коэффициент Жаккара? (JD88] часто используется вместо евклидова расстояния для документа кластеризации. При коэффициенте J accard как меры расстояния между кластерами, иерархические схемы кластеризации центроидные основе не может быть использован с сходство мера неметрический и определяется только точками в кластере, а не для ее тяжести. Таким образом, мы должны использовать либо Минимальная Spanning Tree (MST) алгоритм иерархической кластеризации или иерархической кластеризации с группой среднего [JD88]. Алгоритм MST сливается, на каждом шагу, пара кластеров, содержащих наиболее похожий пару точек, а в среднем по группе алгоритм объединяет те, для которых Средняя сходство между парами точек в кластерах высокой. Алгоритм MST, как известно, очень чувствительны к выбросам в то время как в среднем по группе алгоритм имеет тенденцию к расщеплению крупных кластеров (поскольку, как уже упоминалось ранее, в среднем сходство между двумя подгрупп в большой кластер мал). Кроме того, коэффициент Jaccard является мерой сходства между только двумя точками в вопросе - это таким образом, не отражают свойства в окрестности точек. Следовательно, коэффициент Jaccard удается захватить естественный кластеризации "не так хорошо, разделенных" наборов данных с категорическими атрибутов и это проиллюстрировано в следующем примере.
переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
После того как точки, принадлежащие к различным группам, объединяются, ситуация становится постепенно усиливаются как кластеризация. Какой, как правило это происходит - это протокол RIP­PLE эффект - как размер кластера растет, количество на благодарностей­появляющихся в означает перейти вверх, и их значение в среднем уменьшается. Это делает его очень трудно отличить между двумя точками, которые отличаются на несколько атрибутов,Или два момента, которые отличаются друг от друга по ev­атрибут играть решающую роль в небольших количествах. Подробное описание с примером эффект в центроид объекта на основе алгоритмов, содержится в (GRS97].
теории множеств сходство мер, таких, как Jaccard коэффициент? (ECU JD88] часто используются, вместо того чтобы ЕС­clidean расстояние, в документе кластеризации.
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: