Once points belonging to different clusters are merged, the situation  перевод - Once points belonging to different clusters are merged, the situation  русский как сказать

Once points belonging to different

Once points belonging to different clusters are merged, the situation gets progressively worse as the clustering progresses. What typically happens is a rip­ple effect - as the cluster size grows, the number of at­tributes appearing in the mean go up, and their value in the mean decreases. This makes it very difficult to distinguish the difference between two points that differ on few attributes, or two points that differ on ev­ery attribute by small amounts. A detailed description with an example of the ripple effect in centroid-based hierarchical algorithms is provided in [GRS97].
Set theoretic similarity measures such as the Jaccard coefficient [JD88] have often been used, instead of eu­clidean distance, for document clustering. With the J accard coefficient as the distance measure between clusters, centroid-based hierarchical clustering schemes cannot be used since the similarity measure is non­metric, and defined for only points in the cluster and not for its centroid. Thus, we have to use either the minimum spanning tree (MST) hierarchical clustering algorithm or hierarchical clustering with group aver­age [JD88]. The MST algorithm merges, at each step, the pair of clusters containing the most similar pair of points while the group average algorithm merges the ones for which the average similarity between pairs of points in the clusters is the highest. The MST algo­rithm is known to be very sensitive to outliers while the group average algorithm has a tendency to split large clusters (since, as mentioned earlier, the average similarity between two subclusters of a large cluster is small). Furthermore, the Jaccard coefficient is a mea­sure of the similarity between only the two points in question - it thus, does not reflect the properties of the neighborhood of the points. Consequently, the Jac­card coefficient fails to capture the natural clustering of "not so well-separated" data sets with categorical attributes and this is illustrated further in the follow­ing example.
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
После того, как объединяются точек, принадлежащих к различным кластерам, ситуация постепенно становится хуже в процессе кластеризации. Обычно происходит эффект ряби - как размер кластера растет, количество атрибутов, входящих в означает идти вверх, и их значение в среднем уменьшается. Это делает его очень трудно отличить разницу между двумя точками, которые отличаются по несколько атрибутов, или две точки, которые отличаются на каждый атрибут в небольших количествах. Подробное описание с примерами волновой эффект в основе центроид иерархические алгоритмы приводится в [GRS97]. Набор теоретических сходство меры, такие, как коэффициент Jaccard [JD88] часто были использованы, вместо евклидово расстояние, для кластеризации документов. С коэффициентом accard J как мера расстояния между кластерами центроида схемах иерархической кластеризации нельзя использовать так как мера сходства неметрического и определены для только точек в кластере и не его центр тяжести. Таким образом мы должны использовать минимальный алгоритм связующего дерева (MST) иерархической кластеризации или иерархическая кластеризация с средней группы [JD88]. MST алгоритм слияния, на каждом шаге, пара кластеров, содержащих наиболее аналогичные пары точек во время алгоритм средняя группа объединяет те, для которых средний сходство между парами точек в кластерах является самым высоким. Чтобы быть очень чувствительны к выбросам, в то время как группа среднее алгоритм имеет тенденцию для разбиения больших кластеров (с тех пор, как упоминалось ранее, средняя сходство между двумя подгруппам большого кластера малых) известен алгоритм MST. Кроме того коэффициент жаккарда является мерой сходства между только две точки в вопросе - таким образом, не отражает свойства окрестности точки. Следовательно, Jaccard коэффициент не удается захватить природные кластеризации "не так хорошо разделенных" наборов данных с атрибутами, категорический и это показано в следующем примере.
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
После того, как точки, принадлежащие разным кластерам будут объединены, ситуация становится все хуже и хуже, как прогрессирует кластеризации. Что обычно происходит, является волновой эффект - в размер кластера растет, количество атрибутов, появляющихся в среднем идти вверх, и их стоимость в среднем уменьшается. Это делает его очень трудно отличить разницу между двумя точками, которые отличаются от атрибутов несколько, или двух точек, которые отличаются от каждого атрибута в небольших количествах. Подробное описание с примером волнового эффекта в центроида на основе иерархических алгоритмов приведены в [GRS97].
Установить теоретические меры сходства, такие как коэффициент Жаккара [JD88] часто используется вместо евклидова расстояния для документа кластеризации. При коэффициенте J accard как меры расстояния между кластерами, схемы иерархической кластеризации центроида на основе не может быть использован, так как мера подоби неметрический, и определяется только точек в кластере, а не для его центра тяжести. Таким образом, мы должны использовать либо минимальный остов (MST) иерархическую алгоритм кластеризации или иерархическую кластеризацию с группой среднем [JD88]. Алгоритм MST сливается, на каждом шаге, пара кластеров, содержащих наиболее похожий пару точек, а алгоритм переходит в среднем по группе те, для которых среднее сходство между парами точек в кластерах самая высокая. Алгоритм MST, как известно, очень чувствительны к выбросам в то время как алгоритм группы в среднем имеет тенденцию к расщеплению больших кластеров (поскольку, как упоминалось ранее, в среднем сходство двух подгрупп большого кластера мала). Кроме того, коэффициент Jaccard является мерой сходства между только двумя точками в вопросе - это таким образом, не отражают свойства в окрестности точек. Следовательно, коэффициент Jaccard удается захватить естественный кластеризации "не так хорошо, разделенных" наборов данных с категорическими атрибутов и это проиллюстрировано в следующем примере.
переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
После того как точки, принадлежащие к различным группам, объединяются, ситуация становится постепенно усиливаются как кластеризация. Какой, как правило это происходит - это протокол RIP­PLE эффект - как размер кластера растет, количество на благодарностей­появляющихся в означает перейти вверх, и их значение в среднем уменьшается. Это делает его очень трудно отличить между двумя точками, которые отличаются на несколько атрибутов,Или два момента, которые отличаются друг от друга по ev­атрибут играть решающую роль в небольших количествах. Подробное описание с примером эффект в центроид объекта на основе алгоритмов в [GRS97].
теории множеств сходство мер, таких, как Jaccard коэффициент [JD88] часто используются, вместо того чтобы ЕС­clidean расстояние, в документе кластеризации.С J accard коэффициент как расстояние между кластерами, центроид объекта на основе схем кластеризации не может быть использован с момента сходство измерить не­метрических, и определены только для точек в группе и не в его центроид. Таким образом, нам следует использовать либо минимального остовного дерева (MST) иерархический алгоритм кластеризации или иерархическая кластеризация с помощью группы поспешили­возраст [JD88].С MST алгоритм объединяет, на каждом шагу, пару групп с наиболее аналогичные пары точек в то время как средняя алгоритм объединяет те, в отношении которых в среднем сходство между парами точек в кластерах. С MST алгоритмов­rithm известен весьма чувствительными к случайных выбросов хотя группа средняя алгоритм имеет тенденцию к split больших кластеров (поскольку,Как упоминалось выше, в среднем сходство между двумя подгруппам большой группе). Кроме того, Jaccard коэффициент является МПС­убедиться в сходство только между двумя точками, - таким образом, он, не отражает свойства окрестности точек. Следовательно,В JAC­карта коэффициент не для захвата природных объединение "не так хорошо разделены" наборы данных с категорическим атрибуты и это видно на примере далее в рамках последующей деятельности по итогам­образное пример.
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: