Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Clustering" wg kryterium: Temat


Tytuł:
Wide gaps and Kleinberg’s clustering axioms for k-means
Autorzy:
Kłopotek, Mieczysław A.
Tematy:
clustering theory
clustering axioms
clusterability
Pokaż więcej
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Powiązania:
https://bibliotekanauki.pl/articles/59123837.pdf  Link otwiera się w nowym oknie
Opis:
The widely applied k-means algorithm produces clusterings that violate our expectations with respect to high/low similarity/density within/between clusters and is in conflict with Kleinberg’s axiomatic system for distance based clustering algorithms that formalizes those expectations. In particular, k-means violates the consistency axiom. We hypothesise that this clash is due to the unexplained expectation that the data themselves should have the property of being clusterable in order to expect the algorithm clustering them to fit a clustering axiomatic system. To demonstrate this, we introduce two new clusterability properties, i.e., variational k-separability and residual k-separability, and show that then Kleinberg’s consistency axiom holds for k-means operating in the Euclidean or non-Euclidean space. Furthermore, we propose extensions of the k-means algorithm that fit approximately Kleinberg’s richness axiom, which does not hold for k-means. In this way, we reconcile k-means with Kleinberg’s axiomatic framework in Euclidean and non-Euclidean settings. Besides contribution to the theory of axiomatic frameworks of clustering and to clusterability theory, the practical benefit is the possibility to construct datasets for testing purposes of algorithms optimizing the k-means cost function. This includes a method of construction of clusterable data with a global optimum known in advance.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Subspace Memory Clustering
Autorzy:
Struski, Łukasz
Spurek, Przemysław
Tabor, Jacek
Tematy:
subspace clustering
projection clustering
PCA
Pokaż więcej
Wydawca:
Uniwersytet Jagielloński. Wydawnictwo Uniwersytetu Jagiellońskiego
Powiązania:
https://bibliotekanauki.pl/articles/1373667.pdf  Link otwiera się w nowym oknie
Opis:
We present a new subspace clustering method called SuMC (Subspace Memory Clustering), which allows to efficiently divide a dataset $D \subset \bbbR^N$ into $k \in \bbbN$ pairwise disjoint clusters of possibly different dimensions. Since our approach is based on the memory compression, we do not need to explicitly specify dimensions of groups: in fact we only need to specify the mean number of scalars which is used to describe a data-point. In the case of one cluster our method reduces to a classical Karhunen-Loeve (PCA) transform. We test our method on some typical data from UCI repository and on data coming from real-life experiments.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of Accuracy of Spectral Clustering and Cluster Ensembles based on Co-Occurrence Matrix
Porównanie dokładności taksonomii spektralnej oraz zagregowanych algorytmów taksonomicznych opartych na macierzy współwystąpień
Autorzy:
Rozmus, Dorota
Tematy:
spectral clustering
cluster ensembles
clustering
Pokaż więcej
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Powiązania:
https://bibliotekanauki.pl/articles/905649.pdf  Link otwiera się w nowym oknie
Opis:
High accuracy of the results is very important task in any grouping problem (clustering). It determines effectiveness of the decisions based on them. Therefore in the literature there are proposed methods and solutions that main aim is to give more accurate results than traditional clustering algorithms (e.g. k-means or hierarchical methods). Examples of such solutions can be cluster ensembles or spectral clustering algorithms. Here, we carry out an experimental study to compare accuracy of spectral clustering and cluster ensembles.
Stosując metody taksonomiczne w jakimkolwiek zagadnieniu klasyfikacji ważną kwestią jest zapewnienie wysokiej poprawności wyników grupowania. Od niej bowiem zależeć będzie skuteczność wszelkich decyzji podjętych na tej podstawie. Stąd też w literaturze wciąż proponowane są nowe rozwiązania, które mają przynieść poprawę dokładności grupowania w stosunku do tradycyjnych metod. Przykładem mogą tu być metody polegające na zastosowaniu podejścia zagregowanego oraz algorytmy spektralne. Głównym celem tego artykułu jest porównanie dokładności zagregowanych i spektralnych algorytmów taksonomicznych. W badaniach pod uwagę wzięta zostanie tylko specyficzna klasa metod agregacji, która oparta jest na macierzy współwystąpień (Fred, Jain 2002). Natomiast jako algorytm spektralny zastosowana będzie metoda zaproponowana przez Ng i in. (2001).
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Subspace memory clustering
Autorzy:
Struski, Łukasz
Spurek, Przemysław
Tabor, Jacek
Opis:
We present a new subspace clustering method called SuMC (Subspace Memory Clustering), which allows to efficiently divide a dataset D c RN into k 2 N pairwise disjoint clusters of possibly different dimensions. Since our approach is based on the memory compression, we do not need to explicitly specify dimensions of groups: in fact we only need to specify the mean number of scalars which is used to describe a data-point. In the case of one cluster our method reduces to a classical Karhunen-Loeve (PCA) transform. We test our method on some typical data from UCI repository and on data coming from real-life experiments.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Artykuł
Tytuł:
Implementation of Cross-Entropy Clustering method
Implementacja metody Cross-Entropy Clustering
Autorzy:
Kamieniecki, Konrad
Opis:
The goal of the thesis was to implement Cross-Entropy Clustering method in the form of R package. The paper presents the most important, in terms of implementation, elements of Cross-Entropy Clustering theory, description of used technologies, description of the implementation, presentation of created package, and the clustering results achieved by using the package. The implementation consists of a part in C language and a part in R language.
Celem pracy była wydajna implementacja metody klastrowania danych Cross-Entropy Clustering i zawarcie jej w pakiecie dla Platformy R. W pracy przedstawione są najważniejsze, w kontekście implementacji, elementy teorii Cross-Entropy Clustering, opis wykorzystanych w implementacji technologii, opis samej implementacji oraz prezentacja pakietu i wyników klastrowania, uzyskanych przy jego wykorzystaniu. Implementacja składa się z części w języku C oraz części w języku R.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
Tytuł:
Clustering in fuzzy subspaces
Grupowanie danych w rozmytych podprzestrzeniach
Autorzy:
Simiński, K.
Tematy:
subspace clustering
weighted attributes
fuzzy clustering
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/375745.pdf  Link otwiera się w nowym oknie
Opis:
Some data sets contain data clusters not in all dimension, but in subspaces. Known algorithms select attributes and identify clusters in subspaces. The paper presents a novel algorithm for subspace fuzzy clustering. Each data example has fuzzy membership to the cluster. Each cluster is defined in a certain subspace, but the the membership of the descriptors of the cluster to the subspace (called descriptor weight) is fuzzy (from interval [0; 1]) - the descriptors of the cluster can have partial membership to a subspace the cluster is defined in. Thus the clusters are fuzzy defined in their subspaces. The clusters are defined by their centre, fuzziness and weights of descriptors. The clustering algorithm is based on minimizing of criterion function. The paper is accompanied by the experimental results of clustering. This approach can be used for partition of input domain in extraction rule base for neuro-fuzzy systems.
Niektóre dane zawierają grupy danych nie we wszystkich wymiarach, ale w pewnych podprzestrzeniach dziedziny. Artykuł przedstawia algorytm grupowania danych w rozmytych podprzestrzeniach. Każdy przykład danych ma pewną rozmytą przynależność do grupy (klastra). Każdy klaster z kolei jest rozpięty w pewnej podprzestrzeni dziedziny wejściowej. Klastry mogą być rozpięte w różnych podprzestrzeniach. Algorytm grupowania oparty jest na minimalizacji funkcji kryterialnej. W wyniku jego działania wypracowane są położenia klastrów, ich rozmycie i wagi ich deskryptorów. Przestawiono także wyniki eksperymentów grupowania danych syntetycznych i rzeczywistych
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
New developments in fuzzy clustering with emphasis on special types of tasks
Autorzy:
Viattchenin, D. A.
Owsiński, J. W.
Kacprzyk, J.
Tematy:
clustering
fuzzy sets
possibilistic clustering
inference
three-way clustering
feature selection
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Powiązania:
https://bibliotekanauki.pl/articles/206677.pdf  Link otwiera się w nowym oknie
Opis:
The paper is devoted to a survey of work done in fuzzy clustering, mainly during the first decade of the 21st century, and that with emphasis on various approachesto the problem, as well as various formulations of the very problem. That is why not only the classical formulations are treated, but several other problems, related to (the use of) clustering, like feature selection, inference systems, three-way clustering, and, on the other hand, such formulations of clustering as the possibilistic one or the one involving intuitionistic fuzzy sets. These are treated as the background for presentation of some specific ideas of the main author, concerning definite heuristic algorithms for effective solving of some of these problems.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using Cross-entropy clustering in ICA problem
Wykorzystanie algorytmu Cross-entropy clustering w problemie ICA
Autorzy:
Morzydusza, Piotr
Opis:
This thesis is an attempt to use Cross-Entropy clustering algorithm to solve independent component alysis problem. First we will describe clustering and k-means witch is base to our CEC algorithm. Next we will focus on ICA witch we will try to solve by specifying new density model. W will check the result by conducting an experiment on more than 20 grayscale picture pairs. We will compare cecICA with previously known methods. Results of this experiment are satisfying, we get the best result in almost half of cases, although runtime leaves a lot to be desired.
Praca ma na celu zbadanie możliwości wykorzystania algorytmu cross-entropy clustering w problemie ICA. Skrótowo opiszemy problem klastrowania oraz metodę k-średnich, od której pośrednio pochodzi nasz algorytm klastrowania przez entropię krzyżową. Następnie opiszemy problem ICA który spróbujemy rozwiązać za pomocą CEC. W tym celu zdefiniujemy nowy model gęstościowy i przeprowadzimy eksperyment na ponad 20 czarno-białych obrazkach.Porównamy nową metodę z algorytmami znanymi już wcześniej. Wyniki eksperymentu są obiecujące, uzyskaliśmy najlepszy wynik w ponad połowie rozpatrywanych przypadków, jednakże czas działania metody pozostawia wiele do życzenia.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
Tytuł:
Wspomaganie wiedzy eksperckiej z użyciem algorytmów grupujących
Expert Knowledge refinement with automated clustering methods
Autorzy:
Brzegowski, Jakub
Opis:
Data clustering imposes important research in the fields of data mining and machine learning.Some of the most extensively investigated methods are clustering algorithms.There exists a wide spectrum of such methods varying from unsupervised through semi-supervised to fully supervised methods.However, both supervised and unsupervised methods have advantages and disadvantages. Unsupervised clustering can cluster large datasets with minor human intervention, but it lacks understanding of the data and may produce senseless clusters, which implies a post-clustering evaluation phase during which domain expert has to assess produced results.On the other hand, supervised or semi-supervised clustering, which utilises domain expert knowledge during the clustering phase may produce biased results as the expert may not spot some non-obvious patterns in the data.In this work, we present Knowledge Augmented Clustering (KNAC), which tries to solve these problems by combining both approaches.KNAC refines expert knowledge by taking expert and automated labellings, comparing them and suggesting changes to the expert clustering.We demonstrate the feasibility of our method on artificially, reproducible examples and on a real-life use case scenario.
Grupowanie danych to jeden z najbardziej badanych obszarow analizy danych i uczenia maszynowego.Jednymi z najbardziej ekstensywnie rozpatrywanych metod uczenia maszynowego są algorytmy klasteryzacji.Istnieje szerokie spektrum wspomnianych metod grupowania poczynając od metod nienadzorowanych, przez częściowo-nadzorowane do nadzorowanych.Jednakże, zarówno metody nadzorowane, jak i nienadzorowane mają zalety i wady.Nienadzorowane grupowanie jest w stanie grupować bardzo duże zbiory danych z niewielką ingerencją człowieka. Brakuje mu jednak zrozumienia grupowanych danych, co może skutkować tworzeniem klastrów pozbawionych sensu, co z kolei implikuje fazę oceny (występującej po grupowaniu automatycznym), podczas której ekspert domeny musi ocenić uzyskane wyniki.Z drugiej strony, grupowanie nadzorowane lub częściowo-nadzorowane, które wykorzystuje wiedzę ekspercką z danej dziedziny podczas fazy grupowania, może dawać tendencyjne wyniki, ponieważ ekspert może nie zauważyć pewnych nieoczywistych wzorców w danych.W tej pracy przedstawiamy Knowledge Augmented Clustering (KNAC), który próbuje rozwiązać te problemy łącząc oba podejścia.KNAC doskonali wiedzę ekspercką porównując etykietowanie eksperta z etykietowaniem automatycznym i sugerując zmiany w grupowaniu eksperta.Demonstrujemy efektywność naszej metody zarówno na sztucznie wygenerowanych danych,jak i na danych ze świata rzeczywistego.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies