Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "algorytm EM" wg kryterium: Temat


Wyświetlanie 1-10 z 10
Tytuł:
Analiza rozkładu wielkości cząstek w zawiesinach – tereny wodonośne.
Raport Badawczy = Research Report ; RB/72/2009
Autorzy:
Jarnicka, Jolanta
Wydawca:
Instytut Badań Systemowych. Polska Akademia Nauk
Systems Research Institute. Polish Academy of Sciences
Powiązania:
Raport Badawczy = Research Report
Opis:
Praca stanowi kontynuację badań związanych z rozkładem wielkości cząstek w zawiesinach i dotyczy wrocławskich terenów wodonośnych, czyli obszaru łąk i stawów na południowym wschodzie miasta, przeznaczonego do uzdatniania wody. Narzędziem do przeprowadzonej analizy jest dwukrokowa metoda estymacji gęstości, która składa się z części parametrycznej, przeprowadzanej przy pomocy algorytmu adaptacyjnego, dopasowującego parametry w dobranym modelu, oraz części nieparametrycznej, czyli estymacji jądrowej z uogólnionym estymatorem jądrowym. Rezultaty, uzyskane podczas obu kroków estymacji, zostały przedstawione dla każdej z grup danych za pomocą wykresów.
Bibliography p. 16
Bibliografia s. 16
16 stron ; 21 cm
16 pages ; 21 cm
Dostawca treści:
RCIN - Repozytorium Cyfrowe Instytutów Naukowych
Książka
Tytuł:
Learning finite Gaussian mixtures using differential evolution
Uczenie skończonych mieszanin rozkładów normalnych przy pomocy algorytmu ewolucji różnicowej
Autorzy:
Kwedlo, W.
Tematy:
mieszaniny rozkładów normalnych
ewolucja różnicowa
algorytm EM
Gaussian mixtures
differential evolution
EM algorithm
Pokaż więcej
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Powiązania:
https://bibliotekanauki.pl/articles/341041.pdf  Link otwiera się w nowym oknie
Opis:
In the paper the problem of parameter estimation of finite mixture of multivariate Gaussian distributions is considered. A new approach based on differential evolution (DE) algorithm is proposed. In order to avoid problems with infeasibility of chromosomes our version of DE uses a novel representation, in which covariance matrices are encoded using their Cholesky decomposition. Numerical experiments involved three version of DE differing by the method of selection of strategy parameters. The results of experiments, performed on two synthetic and one real dataset indicate, that our method is able to correctly identify the parameters of the mixture model. The method is also able to obtain better solutions than the classical EM algorithm. Keywords: Gaussian mixtures, differential evolution, EM algorithm.
W artykule rozważono problem uczenia parametrów skończonej mieszaniny wielowymiarowych rozkładów normalnych. Zaproponowano nową metodę uczenia opartą na algorytmie ewolucji różnicowej. W celu uniknięcia problemów z niedopuszczalnością chromosomów algorytm ewolucji różnicowej wykorzystuje nową reprezentację, w której macierze kowariancji są reprezentowane przy pomocy dekompozycji Cholesky’ego. W eksperymentach wykorzystano trzy wersje algorytmu ewolucji różnicowej różniące się metodą˛ doboru parametrów. Wyniki eksperymentów, przeprowadzonych na dwóch syntetycznych i jednym rzeczywistym zbiorze danych, wskazują że zaproponowana metoda jest w stanie poprawnie identyfikować parametry modelu. Metoda ta osiąga również lepsze wyniki niż klasyczyny algorytm EM.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Parameter estimation for Weibull distribution with right censored data using EM algorithm
Zastosowanie algorytmu maksymalizacji wartości oczekiwanej do estymacji parametrów rozkładu Weibulla w przypadku danych obciętych prawostronnie
Autorzy:
Ferreira, L. A.
Silva, J. L.
Tematy:
algorytm EM
estymacja parametrów
estymator największej wiarygodności
niezawodność
EM algorithm
parameter estimation
maximum likelihood estimate
reliability
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Powiązania:
https://bibliotekanauki.pl/articles/301264.pdf  Link otwiera się w nowym oknie
Opis:
Metoda największej wiarygodności (MLE) służy do estymacji parametrów modelu statystycznego dla zadanych danych. Metoda ta pozwala na estymację nieznanych parametrów modelu statystycznego. Parametry te otrzymuje się poprzez maksymalizację funkcji wiarygodności rozważanego modelu. Często w praktyce metoda ta może jednak nastręczać trudności związane z wielomodalnością funkcji wiarygodności oraz niemożnością uzyskania jawnych analitycznych rozwiązań równań wiarygodności. Równania takie można jedynie rozwiązywać za pomocą metod numerycznych. Trudności te dobrze ilustruje estymacja parametrów rozkładu Weibulla z wykorzystaniem metody największej wiarygodności wykonywana w oparciu o prawostronnie cenzurowane dane z eksploatacji. Rozwiązanie przedstawione w niniejszej pracy opiera się na zastosowaniu algorytmu maksymalizacji wartości oczekiwanej (EM). Możliwości aplikacyjne proponowanej metodyki badano na przykładzie danych eksploatacyjnych uzyskanych z przedsiębiorstwa petrochemicznego, dotyczących awarii pięciu pomp odśrodkowych.
The maximum-likelihood estimation (MLE) is a method of estimating the parameters of a statistical model for given data. This method allows us to estimate the unknown parameters of a statistical model. These parameters are obtained by maximizing the likelihood function of the model in question. In many practical situations the likelihood function is associated with complex models and the likelihood equation has no explicit analytical solution, it is only possible to have its resolution through numerical methods. The estimation of the parameters of the Weibull distribution by maximum-likelihood method based on information from a historical record with right censored data shows this difficulty. The solution presented in this article entails using the Expectation-Maximization (EM) algorithm. Actual data from the historical record of 5 centrifugal pumps failures of a petrochemical company were analyzed for application of the methodology.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analiza algorytmu EM
Analysis of the EM algorithm
Autorzy:
Surdyka, Jan
Opis:
In this paper I presented EM algorithm. This algorithm is an iterative method for finding maximum likelihood estimates of parameters in statistical models with incomplete data. EM algorithm is commonly used because of its high versatility, this algorithm can be determined for a number of different problems.In the first chapter I presented the basic theory necessary to represent the EM algorithm. The basis for further considerations are the basic concepts of probability and statistics, such as a random variable, distribution function, estimator or the random sample. In this chapter I presented also maximum likelihood estimation, which is a method for obtaining estimates.In the second chapter algorithm EM was presented in details. I described two steps performed in each iteration of the EM algorithm, the first step E (expectation step), and the second step M (maximization step). This chapter also presents the application of EM algorithm and some of the problems that the algorithm can solve. These problems have been divided into situations where there is an evident incomplete data, and the problems which this incompleteness is not clear and natural. According to this division, in the second part of this chapter, I presented the problem of grouped data and truncated data, in these problems incompleteness of data is obvious. On the other hand, I presented a model mixture of normal distributions. Then, using the EM algorithm parameters were found for both of these problems. In the last chapter, I presented the application of the EM algorithm, and I showed the analysis of the economic situation of countries that belong to the OECD. For this purpose, I collected and presented macroeconomic variables in the OECD countries that affect the economic growth. Then, assuming that these data come from a multi-dimensional model of a finite mixture of normal distributions using the EM algorithm I found the parameters of that model. And later, using the fact that the model mix distributions in general form, related to the entire sample is well suited for the detection of clusters in a sample of n observations, I divided countries of the OECD into three clusters depending on the economic development.
W niniejszej pracy przedstawiony został algorytm EM. Algorytm ten jest iteracyjną me-todą optymalizacyjną do maksymalizowania wiarygodnościowej funkcji oceny przy zadanymmodelu probabilistycznym z brakującymi danymi. Algorytm EM jest powszechnie stosowanyze względu na dużą uniwersalność i łatwość, z jaką algorytm ten może być określany dlawielu różnych problemów, co zostało przedstawione w tej pracy.W pierwszym rozdziale zaprezentowana została podstawowa teoria niezbędna do przed-stawienia algorytmu EM. Podstawą do dalszych rozważań będą podstawowe pojęcia z zakre-su rachunku prawdopodobieństwa oraz statystyki, takie jak: zmienna losowa, dystrybuanta,estymator czy też próba losowa. W tym rozdziale zaprezentowana została także metoda naj-większej wiarygodności, która jest metodą otrzymywania estymatorów.W drugim rozdziale szczegółowo został zaprezentowany algorytm EM który jest metodąiteracyjnego obliczania estymatorów największej wiarygodności. Opisane zostały dwa krokiwykonywane w każdej iteracji algorytmu EM, pierwszy krok E (expectation step), oraz dru-gi, krok M (maximization step). W tym rozdziale przedstawione zostały także problemy wktórych zastosowanie znalazł algorytm EM. Problemy te zostały podzielone na sytuacje wktórych mamy do czynienia z ewidentnie niekompletnymi danymi, oraz problemy w którychta niekompletność nie jest do oczywista i naturalna. Zgodnie z tym podziałem w drugiejczęści tego rozdziału przedstawiony został problem danych pogrupowanych i obciętych wktórym niekompletność danych jest oczywista, z kolei za przykład sytuacji w której nie-kompletność danych nie jest wcale taka oczywista posłużył nam model mieszanki rozkładównormalnych. Następnie, za pomocą algorytmu EM wyestymowane zostały parametry dlaobu tych problemów.W ostatnim rozdziale pracy zaprezentowane zostało zastosowanie algorytmu EM, a po-służyła do tego analiza sytuacji gospodarczej państw grupy OECD. W tym celu zebrane izaprezentowane zostały zmienne makroekonomiczne w krajach OECD które wpływają nawzrost gospodarczy. Następnie zakładając, że owe dane pochodzą z wielowymiarowego skoń-czonego modelu mieszanki rozkładów normalnych, stosując algorytm EM wyestymowanezostały parametry tegoż modelu. A w dalszej części tego rozdziału, korzystając z tego, iżmodel mieszanki rozkładów w ogólnej postaci, odniesiony do całej badanej próby doskonalenadaje się do wykrywania skupień w próbie n obserwacji, podzielono kraje grupy OECD natrzy skupienia w zależności od rozwoju gospodarczego poszczególnych krajów.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
Tytuł:
Estimation of regression parameters of two dimensional probability distribution mixtures
Estymacja parametrów regresji mieszanki dwuwymiarowych rozkładów prawdopodobieństwa
Autorzy:
Sitek, Grzegorz
Tematy:
EM algorithm
Least squares method for an implicite interdependence
Mixture regression model
Algorytm EM
Metoda najmniejszych kwadratów dla zależności niejawnych
Mieszanki regresji
Pokaż więcej
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Powiązania:
https://bibliotekanauki.pl/articles/592694.pdf  Link otwiera się w nowym oknie
Opis:
We use two methods of estimation parameters in a mixture regression: maximum likelihood (MLE) and the least squares method for an implicit interdependence. The most popular method for maximum likelihood esti-mation of the parameter vector is the EM algorithm. The least squares method for an implicit interdependence is based solving systems of nonlinear equations. Most frequently used method in the estimation of parameters mixtures regression is the method of maximum likelihood. The article presents the possibility of using a different the least squares method for an implicit interdependence and compare it with the maximum likelihood method. We compare accuracy of two methods of estimation by simulation using bias: root mean square error and bootstrapping standard errors of estimation.
Do estymacji parametrów mieszanek regresji stosujemy dwie metody: metodę największej wiarygodności oraz metodę najmniejszych kwadratów dla zależności niejawnych. Najbardziej popularną metodą polegającą na maksymalizacji funkcji wiarygodności jest algorytm EM. Metoda najmniejszych kwadratów dla zależności niejawnych polega na rozwiązaniu układu równań nieliniowych. Najczęściej stosowaną metodą estymacji parametrów mieszanek regresji jest metoda największej wiarygodności. W artykule pokazano możliwość zastosowania innej metody najmniejszych kwadratów dla zależności niejawnych. Obie metody porównujemy symulacyjnie, używając obciążenia estymatora, pierwiastka błędu średniokwadratowego estymatora oraz bootstrapowe błędy standardowe.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Estimation of parameters of Gaussian mixture models by a hybrid method combining a self-adaptive differential evolution with the EM algorithm
Estymacja parametrów modeli mieszanin rozkładów normalnych przy pomocy metody hybrydowej łączącej samoadaptacyjną ewolucję różnicową z algorytmem EM
Autorzy:
Kwedlo, W.
Tematy:
mieszaniny rozkładów normalnych
ewolucja różnicowa
algorytm EM
grupowanie danych
Gaussian mixture models
differential evolution
expectation maximization
model-based clustering
Pokaż więcej
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Powiązania:
https://bibliotekanauki.pl/articles/88410.pdf  Link otwiera się w nowym oknie
Opis:
In the paper the problem of learning of Gaussian mixture models (GMMs) is considered. A new approach based on hybridization of a self-adaptive version of differential evolution (DE) with the classical EM algorithm is described. In this approach, called DEEM, the EM algorithm is run until convergence to fine-tune each solution obtained by the mutation and crossover operators of DE. To avoid the problem with parameter representation and infeasible solutions we use a method in which the covariance matrices are encoded using their Cholesky factorizations. In a simulation study GMMs were used to cluster synthetic datasets differing by a degree of separation between clusters. The results of experiments indicate that DE-EM outperforms the standard multiple restart expectation-maximization algorithm (MREM). For datasets with high number of features it also outperforms the state of-the-art random swap EM (RSEM).
W pracy poruszono problem uczenia modeli mieszanin rozkładów normalnych. Zaproponowano nowe podejście, nazwane DE-EM, oparte na hybrydyzacji samoadaptacyjnego algorytmu ewolucji różnicowej i klasycznego algorytmu EM. W nowej metodzie rozwiązanie otrzymane jako wynik operatorów mutacji i krzyżowania jest poddawane optymalizacji lokalnej, prowadzonej aż do momentu uzyskania zbieżności, przez algorytm EM. Aby uniknąć problemu z reprezentacją macierzy kowariancji i niedopuszczalności rozwiązań użyto metody, w której macierze kowariancji są kodowane przy pomocy dekompozycji Cholesky’ego. W badaniach symulacyjnych modele mieszanin rozkładów normalnych zastosowano do grupowania danych syntetycznych. Wyniki eksperymentów wskazują, że metoda DE-EM osiąga lepsze wyniki niż standardowa technika wielokrotnego startu algorytmu ˙ EM. Dla zbiorów danych z dużą liczbą cech, metoda osiąga lepsze wyniki niż technika losowej wymiany rozwiązań połączona z algorytmem EM.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Sekwencyjna metoda Monte Carlo i jej zastosowanie do modelowania zmienności inflacji w Polsce
Sequential Monte Carlo method and its application for modelling inflation volatility in Poland
Autorzy:
Brzozowska-Rup, Katarzyna
Tematy:
algorytm EM
Inflacja
metoda SMC
model CIR
Modele zmienności stochastycznej
CIR model
Expectation-Maximization (EM) algorithm
Inflation
Sequential Monte Carlo method
Stochastic volatility models
Pokaż więcej
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Powiązania:
https://bibliotekanauki.pl/articles/2041251.pdf  Link otwiera się w nowym oknie
Opis:
The aim of the article is to present a selected model of stochastic volatility to describe inflation volatility in Poland, with particular emphasis on the possibility of using the estimation technique based on the Sequential Monte Carlo method. A model of stochastic volatility is presented, in which conditional variance is treated as an unobserved variable described by the one-factor Cox, Ingersoll and Ross model (CIR, 1985). The advantages and effectiveness of the proposed method are presented on the basis of monthly inflation rates in Poland from 2004 to 2017.
Celem artykułu jest zaprezentowanie wybranego modelu stochastycznej zmienności do opisu zmienności inflacji w Polsce, ze szczególnym uwzględnieniem możliwości zastosowania techniki estymacji wykorzystującej sekwencyjną metodę Monte Carlo (ang. Sequential Monte Carlo method, SMC). Przedstawiono model zmienności stochastycznej, w którym wariancja warunkowa jest traktowana jako zmienna nieobserwowana opisywana za pomocą jednoczynnikowego modelu Coxa, Ingersola i Rossa (CIR) [Cox, Ingersoll, Ross, 1985]. Zalety oraz efektywność proponowanej metody zaprezento-wano na podstawie miesięcznych danych historycznych poziomu inflacji w Polsce w latach 2004-2017.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal Allocation of the Sample in the Poisson Item Count Technique
Optymalna alokacja próby w badaniu cechy drażliwej
Autorzy:
Bernardelli, Michał
Kowalczyk, Barbara
Tematy:
alokacja optymalna
zmienna ukryta
algorytm EM
cecha drażliwa
pytania pośrednie
eksperyment z listą
optimal allocation
latent variable
EM algorithm
sensitive question
indirect questioning
Poisson item count technique
Pokaż więcej
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Powiązania:
https://bibliotekanauki.pl/articles/660031.pdf  Link otwiera się w nowym oknie
Opis:
Pośrednie metody ankietowania stanowią podstawowe narzędzie stosowane w przypadku pytań drażliwych. Artykuł nawiązuje do nowej, pośredniej metody zaproponowanej w pracy Tiana i wsp. (2014) i dotyczy optymalnej alokacji próby między grupę badaną i kontrolną. W przypadku gdy alokacji dokonuje się w oparciu o estymatory metodą momentów, rozwiązanie optymalne nie nastręcza trudności i zostało podane w pracy Tiana i wsp. (2014). Jednak to estymacja metodą największej wiarogodności ma lepsze własności, w związku z czym wyznaczenie alokacji optymalnej na jej podstawie jest zadaniem, którego rozwiązanie wydaje się mieć większe znaczenie praktyczne. Zadanie to nie jest trywialne, gdyż w przypadku omawianej metody pośredniej drażliwa zmienna badana ma charakter ukryty i jest zmienną nieobserwowalną. Wzór explicite na wariancję estymatora największej wiarogodności nieznanej frakcji cechy drażliwej nie jest dostępny, a sam estymator wyznaczyć można, używając odpowiednich algorytmów numerycznych. Do określenia optymalnej alokacji próby w oparciu o estymatory NW wykorzystane zostały symulacje Monte Carlo oraz iteracyjny algorytm EM
Indirect methods of questioning are of utmost importance when dealing with sensitive questions. This paper refers to the new indirect method introduced by Tian et al. (2014) and examines the optimal allocation of the sample to control and treatment groups. If determining the optimal allocation is based on the variance formula for the method of moments (difference in means) estimator of the sensitive proportion, the solution is quite straightforward and was given in Tian et al. (2014). However, maximum likelihood (ML) estimation is known from much better properties, therefore determining the optimal allocation based on ML estimators has more practical importance. This problem is nontrivial because in the Poisson item count technique the study sensitive variable is a latent one and is not directly observable. Thus ML estimation is carried out by using the expectation‑maximisation (EM) algorithm and therefore an explicit analytical formula for the variance of the ML estimator of the sensitive proportion is not obtained. To determine the optimal allocation of the sample based on ML estimation, comprehensive Monte Carlo simulations and the EM algorithm have been employed.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Effective expectation maximization algorithm implementation using multicore computer systems
Efektywny algorytm EM i jego implementacja przy użyciu wielordzeniowych systemów komputerowych
Autorzy:
Kasitskij, A.
Bidyuk, P.
Gozhyi, A.
Tematy:
algorytm EM
zmienna losowa Gaussowska
separacja
równoległość
architektura wielordzeniowa
expectation-maximization algorithm
multicore architecture
parallelism
Gaussian random variables mixture
separation
three sigma law
Pokaż więcej
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Powiązania:
https://bibliotekanauki.pl/articles/408233.pdf  Link otwiera się w nowym oknie
Opis:
A popular expectation maximization algorithm that is widely used in modern data processing systems to solve various problems including optimization and parameter estimation is considered in the paper. The task of the study was to enhance effectiveness of the algorithm execution in time. An enhancement of execution rate for the EM algorithm using multicore architecture of modern computer systems was carried out. Necessary modifications aimed at better parallelism were proposed for implementation of the EM algorithm. An efficiency of the software implementation was tested on the classic problem of Gaussian random variables mixture separation. It is shown that in the mixture separation problem EM algorithm performance degrades when the distance between mean values of distributions is less than three standard deviations, which is totally in the spirit of three sigma law. In such cases, it is very important to have an efficient EM algorithm implementation to be able to process such test cases in a reasonable time.
W artykule opisany jest popularny algorytm EM (expectation maximization), który jest powszechnie stosowany w nowoczesnych systemach przetwarzania danych do rozwiązywania różnych problemów, w tym optymalizacji i estymacji parametrów. Celem badań było zwiększenie efektywności czasu wykonywania algorytmu. Zwiększenie szybkości wykonania algorytmu EM użyto wielordzeniowy architektury nowoczesnych systemów komputerowych. Zostały zaproponowane niezbędne modyfikacje mające na celu lepszą równoległość realizacji algorytmu EM. Skuteczność implementacji programu była testowana na klasycznym problemie separacji Gaussowskich zmiennych losowych. Wykazano, że w przypadku rozdziału mieszaniny wydajność algorytmu EM ulega degradacji, kiedy odległość między średnimi wartościami rozkładu wynosi mniej niż trzy odchylenia standardowe, co jest całkowicie zgodnie z regułą trzech sigm. W takich przypadkach, jest bardzo ważne, aby mieć efektywną realizację algorytmu EM móc przetworzyć takie przypadki w rozsądnym czasie.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of K-means and CEC clustering algorithms
Porównanie algorytmów klastrowania K-means i CEC
Autorzy:
Lesiak, Kamil
Opis:
This bachelor focuses on the problems of (unsupervised) machine learning and data mining. It contains an introduction to the issue of clustering and compression. Several algorithms in the field of cluster analysis have also been mentioned and described. Next, a thorough analysis of k-means clusters and Cross-Entropy Clustering (CEC) was made. There were also presented detailed description and approximate course of both algorithms. Several grouping simulations have been shown. Among other things, a comparison was made on their basis and appropriate conclusions on data clustering were drawn. The advantages and disadvantages of these algorithms have been described, as well as the good practices used in their exploiting. Visualizations included in the work were made using the Python programming language.
Niniejsza praca skupia się na problemach z zakresu (nienadzorowanego) uczenia maszynowego oraz eksploracji danych. Zawiera wprowadzenie w zagadnienie klastrowania oraz kompresji. Wymienione i opisane zostało w niej również kilka algorytmów z zakresu analizy skupień. Następnie dokonano wnikliwej analizy klastrowań k-means oraz Cross-Entropy Clustering (CEC). Przedstawiono dokładny opis oraz przybliżony przebieg obydwu algorytmów. Zostało zaprezentowanych kilka symulacji grupowania. Między innymi na ich podstawie dokonano porównania oraz wyciągnięto odpowiednie wnioski dotyczące klastrowania danych. Opisano wady i zalety wspomnianych algorytmów, a także opisano dobre praktyki stosowane przy ich używaniu. Wizualizacje zawarte w pracy zostały wykonane przy pomocy języka programowania Python.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
    Wyświetlanie 1-10 z 10

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies