Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "latent variable" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
Dichotomous IRT models in money-saving skills analysis
Dychotomiczne modele IRT w badaniu skłonności do oszczędzania polskich gospodarstw domowych
Autorzy:
Genge, Ewa
Tematy:
Dichotomous data
Item response theory
Latent variable models
Modele zmiennych ukrytych
Teoria reakcji na pozycję
Zmienne dychotomiczne
Pokaż więcej
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Powiązania:
https://bibliotekanauki.pl/articles/591885.pdf  Link otwiera się w nowym oknie
Opis:
Latent variable models include latent class models, item response theory (IRT) models, latent profile models or common factor models. We focus on item response models (latent variable models where the latent variable is continuous, whereas observed variables are categorical). Those kind of latent trait models are popular in educational testing, however, the paper presents an application of item response models in economic analysis which is relatively rare. The aim of this paper is to find the most suitable IRT model and asses the Poles responses according to their money-saving skills (ability to save money), and the difficulty of the items (evaluation of the reliability of the item scale).
Ze względu na charakter zmiennych obserwowanych oraz zmiennych ukrytych w grupie modeli zmiennych ukrytych wyróżnić można: modele teorii reakcji na pozycję (modele IRT), modele klas ukrytych, analizę ukrytych profili oraz analizę czynnikową. W artykule przedstawiono dychotomiczne modele IRT, w których zakłada się, że zmienne obserwowane są dyskretne, a zmienna ukryta jest zmienną ciągłą. Choć w literaturze najczęściej spotykane są zastosowania modeli IRT w analizach testów edukacyjnych, w artykule przedstawiony zostanie przykład ich zastosowania w badaniu społeczno-ekonomicznym. Celem artykułu jest dopasowanie najlepszego modelu IRT do analizowanego zbioru danych rzeczywistych, ocena tzw. parametrów skali oraz „ukrytej zdolności do oszczędzania” polskich gospodarstw domowych.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Problematyka hierarchiczności – wyprowadzenie meta-cech w modelach SEM
The issue of hierarchical models – The construction of meta-features in structural equation models
Autorzy:
Szymańska, Agnieszka
Tematy:
struktura jedno- i wielopoziomowa
element struktury
zakres struktury
charakterystyka struktury
zmienna latentna
hierarchiczna zmienna latentna
metacecha
model pomiarowy
structure
structure elements
the scope of the structure
characteristics of the structure
one-level latent variable
hierarchical latent variable
meta-feature
measurement model
Pokaż więcej
Wydawca:
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Powiązania:
https://bibliotekanauki.pl/articles/564874.pdf  Link otwiera się w nowym oknie
Opis:
The aim of this article is to discuss the reconstruction of the theoretical elements of the structures verified by structural equation models (SEM). The elements of the structures have single-level (one-dimensional) or hierarchical (multi-dimensional) characteristic. The reconstruction of the characteristics of the theoretical elements is very important issue. Poor reconstruction of the theoretical elements, as will be shown, may increase the likelihood of the error of the first kind and lead to the rejection of the correct model. There are such elements which are so complex that verification of the models with their participation would require a huge effort involving trial and finance. If the research concentrates merely on the reconstruction of the characteristics of a particular element, then its construction is crucial. But when the research concentrates on the verification of the model of the process, in which the elements are plentiful and they are connected in a network of mutual dependencies, complexity of the model grows to such an extent that may require thousandths of observations and this can lead to a problem in its estimation. In this case, it becomes necessary to reduce the characteristics of the element to a meta-feature. The article explains how to verify the correctness of the construction of a one-level latent variable, hierarchical latent variable and estimate the variance extracted and reliability of variables. There is also shown how to reduce the hierarchical variable to meta-feature in order to simplify the model and reduce the number of degrees of freedom. There is presented how the construction of meta-features translates into both the reliability of the variable and the fit of the model. The construction of the variables is discussed on the example of the scale of Reaction to stress and the scale of Constraining child’s activity.
Celem artykułu jest omówienie rekonstrukcji elementów struktur teoretycznych weryfikowanych za pomocą układów równań strukturalnych. Elementy struktur mają charakterystykę jednopoziomową (jednowymiarową) lub hierarchiczną (wielowymiarową), a jej odtworzenie w modelach jest rzeczą niezmiernie istotną. Nieodtworzenie charakterystyki elementów, jak zostanie pokazane, może zwiększyć ryzyko popełnienia błędu pierwszego rodzaju i odrzucenia modelu poprawnego. Istnieją takie elementy, które są na tyle złożone, że weryfikowanie modelu z ich udziałem wymagałoby ogromnego nakładu próby i finansów. Jeżeli badanie polega jedynie na odtworzeniu charakterystyki danego elementu, to wówczas oczywiście jego budowa jest kluczowa. Kiedy jednak badanie sprowadza się do zweryfikowania modelu pewnego procesu substantywnego, w którym elementów jest dużo i połączone są jeszcze w sieci wzajemnych zależności, złożoność modelu rośnie do rozmiarów, które w celu oszacowania dopasowania modelu mogą wymagać tysięcznych obserwacji. W takiej  ytuacji pomocne staje się zredukowanie charakterystyki elementów do metacechy. W artykule został omówiony sposób weryfikacji poprawności budowy jednopoziomowej zmiennej latentnej, hierarchicznej zmiennej latentnej2, a także szacowanie procentu wyjaśnionej zmienności oraz rzetelności zmiennych. Przedstawiono również sposób redukowania zmiennej hierarchicznej do metacechy w celu uproszczenia modelu i zredukowania liczby stopni swobody. Zaprezentowano, jak procedura budowania metacechy przekłada się zarówno na rzetelność samej zmiennej, jak i na dopasowanie modelu do danych. Budowa zmiennych została omówiona na przykładzie Skali reakcji na stres oraz Skali hamowania aktywności dziecka.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Preprocessing large datasets using Gaussian mixture modelling to improve prediction accuracy of truck productivity at mine sites
Autorzy:
Fan, Chengkai
Zhang, Na
Jiang, Bei
Liu, Wei Victor
Tematy:
kopalnia
samochód ciężarowy
piasek roponośny
oil sands mining
mine truck productivity
Gaussian mixture model
latent variable
prediction accuracy
relative importance
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/2203342.pdf  Link otwiera się w nowym oknie
Opis:
The historical datasets at operating mine sites are usually large. Directly applying large datasets to build prediction models may lead to inaccurate results. To overcome the real-world challenges, this study aimed to handle these large datasets using Gaussian mixture modelling (GMM) for developing a novel and accurate prediction model of truck productivity. A large dataset of truck haulage collected at operating mine sites was clustered by GMM into three latent classes before the prediction model was built. The labels of these latent classes generated a latent variable. Two multiple linear regression (MLR) models were then constructed, including the ordinary-MLR (O-MLR) and the hybrid GMM-MLR models. The GMM-MLR model incorporated the observed input variables and a latent variable in the form of interaction terms. The O-MLR model was the baseline model and did not involve the latent variable. The GMM-MLR model performed considerably better than the O-MLR model in predicting truck productivity. The interaction terms quantitatively measured the differences in how the observed input variables affected truck productivity in three classes (high, medium, and low truck productivity). The haul distance was the most crucial input variable in the GMM-MLR model. This study provides new insights into handling massive amounts of data in truck haulage datasets and a more accurate prediction model for truck productivity.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal Allocation of the Sample in the Poisson Item Count Technique
Optymalna alokacja próby w badaniu cechy drażliwej
Autorzy:
Bernardelli, Michał
Kowalczyk, Barbara
Tematy:
alokacja optymalna
zmienna ukryta
algorytm EM
cecha drażliwa
pytania pośrednie
eksperyment z listą
optimal allocation
latent variable
EM algorithm
sensitive question
indirect questioning
Poisson item count technique
Pokaż więcej
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Powiązania:
https://bibliotekanauki.pl/articles/660031.pdf  Link otwiera się w nowym oknie
Opis:
Pośrednie metody ankietowania stanowią podstawowe narzędzie stosowane w przypadku pytań drażliwych. Artykuł nawiązuje do nowej, pośredniej metody zaproponowanej w pracy Tiana i wsp. (2014) i dotyczy optymalnej alokacji próby między grupę badaną i kontrolną. W przypadku gdy alokacji dokonuje się w oparciu o estymatory metodą momentów, rozwiązanie optymalne nie nastręcza trudności i zostało podane w pracy Tiana i wsp. (2014). Jednak to estymacja metodą największej wiarogodności ma lepsze własności, w związku z czym wyznaczenie alokacji optymalnej na jej podstawie jest zadaniem, którego rozwiązanie wydaje się mieć większe znaczenie praktyczne. Zadanie to nie jest trywialne, gdyż w przypadku omawianej metody pośredniej drażliwa zmienna badana ma charakter ukryty i jest zmienną nieobserwowalną. Wzór explicite na wariancję estymatora największej wiarogodności nieznanej frakcji cechy drażliwej nie jest dostępny, a sam estymator wyznaczyć można, używając odpowiednich algorytmów numerycznych. Do określenia optymalnej alokacji próby w oparciu o estymatory NW wykorzystane zostały symulacje Monte Carlo oraz iteracyjny algorytm EM
Indirect methods of questioning are of utmost importance when dealing with sensitive questions. This paper refers to the new indirect method introduced by Tian et al. (2014) and examines the optimal allocation of the sample to control and treatment groups. If determining the optimal allocation is based on the variance formula for the method of moments (difference in means) estimator of the sensitive proportion, the solution is quite straightforward and was given in Tian et al. (2014). However, maximum likelihood (ML) estimation is known from much better properties, therefore determining the optimal allocation based on ML estimators has more practical importance. This problem is nontrivial because in the Poisson item count technique the study sensitive variable is a latent one and is not directly observable. Thus ML estimation is carried out by using the expectation‑maximisation (EM) algorithm and therefore an explicit analytical formula for the variance of the ML estimator of the sensitive proportion is not obtained. To determine the optimal allocation of the sample based on ML estimation, comprehensive Monte Carlo simulations and the EM algorithm have been employed.
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies