Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "probability estimation" wg kryterium: Temat


Tytuł:
System rekomendacji doboru wag kryteriów oparty na ich charakterystyce probabilistycznej
System Supporting the Decision Criteria Weights Specification Based on Their Probabilistic Characteristics
Autorzy:
Brzostowski, Jakub
Roszkowska, Ewa
Tematy:
Badania operacyjne
Negocjacje
Szacowanie prawdopodobieństwa
Negotiations
Operations research
Probability estimation
Pokaż więcej
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Powiązania:
https://bibliotekanauki.pl/articles/592720.pdf  Link otwiera się w nowym oknie
Opis:
A tool for supporting the negotiator during the process of the analysis of own preferences and the analysis of the preferences of the potential partner is proposed in this work. The approach is based on the construction of the collective preferences model for a selected negotiator's profile in the form of multivariate probability distribution over the space of negotiation issue weights vectors. In the process of user interaction with the system the ranges of issue weights are modified that allows for the decomposition of the general multi-variate distribution into series of uni-variate distributions corresponding to single issues. Such distributions conditionally depend on the issue weight ranges set by the decision-maker for all the remaining issues. Moreover, in the work we consider the possibility of constructing the collective preferences model in a continuous form in the case normally distributed weights for some sets of issues. The data from the Negotiation Support System Inspire [Kersten 1999] were used to examine the normality of the issue weights distribution for different issue sets.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Specialized, MSE-optimal m-estimators of the rule probability especially suitable for machine learning
Autorzy:
Piegat, A.
Landowski, M.
Tematy:
machine learning
rule probability
probability estimation
m-estimators
decision trees
rough set theory
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Powiązania:
https://bibliotekanauki.pl/articles/205508.pdf  Link otwiera się w nowym oknie
Opis:
The paper presents an improved sample based rule- probability estimation that is an important indicator of the rule quality and credibility in systems of machine learning. It concerns rules obtained, e.g., with the use of decision trees and rough set theory. Particular rules are frequently supported only by a small or very small number of data pieces. The rule probability is mostly investigated with the use of global estimators such as the frequency-, the Laplace-, or the m-estimator constructed for the full probability interval [0,1]. The paper shows that precision of the rule probability estimation can be considerably increased by the use of m-estimators which are specialized for the interval [phmin, phmax] given by the problem expert. The paper also presents a new interpretation of the m-estimator parameters that can be optimized in the estimators.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Big data-driven framework for viral churn prevention: a case study
Autorzy:
Lucantoni, Laura
Antomarioni, Sara
Bevilacqua, Maurizio
Ciarapica, Filippo E.
Tematy:
Big Data Analytics
Machine Learning
Probability Estimation Trees
Customer Value Management
ICT sector
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/406954.pdf  Link otwiera się w nowym oknie
Opis:
The application of churn prevention represents an important step for mobile communication companies aiming at increasing customer loyalty. In a machine learning perspective, Customer Value Management departments require automated methods and processes to create marketing campaigns able to identify the most appropriate churn prevention approach. Moving towards a big data-driven environment, a deeper understanding of data provided by churn processes and client operations is needed. In this context, a procedure aiming at reducing the number of churners by planning a customized marketing campaign is deployed through a data-driven approach. Decision Tree methodology is applied to drow up a list of clients with churn propensity: in this way, customer analysis is detailed, as well as the development of a marketing campaign, integrating the individual churn model with viral churn perspective. The first step of the proposed procedure requires the evaluation of churn probability for each customer, based on the influence of his social links. Then, the customer profiling is performed considering (a) individual variables, (b) variables describing customer-company interactions, (c) external variables. The main contribution of this work is the development of a versatile procedure for viral churn prevention, applying Decision Tree techniques in the telecommunication sector, and integrating a direct campaign from the Customer Value Management marketing department to each customer with significant churn risk. A case study of a mobile communication company is also presented to explain the proposed procedure, as well as to analyze its real performance and results.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Heterogeneous distance functions for prototype rules : influence of parameters on probability estimation
Autorzy:
Blachnik, M.
Duch, W.
Wieczorek, T.
Tematy:
prototype rules
probability estimation
heterogeneous distance functions
similarity-based methods
classification
data mining
Pokaż więcej
Wydawca:
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Powiązania:
https://bibliotekanauki.pl/articles/92882.pdf  Link otwiera się w nowym oknie
Opis:
An interesting and little explored way to understand data is based on prototype rules (P-rules). The goal of this approach is to find optimal similarity (or distance) functions and position of prototypes to which unknown vectors are compared. In real applications similarity functions frequently involve different types of attributes, such as continuous, discrete, binary or nominal. Heterogeneous distance functions that may handle such diverse information are usually based on probability distance measure, such as the Value Difference Metrics (VDM). For continuous attributes calculation of probabilities requires estimations of probability density functions. This process requires careful selection of several parameters that may have important impact on the overall classification of accuracy. In this paper, various heterogeneous distance function based on VDM measure are presented, among them some new heterogeneous distance functions based on different types of probability estimation. Results of many numerical experiments with such distance functions are presented on artificial and real datasets, and quite simple P-rules for several heterogeneous databases extracted.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Revisiting the optimal probability estimator from small samples for data mining
Autorzy:
Cestnik, Bojan
Tematy:
probability estimation
small sample
minimal error
m-estimate
estymacja prawdopodobieństwa
mała próbka
błąd minimalny
Pokaż więcej
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Powiązania:
https://bibliotekanauki.pl/articles/330350.pdf  Link otwiera się w nowym oknie
Opis:
Estimation of probabilities from empirical data samples has drawn close attention in the scientific community and has been identified as a crucial phase in many machine learning and knowledge discovery research projects and applications. In addition to trivial and straightforward estimation with relative frequency, more elaborated probability estimation methods from small samples were proposed and applied in practice (e.g., Laplace’s rule, the m-estimate). Piegat and Landowski (2012) proposed a novel probability estimation method from small samples Eph√2 that is optimal according to the mean absolute error of the estimation result. In this paper we show that, even though the articulation of Piegat’s formula seems different, it is in fact a special case of the m-estimate, where pa = 1/2 and m = √2. In the context of an experimental framework, we present an in-depth analysis of several probability estimation methods with respect to their mean absolute errors and demonstrate their potential advantages and disadvantages. We extend the analysis from single instance samples to samples with a moderate number of instances. We define small samples for the purpose of estimating probabilities as samples containing either less than four successes or less than four failures and justify the definition by analysing probability estimation errors on various sample sizes.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Przydatność prawdopodobieństwa subiektywnego do kalkulacji stóp składek w ubezpieczeniach obowiązkowych odpowiedzialności cywilnej zawodowej
Usefulness of Subjective Probability to Calculate Premiums in the Obligatory Civil Professional Insurance
Autorzy:
Wieteska, Stanisław
Tematy:
Składki ubezpieczeniowe
Szacowanie prawdopodobieństwa
Ubezpieczenia majątkowe
Ubezpieczenia obowiązkowe
Compulsory insurance
Insurance premium
Probability estimation
Property insurance
Pokaż więcej
Wydawca:
Uniwersytet Ekonomiczny w Katowicach
Powiązania:
https://bibliotekanauki.pl/articles/586361.pdf  Link otwiera się w nowym oknie
Opis:
In the years 2003-2009 the several acts of law concerning obligatory insurance of various professional groups were created. Insurances protect these groups especially from errors that occur during performing work. The article presents the problem of difficulties in calculating the contribution rates as a result of lack of data. But in order to calculate the rate of contribution the article attempts to use of subjective probability.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal estimator of hypothesis probability for data mining problems with small samples
Autorzy:
Piegat, A
Landowski, M.
Tematy:
estymacja prawdopodobieństwa
interpretacja częstotliwości prawdopodobieństwa
interpretacja kompletności prawdopodobieństwa
teoria niepewności
single case problem
probability estimation
frequency interpretation of probability
completeness interpretation of probability
uncertainty theory
Pokaż więcej
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Powiązania:
https://bibliotekanauki.pl/articles/330967.pdf  Link otwiera się w nowym oknie
Opis:
The paper presents a new (to the best of the authors' knowledge) estimator of probability called the "[...] completeness estimator" along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik's m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the [...] completeness estimator over the frequency estimator for the probability interval ph (0.1, 0.9). The frequency estimator is better for ph [0, 0.1] and ph [0.9, 1].
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of Estimators of a Probability of Success in Two Models
Porównanie estymatorów prawdopodobieństwa sukcesu w dwóch modelach
Autorzy:
Zieliński, Wojciech
Tematy:
estimation of probability of success
binomial model
negative binomial model
Pokaż więcej
Wydawca:
Uniwersytet Łódzki. Wydawnictwo Uniwersytetu Łódzkiego
Powiązania:
https://bibliotekanauki.pl/articles/904811.pdf  Link otwiera się w nowym oknie
Opis:
In modeling two valued phenomena a binomial or negative binomial model is applied. In the paper minimum variance unbiased estimators of a probability of success obtained in two models are compared.
Do modelowania zjawisk dychotomicznych wykorzystuje się model dwumianowy lub model ujemny dwumianowy. W pracy porównano estymatory nieobciążone o minimalnej wariancji prawdopodobieństwa sukcesu w tych dwóch modelach.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Hugo Steinhaus problem of estimation of the war casualities on the base of contemporary press obituaries
Autorzy:
Kopocińska, Ilona
Kopociński, Bolesław
Tematy:
Steinhaus of obituaries method, inflated geometric probability distribution, binomial dilution, parameter estimation
Pokaż więcej
Wydawca:
Polskie Towarzystwo Matematyczne
Powiązania:
https://bibliotekanauki.pl/articles/748320.pdf  Link otwiera się w nowym oknie
Opis:
Przedmiotem noty jest próba rekonstrukcji, wzmiankowanej we wspomnieniach Hugona Steinhausa, metody oszacowania strat wojennych w armii Niemieckiej Rzeszy podczas drugiej wojny światowej przy wykorzystaniu ówczesnych nekrologów prasowych .Zakładając dla wielkości rodziny niemieckiej rozdęty rozkład geometryczny i wprowadzając pewne przekształcenia tej zmiennej losowej oraz biorąc pod uwagę rozkład treści nekrologów, wskazujemy na możliwość oszacowania frakcji poległych w armi.
In the memoirs of Professor Hugo Steinhaus the problem of estimation of the war casualties of German Army during the SecondWorldWar on the base of contemporary press obituaries is mentioned.A ssuming the inflated geometric probability distribution function for the size of German family, introducing some transformations of this random variable and taking into account the probability distribution function of the contens of obituaries we propose in the note a solution of the problem.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
An aggregate criterion for selecting a distribution for times to failure of components of rail vehicles
Zagregowane kryterium wyboru rozkładu czasu douszkodzenia elementów pojaz dów szynowych
Autorzy:
Selech, Jarosław
Andrzejczak, Karol
Tematy:
time to failure
estimation of probability distribution
reliability of rail vehicles
czas do uszkodzenia
estymacja rozkładu prawdopodobieństwa
niezawodność pojazdów szynowych
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Polskie Naukowo-Techniczne Towarzystwo Eksploatacyjne PAN
Powiązania:
https://bibliotekanauki.pl/articles/1365224.pdf  Link otwiera się w nowym oknie
Opis:
This paper presents an aggregate method of selecting a theoretical cumulative distribution function (CDF) for an empirical CDF. The method was intended to identify the time of reliable operation of a renewable technical object by applying three criteria based on the following statistics: the modified Kolmogorov–Smirnov (MK-S) statistic, the mean absolute deviation of the theoretical CDF from the empirical CDF, and a statistic calculated on the basis of a log-likelihood function. The values of these statistics were used to rank eleven probability distributions. The data for which calculations were made concerned failures of the driver’s cab lock recorded during five years of operation of a fleet of 45 trams. Before calculating the statistics, the empirical CDF of the examined component was determined using the Kaplan–Meier estimator, and then, using the method of Maximum Likelihood Estimation, the parameters of the analysed theoretical distributions were estimated. The theoretical distributions were then ranked according to the values obtained for each of the assumed criteria: the lower the value for a given criterion, the higher the ranking position, indicating a better fit according to that criterion. Then, based on the three rankings and on weights assigned to the individual criteria, an aggregate criterion (referred to as DESV) was implemented to select the best-fitting probability distribution. The method assumes that the lowest DESV value corresponds to the best-fitting theoretical distribution. In the case of the examined component, this was found to be the generalised gamma distribution. It is shown that if the final decision is based on the aggregate criterion, which takes into account the three criteria for goodness of fit, the reliability of the estimation of the time-to-failure distribution increases, and thus mistakes resulting from the use of only one of the criteria can be avoided.
W pracy przedstawiono zagregowaną metodę doboru dystrybuant hipotetycznych do dystrybuanty empirycznej. Metoda miała na celu identyfikację czasu niezawodnej pracy odnawialnego obiektu technicznego poprzez zastosowanie trzech kryteriów, w których użyto następujących statystyk: zmodyfikowanej statystyki Kołmogorowa-Smirnowa (MK-S), statystyki średniego odchylenia bezwzględnego dystrybuanty hipotetycznej od empirycznej oraz statystyki obliczanej na podstawie zlogarytmowanej funkcji wiarygodności. Wartości tych statystyk posłużyły do rangowania jedenastu rozkładów prawdopodobieństwa. Dane dla których dokonano obliczeń dotyczyły uszkodzeń zamka kabiny motorniczego jakie odnotowano w ciągu pięciu lat użytkowania floty 45 tramwajów. Przed obliczeniem statystyk wyznaczono dystrybuantę empiryczną badanego elementu przy pomocy estymatora KaplanaMeiera, a następnie przy użyciu metody największej wiarygodności oszacowano parametry uwzględnionych w badaniach rozkładów hipotetycznych. Po wyznaczaniu parametrów nastąpiło rangowanie rozkładów hipotetycznych według wartości otrzymanych dla każdego z przyjętych kryteriów, im mniejsza wartość dla danego kryterium tym wyższa pozycja w rankingu, świadcząca o lepszej jakości dopasowania według danego kryterium. Po ustaleniu rankingu według kryteriów zgodności, każdemu z kryteriów zgodności dopasowania dystrybuant modelowych do empirycznej nadano wagi. Następnie na podstawie uzyskanych trzech rankingów oraz wag nadanych poszczególnym kryteriom zgodności wyznaczana jest zagregowana miara zgodności (oznaczona DESV), która służy do wyznaczania najlepszego rozkładu prawdopodobieństwa. W prezentowanej metodzie przyjęto, że najmniejsza wartość DESV wyznacza najlepiej dopasowany rozkład hipotetyczny. W przypadku badanego elementu rozkładem tym okazał się uogólniony rozkład gamma. Pokazano, że na podstawie zagregowanego kryterium uwzględniającego trzy statystyki zgodności dopasowania zwiększa się wiarygodność estymacji rozkładu czasu pracy do uszkodzenia, unikając tym samym błędów jakie można popełnić uzależniając się tylko od jednej z nich.
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies