Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "algorytm klasyfikacji" wg kryterium: Temat


Wyświetlanie 1-9 z 9
Tytuł:
Review of modelling approaches for website-related predictions
Przegląd podejść do modelowania przewidywań związanych z witrynami internetowymi
Autorzy:
Mauer, Patryk
Tematy:
machine learning
websites
prediction methods
classification algorithms
uczenie maszynowe
witryny internetowe
metody przewidywania
algorytm klasyfikacji
Pokaż więcej
Wydawca:
Politechnika Lubelska. Wydawnictwo Politechniki Lubelskiej
Powiązania:
https://bibliotekanauki.pl/articles/58907884.pdf  Link otwiera się w nowym oknie
Opis:
This paper researches various modelling approaches for website-related predictions, offering an overview of the field. With the ever-expanding landscape of the World Wide Web, there is an increasing need for automated methods to categorize websites. This study examines an array of prediction tasks, including website categorization, web navigation prediction, malicious website detection, fake news website detection, phishing website detection, and evaluation of website aesthetics.
Ten artykuł naukowy przeprowadza analizę różnorodnych metod modelowania stosowanych do prognozowania aspektów witryn internetowych, zapewniając przegląd tej dynamicznie rozwijającej się dziedziny. Podczas gdy Internet nieustannie się powiększa, nabiera wagi potrzeba stosowania automatycznych metod do klasyfikacji nowo powstających stron internetowych. Zbadano metody zastosowane w szerokim zakresie przewidywań, obejmujących kategoryzację witryn internetowych, prognozowanie zachowań nawigacyjnych użytkowników online, identyfikację stron o złośliwym charakterze, wykrywanie fałszywych informacji, rozpoznawanie prób phishingu oraz ocenę estetycznych aspektów witryn internetowych.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Rule-based Classification of Airborne Laser Scanner Data for Automatic Extraction of 3D Objects in the Urban Area
Autorzy:
Bui, Ngoc Quy
Le, Dinh Hien
Duong, Anh Quan
Nguyen, Quoc Long
Tematy:
point cloud
Lidar data
NDVI index
classification algorithms
3D city
chmura punktów
indeks NDVI
algorytm klasyfikacji
Pokaż więcej
Wydawca:
Polskie Towarzystwo Przeróbki Kopalin
Powiązania:
https://bibliotekanauki.pl/articles/2019227.pdf  Link otwiera się w nowym oknie
Opis:
LiDAR technology has been widely adopted as a proper method for land cover classification. Recently with the development of technology, LiDAR systems can now capture high-resolution multispectral bands images with high-density LiDAR point cloud simultaneously. Therefore, it opens new opportunities for more precise automatic land-use classification methods by utilizing LiDAR data. This article introduces a combining technique of point cloud classification algorithms. The algorithms include ground detection, building detection, and close point classification - the classification is based on point clouds’ attributes. The main attributes are heigh, intensity, and NDVI index calculated from 4 bands of colors extracted from multispectral images for each point. Data of the Leica City Mapper LiDAR system in an area of 80 ha in Quang Xuong town, Thanh Hoa province, Vietnam was used to deploy the classification. The data is classified into eight different types of land use consist of asphalt road, other ground, low vegetation, medium vegetation, high vegetation, building, water, and other objects. The classification workflow was implemented in the TerraSolid suite, with the result of the automation process came out with 97% overall accuracy of classification points. The classified point cloud is used in a workflow to create a 3D city model LoD2 (Level of Detail) afterward.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Zastosowanie termowizji do detekcji nieszczelności w sektorze motoryzacyjnym
The Use of Thermovision for Leak Detection in the Automotive Sector
Autorzy:
Macherzyński, Wojciech
Ochman, Marcin
Kulas, Zbigniew
Dudek, Krzysztof
Didyk, Mateusz
Sroczyński, Dawid
Tematy:
detekcja nieszczelności
lokalizacja nieszczelności
termowizja
algorytm klasyfikacji nieszczelności
leakage detection
leakage localization
thermovision
leakage classification algorithm
Pokaż więcej
Wydawca:
Sieć Badawcza Łukasiewicz - Przemysłowy Instytut Automatyki i Pomiarów
Powiązania:
https://bibliotekanauki.pl/articles/2068624.pdf  Link otwiera się w nowym oknie
Opis:
Coraz bardziej rygorystyczne wymagania w zakresie ochrony środowiska, bezpieczeństwa czy niezawodności wymuszają na firmach z sektora motoryzacyjnego stosowanie efektywniejszych testów potwierdzających wymaganą szczelności komponentów (chłodnic, zbiorników, sprężyn powietrznych itp.). Obecnie stosowane metody niosą ze sobą ograniczenia, które generują otwartość przemysłu motoryzacyjnego na zupełnie nowe sposoby realizacji pomiaru nieszczelności. Zastosowanie kamer termowizyjnych do pomiaru energii cieplnej jest obecnie powszechną praktyką w wielu dziedzinach, a zastosowanie ich do pomiaru nieszczelności zamkniętych ustrojów pozwoliłoby na znaczne skrócenie czasu pomiarów w przypadku zbiorników odkształcalnych, wymagających długich czasów stabilizacji w metodach konkurencyjnych. W artykule opisano zastosowanie termowizji do wykrywania nieszczelności sprężyn gazowych.
Increasing requirements for environmental protection, safety or reliability force automotive industries to use more efficient tests to measure tightness of the components. Currently adapted methods brings limitations which makes automotive industry open for new techniques for leakage tests. Infrared cameras are widely used in various fields. Using them to test leakage of closed-volume systems allows to significantly reduce test time, especially for objects which requires long stabilization times in competitive methods. In the article thermovision usage for leakage detection of gas springs were described.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O pewnych heurystykach dynamicznego dobierania współczynników wygładzania w algorytmach prognozy
On heuristics of dynamic computation of smoothing factors in forecast computing algorithms
Autorzy:
Grabowski, M.
Tematy:
współczynniki wygładzania
heurystyka doboru współczynników
algorytm klasyfikacji
TCP
smoothing factors
heuristics of computation of factors
classic protocol
Pokaż więcej
Wydawca:
Warszawska Wyższa Szkoła Informatyki
Powiązania:
https://bibliotekanauki.pl/articles/91393.pdf  Link otwiera się w nowym oknie
Opis:
Prognozy obliczane przez klasyczne algorytmy wygładzania wykładniczego zależą od przyjętych współczynników (wygładzania wartości α i wygładzania trendu β). Przyjmowane wartości tych współczynników są zazwyczaj inne dla różnych analizowanych danych i często zależą od intuicji i doświadczenia osoby eksplorującej dane. W pracy proponujemy opartą o ideę entropii heurystykę automatycznego obliczania współczynnika α przez powiązanie go z entropią błędu prognozy ostatnich n prognoz. Uważamy, że ta entropia może być przyjęta jako miara systematyczności zachowania się błędu prognozy. Zmodyfikowane wersje algorytmów wygładzania wykładniczego zostały wstępnie przetestowane na 120-stu danych. W przypadku różnych modyfikacji algorytmu podwójnego wygładzania dostajemy na danych testowych nieznacznie lepszy błąd średnio-kwadratowy prognozy (rzędu 5%-8%) i nieznacznie lepszą systematyczność zachowania się błędu prognozy. Mierzona proponowanym sposobem systematyczność błędu prognozy jest wyraźnie lepsza niż w różnych wersjach algorytmów średnich ruchomych. Uważamy, że uzyskane wyniki wstępnego eksperymentu pokazują, że idea zasługuje na dalsze poważniejsze eksperymenty, np. na szeregach czasowych próbek czasu podróży pakietu TCP w połączeniu TCP. Prezentowana idea dynamicznego obliczania współczynnika wygładzania pozwala zaproponować pewną modyfikację algorytmu klasycznej specyfikacji TCP obliczania czasu oczekiwania na potwierdzenie (ang. Retransmission Time Out).
Some of the classic algorithms computing forecasts depend on accepted smoothing factors (value smoothing factor α and trend smoothing factor β). Usually, accepted values of these factors are different for different analyzed data. It happens quite often that they depend on intuition and experience of data explorer. We propose a heuristics of dynamic computation of the factor α based on entropy of some recent forecast’s errors. We think that this entropy can be used as a measure of error stability. The modified versions of algorithms have been tested on the 120 element data set. Several modifications of classic algorithms give considerably better mean forecast error (order of magnitude 5%-8%) compared with the classic versions of algorithms. The forecast error stability is clearly better than for moving mean classic algorithms. We propose also the modification of the classic TCP protocol algorithm for computing retransmission time out. The modification is based on the introduced here idea of using forecasts’ error entropy.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparative evaluation of the different data mining techniques used for the medical database
Autorzy:
Kasperczuk, A.
Dardzińska, A.
Tematy:
data mining
classification
WEKA
J48
MLP
apriori
association rules
baza wiedzy medycznej
eksploracja danych
algorytm klasyfikacji
Pokaż więcej
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Powiązania:
https://bibliotekanauki.pl/articles/386432.pdf  Link otwiera się w nowym oknie
Opis:
Data mining is the upcoming research area to solve various problems. Classification and finding association are two main steps in the field of data mining. In this paper, we use three classification algorithms: J48 (an open source Java implementation of C4.5 algorithm), Multilayer Perceptron - MLP (a modification of the standard linear perceptron) and Naïve Bayes (based on Bayes rule and a set of conditional independence assumptions) of the Weka interface. These classifiers have been used to choose the best algorithm based on the conditions of the voice disorders database. To find association rules over transactional medical database first we use apriori algorithm for frequent item set mining. These two initial steps of analysis will help to create the medical knowledgebase. The ultimate goal is to build a model, which can improve the way to read and interpret the existing data in medical database and future data as well.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
CCR: A combined cleaning and resampling algorithm for imbalanced data classification
Autorzy:
Koziarski, M.
Woźniak, M.
Tematy:
machine learning
classification algorithms
imbalanced data
preprocessing
oversampling
uczenie maszynowe
algorytm klasyfikacji
dane niezrównoważone
wstępne przetwarzanie danych
Pokaż więcej
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Powiązania:
https://bibliotekanauki.pl/articles/329869.pdf  Link otwiera się w nowym oknie
Opis:
Imbalanced data classification is one of the most widespread challenges in contemporary pattern recognition. Varying levels of imbalance may be observed in most real datasets, affecting the performance of classification algorithms. Particularly, high levels of imbalance make serious difficulties, often requiring the use of specially designed methods. In such cases the most important issue is often to properly detect minority examples, but at the same time the performance on the majority class cannot be neglected. In this paper we describe a novel resampling technique focused on proper detection of minority examples in a two-class imbalanced data task. The proposed method combines cleaning the decision border around minority objects with guided synthetic oversampling. Results of the conducted experimental study indicate that the proposed algorithm usually outperforms the conventional oversampling approaches, especially when the detection of minority examples is considered.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Methodology for the Construction of a Rule-Based Knowledge Base Enabling the Selection of Appropriate Bronze Heat Treatment Parameters Using Rough Sets
Metodyka budowy regułowej bazy wiedzy umożliwiającej dobór odpowiednich parametrów obróbki cieplnej brązów z zastosowaniem zbiorów przybliżonych
Autorzy:
Górny, Z.
Kluska-Nawarecka, S.
Wilk-Kołodziejczyk, D.
Regulski, K.
Tematy:
application of information technology to the foundry industry
heat treatment
classification algorithms
rough sets
data mining
zastosowanie technologii informatycznych dla przemysłu odlewniczego
obróbka cieplna
algorytm klasyfikacji
zbiory przybliżone
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/353780.pdf  Link otwiera się w nowym oknie
Opis:
Decisions regarding appropriate methods for the heat treatment of bronzes affect the final properties obtained in these materials. This study gives an example of the construction of a knowledge base with application of the rough set theory. Using relevant inference mechanisms, knowledge stored in the rule-based database allows the selection of appropriate heat treatment parameters to achieve the required properties of bronze. The paper presents the methodology and the results of exploratory research. It also discloses the methodology used in the creation of a knowledge base.
Decyzje dotyczące odpowiedniej metody obróbki cieplnej brązów mają wpływ na uzyskanie końcowych własności tych materiałów. W pracy przedstawiono przykład budowy bazy wiedzy z zastosowaniem teorii zbiorów przybliżonych. Wiedza zgromadzona w bazie reguł umożliwia za pomocą mechanizmów wnioskowania dobór odpowiednich parametrów obróbki w celu uzyskania pożądanych własności brązu.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Opracowanie pakietu oprogramowania analizatora kształtu impulsów dla detektorów promieniowania
Development and implementation of an impulse shape analysis software bundle for radiation detectors
Autorzy:
Ziąbek, Marcin
Opis:
Tematem niniejszej pracy było przygotowanie pakietu oprogramowania umożliwiającego akwizycję danych podczas eksperymentów fizycznych opierających się na detekcji promieniowania jonizującego. Podstawowe rozwiązania tego typu polegają na estymacji energii danego impulsu, a następnie utworzeniu stosownego histogramu. Przy braku filtracji sygnału z przetwornika ADC, ostateczny wynik może okazać się zbyt niskiej jakości, aby mógł być wykorzystywany w dalszej analizie. Biorąc pod uwagę, że w trakcie pomiaru dostępny jest tylko zdigitalizowany przebieg czasowy każdego zmierzonego impulsu, warto skorzystać z dodatkowych informacji. Cechą charakterystyczną tego projektu jest dodanie nowej warstwy filtracji, której zadaniem jest przeanalizować dany impuls oraz opisać go zdefiniowanymi parametrami. Są one następnie używane do rozróżnienia impulsów poprawnych od szumu.Niniejszy projekt, oprócz wprowadzenia wspomnianej warstwy abstrakcji, zakłada utworzenie dodatkowych modułów pomocniczych, np. modułu związanego z obsługą urządzenia pomiarowego, wyznaczeniem energii impulsu, czy też podglądem statystyk pomiaru w czasie rzeczywistym. Celem pobocznym był również rozwój funkcjonalności oferowanych przez istniejące już oprogramowanie, na przykład obsługę wyliczania statystyk w czasie rzeczywistym, czy wizualizację danych.Niniejsza praca została podzielona na kilka sekcji. Pierwsza z nich omawia tło teoretyczne związane z projektem. Następnie przedstawiono tematykę tworzenia oprogramowania z użyciem najnowszych technologii oraz wzorców projektowych. Skupiono się również na warstwie interfejsu użytkownika, a także omówiono najistotniejsze kwestie implementacyjne. Ostatecznie, zaprezentowano budowę i działanie aplikacji wraz z przykładem zastosowania.
The aim of this thesis was to prepare a software bundle used for data acquisition during physical experiments based on detection of ionizing radiation. The most common solutions estimate the energy of a given impulse and store that information in the form of a histogram. If the signal from the ADC converter is not refined, the final quality of the result may be too low to be used in further analysis. The basis of operation is the fact that during the measurement process, the digitalized signal is available. An appropriate data model can be created and used during impulse classification in order to distinguish valuable data from background noise.This project introduces several new abstraction layers in addition to existing software. For instance, it was necessary to create a special algorithm in order to communicate with and control the newly created measuring device. Another module is focused on the determination of impulse energy with supplementary analysis process in order to obtain the parameters used in model creation and classification. The secondary objective was to improve and expand the capabilities of actual software such as providing real-time statistics and data visualisation.The document has been divided into several chapters. The first one explains the theoretical background related to the project. Then, the most relevant software development techniques are presented, especially topics connected to the modern technologies and design patterns. The main part of the document concentrates on the graphical user interface and discusses the most important issues encountered during the implementation. The end contains a short summary along with a reference to the objectives set.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
Tytuł:
Model klasyfikacji wiedzy w przedsiębiorstwie produkcyjnym przy zastosowaniu algorytmu Bayes’a
Autorzy:
Dudek, A.
Patalas-Maliszewska, J.
Tematy:
model klasyfikacji wiedzy
gromadzenie danych
algorytm Bayes’a
model knowledge classification
collect data
Bayesian algorithm
Pokaż więcej
Wydawca:
Politechnika Koszalińska. Wydawnictwo Uczelniane
Powiązania:
https://bibliotekanauki.pl/articles/118404.pdf  Link otwiera się w nowym oknie
Opis:
W artykule podjęto próbę zbudowania modelu klasyfikacji wiedzy w przedsiębiorstwie produkcyjnym w oparciu o algorytm Bayes’a. Pozyskiwanie, gromadzenie i przechowywanie danych i informacji działu obsługi serwisowej, możliwe jest za pomocą autorskiej aplikacji, której struktura została również przedstawiona w niniejszym artykule. Na podstawie danych i informacji zawartych w zgłoszeniach serwisowych, rejestrowanych w aplikacji, możliwe jest generowanie zdefiniowanej wiedzy. W konsekwencji, proponowany model klasyfikacji wiedzy, przy zastosowaniu algorytmu Bayes’a, daje możliwość zbudowania zbiorów użytecznej wiedzy.
This article elaborates a model of knowledge classification using a Bayesian algorithm in a manufacturing company. Further was illustrated an application, that enables you to collect, search and analyze data and information from a service department. Based on the data and information registered in the application, it is possible to generate a defined knowledge. Consequently, the proposed model for the classification of knowledge, using a Bayesian algorithm gives the opportunity to build the sets of useful knowledge.
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-9 z 9

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies