Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Black-box methods" wg kryterium: Temat


Wyświetlanie 1-2 z 2
Tytuł:
Applying software development black-box, grey-box and white box reverse engineering frameworks to the mechanical industry
Autorzy:
Kernytskyy, Oleh
Kernytskyy, Andriy
Melnyk, Mykhaylo
Łukaszewicz, Andrzej
Pytel, Krzysztof
Banas, Marian
Tematy:
reverse engineering
information technology
framework
White-box methods
Black-box methods
Grey-box methods
Pokaż więcej
Wydawca:
Politechnika Białostocka. Oficyna Wydawnicza Politechniki Białostockiej
Powiązania:
https://bibliotekanauki.pl/chapters/60505989.pdf  Link otwiera się w nowym oknie
Opis:
This study aims to develop a reverse engineering framework for mechanical components, adapting existing IT reverse engineering approaches (Black-box, Grey-box, and White-box) to meet the specific needs of the mechanical industry. The implementation of this framework has the potential to expedite the analysis, optimization, and rebuilding of mechanical systems through enhanced automation, offering significant advantages in various fields, including automotive, aerospace, medical, and construction sectors.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Comparison of explainable AI methods for models based on neural networks
Porównanie mechanizmów tłumaczenia decyzji dla modeli bazujących na siechach neuronowych
Autorzy:
Bałaga, Paweł
Opis:
Utilization of computer-aided techniques is an emerging trend not only in automation of simple, repetitive tasks, but also in areas that were so far reserved for humans. Recent breakthroughs in the field of machine learning resulted in popularizing neural networks in the role of decision support systems in applications related to computer vision, speech and text analysis, autonomous car industry, medical diagnosis and security. High accuracy of neural network-based models compared to many of their traditional counterparts encourages adoption in a wide variety of use cases. Nonetheless, since these are black-box models, the resulting predictions are often difficult to comprehend. Such solutions cannot be applied indiscriminately to areas impacting human lives. Being able to explain black-box model’s results is critical, before allowing it to drive real-world decisions. The current work is focused on a comparison of explainable AI methods, in particular those applicable to models based on neural networks. The thesis is composed of two major parts: the theoretical introduction into concepts related to neural networks and explainable AI, which were heavily used in this research, especially convolutional layers and explanation method internals; and the practical study, in which methods of choice (LIME, SHAP, Anchor) are applied to explaining embeddings obtained by neural networks for affective images. Original author’s contributions comprise the comparison of the aforementioned explanation methods and the introduction of novel metrics, which refer to quality of individual explanations. The author’s custom implementation may allow for automated explanation model assessment and debugging in the early phase of development. Moreover, the author proposed two novel ensemble approaches that combine the strengths of multiple standalone explanation methods in order to produce a supreme model.
Techniki komputerowe są coraz częściej wdrażane nie tylko w celu automatyzacji prostych, powtarzalnych zadań, ale również w obszarach dotąd zarezerwowanych dla ludzi. Niedawny postęp w zakresie uczenia maszynowego przyczynił się do upowszechnienia sieci neuronowych jako modeli decyzyjnych w zagadnieniach związanych z rozpoznawaniem obrazu, analizą mowy i pisma, autonomicznymi pojazdami, diagnostyką medyczną czy systemami bezpieczeństwa. Modele oparte na sieciach neuronowych charakteryzują się dużą skutecznością w porównaniu do wielu metod klasycznych, co zachęca do ich użycia w szerokiej gamie zastosowań. Niemniej jednak, przynależność do grupy metod czarno-skrzynkowych sprawia, że predykcje uzyskane za pomocą sieci neuronowych są zazwyczaj słabo rozumiane. W konsekwencji takie rozwiązania nie mogą być stosowane bezkrytycznie w obszarach wpływających na jakość życia ludzkiego – konieczne jest posiadanie sposobu na objaśnianie wyników otrzymanych z modeli czarno-skrzynkowych. Niniejsza praca koncentruje się na porównaniu metod objaśniających ze szczególnym uwzględnieniem tych, które można aplikować do sieci neuronowych. Praca składa się z dwóch zasadniczych części: teoretycznej – wprowadzającej czytelnika w tematykę sieci neuronowych i interpretowalnych modeli z naciskiem na pojęcia wykorzystane w niniejszej rozprawie, m.in. sieci konwolucyjne i sposoby działania metod objaśniających – oraz praktycznej, która zawiera projekt zastosowania wybranych metod (LIME, SHAP, Anchor) do objaśniania predykcji sieci neuronowych dla obrazów ukazujących zróżnicowane wyrazy ludzkich twarzy. W ramach oryginalnego wkładu autor niniejszego opracowania przedstawił wyniki porównania wyżej wymienionych metod, a także wprowadził definicje metryk, które można odnieść do jakości uzyskanych objaśnień oraz zautomatyzować ich obliczanie. Opracowany sposób może być wykorzystany do wczesnej diagnostyki i oceny jakościowej modeli objaśniających. Ponadto, autor wprowadził dwie propozycje metod “ensemble”, a zatem stanowiących złożenie kilku różnych podejść do objaśniania w celu uzyskania modelu łączącego zalety wielu metod składowych.
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Inne
    Wyświetlanie 1-2 z 2

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies