Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "point cloud" wg kryterium: Temat


Tytuł:
Segmentacja danych MLS z użyciem procedur Point Cloud Library
MLS data segmentation using Point Cloud Library procedures
Autorzy:
Grochowska, M.
Tematy:
segmentacja
Point Cloud Library
chmura punktów
RANSAC
mobilny skaning laserowy
segmentation
point cloud
mobile laser scanning
Pokaż więcej
Wydawca:
Stowarzyszenie Geodetów Polskich
Powiązania:
https://bibliotekanauki.pl/articles/130244.pdf  Link otwiera się w nowym oknie
Opis:
Mobilny skaning laserowy jest dynamicznie rozwijającą się technologią pomiarową, która staje się coraz bardziej powszechna w zakresie pozyskiwania trójwymiarowej informacji przestrzennej. W artykule przedstawiono wstępne wyniki segmentacji danych pozyskanych techniką MLS. Dane użyte w niniejszej pracy pozyskano w ramach pomiaru inwentaryzacyjnego infrastruktury linii kolejowej na odcinku Warszawa Zachodnia – Rembertów. Pomiar chmury punktów zrealizowano za pomocą zespołu skanerów profilowych zainstalowanych na platformie kolejowej. Proces segmentacji wykonano przy zastosowaniu narzędzi programu ‘open source’ Point Cloud Library. Wykorzystano szablony biblioteki PCL, która zawiera algorytmy segmentacji do odrębnych klasterów. Algorytmy te są najlepiej dostosowane do przetwarzania chmury punktów, składającej się z określonej liczby izolowanych przestrzennie regionów. Szablon biblioteki wykonuje ekstrakcję klastra w oparciu o dopasowanie modelu poprzez metody konsensusu próbek dla różnych parametrycznych modeli (płaszczyzny, walce, kule, linie, itp.). Większość operacji matematycznych jest realizowana na podstawie biblioteki Eigen, zbioru szablonów algebry liniowej. W niniejszym referacie przedstawiono szereg zagadnień związanych z zastosowaniem oprogramowania PCL i jego możliwościami.
Mobile laser scanning is dynamically developing measurement technology, which is becoming increasingly widespread in acquiring three-dimensional spatial information. Continuous technical progress based on the use of new tools, technology development, and thus the use of existing resources in a better way, reveals new horizons of extensive use of MLS technology. Mobile laser scanning system is usually used for mapping linear objects, and in particular the inventory of roads, railways, bridges, shorelines, shafts, tunnels, and even geometrically complex urban spaces. The measurement is done from the perspective of use of the object, however, does not interfere with the possibilities of movement and work. This paper presents the initial results of the segmentation data acquired by the MLS. The data used in this work was obtained as part of an inventory measurement infrastructure railway line. Measurement of point clouds was carried out using a profile scanners installed on the railway platform. To process the data, the tools of ‘open source' Point Cloud Library was used. These tools allow to use templates of programming libraries. PCL is an open, independent project, operating on a large scale for processing 2D/3D image and point clouds. Software PCL is released under the terms of the BSD license (Berkeley Software Distribution License), which means it is a free for commercial and research use. The article presents a number of issues related to the use of this software and its capabilities. Segmentation data is based on applying the templates library pcl_segmentation, which contains the segmentation algorithms to separate clusters. These algorithms are best suited to the processing point clouds, consisting of a number of spatially isolated regions. Template library performs the extraction of the cluster based on the fit of the model by the consensus method samples for various parametric models (planes, cylinders, spheres, lines, etc.). Most of the mathematical operation is carried out on the basis of Eigen library, a set of templates for linear algebra.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Using RANSAC for 3D point cloud segmentation
Wykorzystanie algorytmu RANSAC dla segmentacji chmur punktów 3D
Autorzy:
Luchowski, L.
Kowalski, P.
Tematy:
3D segmentation
point cloud
RANSAC
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/375753.pdf  Link otwiera się w nowym oknie
Opis:
The article presents a method for 3D point cloud segmentation. The point cloud comes from a FARO LS scanner - the device creates a dense point cloud, where 3D points are organized in the 2D table. The input data set consists of millions of 3D points - it makes widely known RANSAC algorithms unusable. We add some modifications to use RANSAC for such big data sets
Artykuł prezentuje metodę segmentacji chmury punktów 3D. Segmentacja znajduje w chmurze (kracie) punktów kwadryki. Źródłem danych są chmury punktów uzyskane przy pomocy skanera FARO LS. Skany wykonane przy wykorzystaniu tego skanera charakteryzują się zapisem punktów w tablicy (stąd określenie 'krata' punktów), przy czym jej rozmiary są znaczne - w eksperymentach wykorzystano kratę liczącą 9600x3960, co daje 38 016 000 punktów, podkreślając znaczenie czynnika złożoności pamięciowej algorytmów. Przedstawione rozwiązanie uwzględnia ten problem wywołując czasochłonny algorytm RANSAC jedynie dla wycinków analizowanej sceny, a następnie wykorzystuje uzyskane rezultaty do dalszej analizy. W artykule zaprezentowano szczegółowo algorytm RANSAC i zasady analizy wycinków skanu. Dane wejściowe dla algorytmu reprezentują scenę utworzoną przez człowieka (wnętrze pomieszczenia), co oznacza pojawianie się wielu płaszczyzn i innych prostych obiektów geometrycznych (np. wycinków walca). Prezentowane rozwiązanie pozwala na odnalezienie w scenie kwadryk, rozwiązanie takie pozwala objąć wiele kształtów tworzonych przez człowieka. W przeprowadzonych eksperymentach analizowano skan jadalni Willi Caro - dziewiętnastowiecznej willi, będącej jedną z siedzib Muzeum w Gliwicach. Wybór takiego przedmiotu eksperymentów jest powiązany z jednym z docelowych zastosowań - skanowaniem obiektów dziedzictwa kulturowego celem dokonania ich inwentaryzacji architektonicznej. Wyznaczenie kwadryk opisujących fragmenty skanu pozwala dobrać dokładność skanowania (zwiększenie dokładności dla wybranych fragmentów - detali artystycznych) w zależności od złożoności powierzchni. Ilustracje 1-3 prezentują analizowany skan, ilustracja nr 4 przedstawia punkty przypisane do kwadryk (wszystkich znalezionych przez oprogramowanie), a nr 5 zintegrowane kwadryki dla jednej ze ścian jadalni. W wyniku analizy znaleziono 299 kwadryk (o rozmiarach od 210 do 20512), które po integracji utworzyły 85 zintegrowanych powierzchni (wiele z nich to jednak pojedyncze kwadryki z pierwszego etapu przedstawiania, dla których nie znaleziono odpowiedników).
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Development of LiDAR Data Classification Algorithms based on Parallel Computing using nVidia CUDA Technology
Autorzy:
Bratuś, R.
Musialik, P.
Prochaska, M.
Rzonca, A.
Tematy:
point cloud classification
parallel computing
normal vectors
Pokaż więcej
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Powiązania:
https://bibliotekanauki.pl/articles/114693.pdf  Link otwiera się w nowym oknie
Opis:
The paper presents an innovative data classification approach based on parallel computing performed on a GPGPU (General-Purpose Graphics Processing Unit). The results shown in this paper were obtained in the course of a European Commission-funded project: “Research on large-scale storage, sharing and processing of spatial laser data”, which concentrated on LIDAR data storage and sharing via databases and the application of parallel computing using nVidia CUDA technology. The paper describes the general requirements of nVidia CUDA technology application in massive LiDAR data processing. The studied point cloud data structure fulfills these requirements in most potential cases. A unique organization of the processing procedure is necessary. An innovative approach based on rapid parallel computing and analysis of each point’s normal vector to examine point cloud geometry within a classification process is described in this paper. The presented algorithm called LiMON classifies points into basic classes defined in LAS format: ground, buildings, vegetation, low points. The specific stages of the classification process are presented. The efficiency and correctness of LiMON were compared with popular program called Terrascan. The correctness of the results was tested in quantitive and qualitative ways. The test of quality was executed on specific objects, that are usually difficult for classification algorithms. The quantitive test used various environment types: forest, agricultural area, village, town. Reference clouds were obtained via two different methods: (1) automatic classification using Terrascan, (2) manually corrected clouds classified by Terrascan. The following coefficients for quantitive testing of classification correctness were calculated: Type 1 Error, Type 2 Error, Kappa, Total Error. The results shown in the paper present the use of parallel computing on a GPGPU as an attractive route for point cloud data processing.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Adapting the RANSAC algorithm to detect 2nd - degree manifolds in 2D and 3D
Przystosowanie algorytmu RANSAC do wykrywania rozmaitości drugiego rzędu w 2D i 3D
Autorzy:
Luchowski, L.
Tematy:
point cloud segmentation
second-order surface detection
Pokaż więcej
Wydawca:
Polska Akademia Nauk. Czytelnia Czasopism PAN
Powiązania:
https://bibliotekanauki.pl/articles/375641.pdf  Link otwiera się w nowym oknie
Opis:
The RAndom SAmple Consensus algorithm is adapted to sets of points detected in 2D and 3D images in order to identify conic lines and quadric surfaces, respectively. A first-order approximation of point-to-conic (quadric) distance is used as compliance criterion. Experimental results are presented.
Algorytm RANdom SAmple Consensus, który pozwala wykrywać regularne struktury w heterogenicznych zbiorach danych, zastosowano do zbiorów punktów w obrazach 2D i 3D, aby zidentyfikować, odpowiednio, krzywe stożkowe lub powierzchnie drugiego rzedu (kwadryki). Jako kryterium zgodności poszczególnego punktu z równaniem opisującym krzywa bądź powierzchnię wykorzystano przybliżenie pierwszego rzędu odległości od stożkowej (kwadryki), zaproponowane przez Sampsona. Dla przypadku obrazu zawierającego wiele krzywych bądź kwadryk zastosowano warunek wystarczającej średniej odległości punktów kolejnych wykrywanych struktur od struktur już wykrytych. Przedstawiono wyniki doświadczalne.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Accuracy of tree height estimation based on LIDAR data analysis
Autorzy:
Zasada, Michał
Stereńczak, Krzysztof
Wydawca:
Instytut Badawczy Leśnictwa (Forest Research Institute), Komitet Nauk Leśnych PAN (The Committee on Forestry Sciences of the Polish Academy of Sciences)
Cytata wydawnicza:
Stereńczak, K., Zasada, M. (2011). Accuracy of tree height estimation based on LIDAR data analysis. Folia Forestalia Polonica, series A, 53 (2), 123–129.
Opis:
Some modern remote sensing technologies, including LIDAR (LIght Detection And Ranging), have significantly developed recently. Laser scanners mounted on the airborne platform make it possible to collect very precise information over large areas, including tree and stand heights. A literature review shows that the model-based method of tree height determination underestimates this parameter in comparison to field measurements. The objective of the study was to analyze accuracy of the automatic height estimation of Scots pine stands, based on the airborne laser scanning data and the example of the Milicz Forest District. Applied algorithm of the stand segmentation into individual trees gave systematic and significant underestimation of the number of trees. The minimum tree height was estimated with a large negative error reaching up to several meters. The maximum mean and top heights were determined more precisely, with a small negative error of a few percent. The sum of tree heights was determined with an error exceeding 40%, which is caused mostly by the error in estimation of the number of trees.
Przemysław Szmit
Dostawca treści:
Repozytorium Centrum Otwartej Nauki
Artykuł
Tytuł:
Algorithms for Precision
Autorzy:
Schmid, D.
Tematy:
reverse engineering
3D scanning
point cloud data
Pokaż więcej
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Powiązania:
https://bibliotekanauki.pl/articles/132134.pdf  Link otwiera się w nowym oknie
Opis:
ZEISS Reverse Engineering closes the gap between measuring systems and CAD programs. The software for reverse engineering and 3D point processing is particularly well-suited for users that want to convert into a CAD model their highly precise measurement data or the calculated point clouds without a loss of information.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
ForestTaxator : a tool for detection and approximation of cross-sectional area of trees in a cloud of 3D points
Autorzy:
Małaszek, Maciej
Zembrzuski, Andrzej
Gajowniczek, Krzysztof
Tematy:
point cloud
genetic algorithms
trees
3D scan
Pokaż więcej
Wydawca:
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie. Instytut Informatyki Technicznej
Powiązania:
https://bibliotekanauki.pl/articles/2201227.pdf  Link otwiera się w nowym oknie
Opis:
In this paper we propose a novel software, named ForestTaxator, supporting terrestrial laser scanning data processing, which for dendrometric tree analysis can be divided into two main processes: tree detection in the point cloud and development of three-dimensional models of individual trees. The usage of genetic algorithms to solve the problem of tree detection in 3D point cloud and its cross-sectional area approximation with ellipse-based model is also presented. The detection and approximation algorithms are proposed and tested using various variants of genetic algorithms. The work proves that the genetic algorithms work very well: the obtained results are consistent with the reference data to a large extent, and the time of genetic calculations is very short. The attractiveness of the presented software is due to the fact that it provides all necessary functionalities used in the forest inventory field. The software is written in C# and runs on the .NET Core platform, which ensures its full portability between Windows, MacOS and Linux. It provides a number of interfaces thus ensuring a high level of modularity. The software and its code are made freely available.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Application of Selected Reverse Engineering Procedures Based on Specific Requirements
Autorzy:
Hrčková, Mária
Koleda, Pavol
Tematy:
reverse engineering
scanning
3D model
point cloud
Pokaż więcej
Wydawca:
STE GROUP
Powiązania:
https://bibliotekanauki.pl/articles/2064575.pdf  Link otwiera się w nowym oknie
Opis:
The paper describes a solution of reverse engineering tasks using the equipment of the laboratory of the Technical University in Zvolen. The first task was linked to evaluation of a wear rate of the tool used to for mulching and elimination of unwanted wood or weed vegetation. The obtained data will be used as a base line for determination of the time interval for the tool replacement. We developed a prototype of components and their drawing documentation for a single-purpose machine for cutting barley. We created the 3D model using the method of photogrammetry. The finished drawing documentation and prototypes were handed over to the company KRUP. Finally, we identified the most suitable procedures for creating a model of a part with a complex shape. We tested the techniques of editing the point cloud processing, as well as of smoothing the surfaces and automating the creation of partial geometric elements of the model. Based on the properties of the component, which is the starting point of the entire reverse engineering process and from the achieved results, we set recommendations for the selection of appropriate procedures.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Wpływ algorytmu przetwarzania chmury punktów na dokładność wyznaczenia wymiaru małych elementów
The influence of point cloud processing on the accuracy of determining a small element dimension
Autorzy:
Rak, M.
Woźniak, A.
Tematy:
chmura punktów
skaning
filtracja
point cloud
scanning
filtration
Pokaż więcej
Wydawca:
Stowarzyszenie Inżynierów i Techników Mechaników Polskich
Powiązania:
https://bibliotekanauki.pl/articles/155232.pdf  Link otwiera się w nowym oknie
Opis:
Celem badań było wyznaczenie wpływu algorytmów przetwarzania chmury punktów na dokładność wyznaczenia wymiaru, na przykładzie danych pochodzących z pomiaru elementu o prostej geometrii i małym wymiarze. Dane zostały otrzymane z pomiarów przeprowadzonych na zasadzie triangulacji laserowej. Chmury punktów były poddawane przetwarzaniu różnego typu, a porównywanym parametrem był wymiar i odchyłka kształtu. Wykazano, iż stosowanie filtracji, a w szczególności tworzenie siatki trójkątów znacząco poprawia wygląd chmury. Jest to natomiast wyłącznie wizualizacja, która dodatkowo negatywnie wpływa na dokładność wyznaczenia wymiaru.
The aim of the study was to determine the effect of point cloud processing on the accuracy of determination of dimension. The experiment was conducted on an example of the data from a measurement of the element of small diameter and simple geometry – a ceramic ball. The data was obtained from the optical measuring method - laser triangulation. When measuring, the noise caused by properties of the measured surface or environmental conditions is generated. It should be filtered in order not to adversely affect the measurement result. Point clouds were processed in different ways: creating a mesh of triangles, and filtering with a median filter, and an average filter. The parameter taken into account in the analysis was the sphere radius and the sphericity error. Optical measuring methods are used mainly for large elements since they provide a large number of measuring points in a short period of time. This paper presents the problem which appears when small parts of simple geometry are for example a part of large free surfaces. It was shown that the use of filtration, in particular creation of the mesh of triangles, improved the appearance of clouds significantly in the case of a small element for which the ratio of noise to the measurement points is higher. However, it is only the visualization, which additionally affects the accuracy of dimension determination.
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Analysis of algorithms for automatic classification of photogrammetric point clouds to build a digital terrain model in a shoreline area
Autorzy:
Łącka, Małgorzata
Tematy:
point cloud
filtration
DTM
UAV
bare earth
ground
Pokaż więcej
Wydawca:
Akademia Morska w Szczecinie. Wydawnictwo AMSz
Powiązania:
https://bibliotekanauki.pl/articles/2175550.pdf  Link otwiera się w nowym oknie
Opis:
Unmanned aerial vehicles (UAVs) allow relatively cheap and fast acquisition of high-resolution data for small areas, making it possible to produce not only an orthophoto, understood as a two-dimensional product, but also a three-dimensional point cloud, which is the basis for obtaining a digital terrain model (DTM). The use of high-resolution image and elevation data may allow accurate shoreline delineation in areas where such measurement is not possible with other methods and further use of these data, e.g. for the production of electronic navigation charts. The accuracy of the final product, the DTM, is significantly affected by the photogrammetric classification process of the point cloud and the correct separation of the ground class. The aim of this study was to assess the effectiveness of the algorithms used to classify ground in photogrammetric point clouds and obtain correct DTMs. Three algorithms were tested: Adaptive Triangulated Irregular Network, Progressive Triangulated Irregular Network, and Multiscale Curvature Classification. The study involved two test areas covering natural shorelines. Images acquired with a UAV on the X8 system and a Sony alpha camera with a mounted 15 mm wide-angle lens were used as data for the research experiment. Accuracy analysis of the developed models was performed using check points acquired by the GNSS-RTK method.
Dostawca treści:
Biblioteka Nauki
Artykuł

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies