Roboterprojekt/Glossar Begriffserklärungen

Aus Blumenthal 7 Wiki
Zur Navigation springen Zur Suche springen

Cartographer

Cartographer ist ein System, das simultane Lokalisierung und Zuordnung (SLAM) in Echtzeit in 2D und 3D über mehrere Plattformen und Sensorkonfigurationen hinweg ermöglicht.

http://wiki.ros.org/cartographer

https://ardupilot.org/dev/docs/ros-cartographer-slam.html

Cuda

Laut Nvidia basiert Jetson Nano auf der hauseigenen CUDA-X-Technologie. Die „Computer Unified Device Architecture“ ist in der Lage, einzelne Programmteile auf die GPU auszulagern und so den Hauptprozessor zu entlasten. Zudem ist die GPU viel besser für das massenhafte parallele Verarbeiten bestimmter Routinen geeignet. Das beschleunigt die Verarbeitung neuronaler Netze erheblich. Der Clou sei jedoch die Softwarekompatibilität: Laut Talla laufen auf der Nano-Plattform sämtliche Modelle, die ursprünglich für andere auf CUDA-X basierende Plattformen geschrieben.

Gmapping

Das Gmapping-Paket bietet laserbasiertes SLAM (Simultaneous Localization and Mapping) als ROS-Knoten namens slam_gmapping. Mit slam_gmapping können Sie aus einem Laser eine 2D-Belegungsgitterkarte (wie ein Gebäudegrundriss) erstellen und Posen-Daten erstellen, die von einem mobilen Roboter erfasst wurden.

http://wiki.ros.org/gmapping

Hector Slam

http://wiki.ros.org/hector_slam/Tutorials/SettingUpForYourRobot

Lidar

Dieses Paket bietet grundlegende Gerätehandhabung für 2D-Laserscanner RPLIDAR A1 / A2 und A3.

RPLIDAR ist ein kostengünstiger LIDAR-Sensor, der für SLAM-Roboteranwendungen in Innenräumen geeignet ist. Es bietet ein 360-Grad-Scanfeld, eine Drehfrequenz von 5,5 Hz / 10 Hz und einen garantierten Ranger-Abstand von 8 Metern, einen Strom von mehr als 16 m für A2 und 25 m für A3. Durch die von RoboPeak entwickelte Hochgeschwindigkeits-Bildverarbeitungs-Engine werden die Gesamtkosten erheblich reduziert. RPLIDAR ist der ideale Sensor in kostensensitiven Bereichen wie Roboterkonsumenten und Hardware-Hobbyisten.

RPLIDAR A3 führt eine Hochgeschwindigkeits-Entfernungsmessung mit mehr als 16K Abtastwerten pro Sekunde durch, RPLIDAR A2 führt eine Hochgeschwindigkeitsentfernungsmessung mit mehr als 4K / 8K Abtastwerten pro Sekunde durch, RPLIDAR A1 unterstützt 2K / 4K Abtastwerte pro Sekunde. Für einen Scan, der 360 Abtastungen pro Umdrehung erfordert, kann die Scanfrequenz von 10 Hz erreicht werden. Benutzer können die Scanfrequenz von 2 Hz bis 10 Hz frei anpassen, indem sie die Geschwindigkeit des Scanmotors steuern. RPLIDAR passt die aktuelle Scangeschwindigkeit selbst an.

https://de.wikipedia.org/wiki/Lidar

http://wiki.ros.org/rplidar dieser wir hier verwendet

Maschinen Lernen

https://emanual.robotis.com/docs/en/platform/turtlebot3/machine_learning/#ros-1-machine-learning

https://www.cbcity.de/tutorial-neuronale-netze-einfach-erklaert

MatLab

https://de.wikipedia.org/wiki/Matlab

Mit nur wenigen Zeilen MATLAB®-Code können Sie Deep-Learning-Techniken für Ihre Arbeit nutzen, ganz gleich, ob Sie Algorithmen entwerfen, Daten aufbereiten und kennzeichnen oder Code generieren und auf Embedded Systems bereitstellen.

MATLAB bietet folgende Möglichkeiten:

Erstellung, Modifizierung und Analyse von Deep-Learning-Architekturen mithilfe von Apps und Visualisierungstools Vorverarbeitung von Daten und Automatisierung der Ground-Truth-Kennzeichnung von Bild-, Video- und Audiodaten mithilfe von Apps Beschleunigung von Algorithmen auf NVIDIA® -GPUs, in der Cloud und in Rechenzentren, ganz ohne spezielle Programmierung Zusammenarbeit mit Kollegen, die Frameworks wie TensorFlow, PyTorch und MxNet verwenden Simulation und Training von dynamischem Systemverhalten mit Reinforcement Learning Generieren von simulationsbasierten Trainings- und Testdaten aus MATLAB- und Simulink® -Modellen physikalischer Systeme Beginnen Sie mit einem vollständigen Satz von Algorithmen und vorgefertigten Modellen und erstellen und modifizieren Sie dann Deep-Learning-Modelle mit der Deep Network Designer-App. Integrieren Sie Deep-Learning-Modelle für domänenspezifische Probleme, ohne komplexe Netzarchitekturen von Grund auf neu erstellen zu müssen.

Nutzen Sie Techniken zum Finden der optimalen Netzwerk-Hyperparameter sowie die Parallel Computing Toolbox™ und leistungsstarke NVIDIA-GPUs, um diese berechnungsintensiven Algorithmen zu beschleunigen. Verwenden Sie Visualisierungstools in MATLAB und Techniken wie Grad-CAM und Occlusion Sensitivity, um Erkenntnisse zu Ihrem Modell zu gewinnen.

NMEA GPSD

Dieses Paket bietet eine ROS-Schnittstelle für GPS-Geräte, die kompatible NMEA-Sätze ausgeben. Weitere Informationen zum Rohformat finden Sie in der GPSD-Dokumentation der NMEA-Sätze . Von den Tausenden von NMEA-kompatiblen GPS-Geräten stellen wir eine Liste von Geräten zusammen, von denen bekannt ist, dass sie unterstützt werden .

Dieses Paket ist mit dem geographic_info- Projekt sowie allen anderen Knoten kompatibel , die sensor_msgs / NavSatFix und / oder sensor_msgs / TimeReference unterstützen .

Es wird keine C ++ - oder Python-API bereitgestellt, nur eine ROS-API.

Dieses Paket ersetzt das in Fuerte und Groovy vorhandene Paket nmea_gps_driver .

NMEA GPS

http://wiki.ros.org/nmea_gps_driver

Paket veraltet

Dieses Paket wird in ROS Indigo entfernt. Das Paket nmea_navsat_driver ersetzt dieses Paket. Der in diesem Paket enthaltene Knoten nmea_serial_driver sollte ein Ersatz für nmea_gps_driver.py sein.

Veröffentlicht

Dokumentiert

Paket zum Parsen von NMEA-Strings und zum Veröffentlichen eines sehr einfachen GPS-Messgae. Benötigt keinen GPSD-Deamon.

[1]

ROS

ROS Robot Operating System

Sie können mittels ROS eine Verbindung mit Sensoren herstellen. Spezifische Sensoren wie Kameras, LiDAR und IMUs verwenden ROS-Nachrichten, die für die Analyse und Visualisierung in MATLAB-Datentypen konvertiert werden können.

RTAB Map

Dieses Paket ist ein ROS-Wrapper von RTAB-Map (Real-Time Appearance-Based Mapping), einem RGB-D-SLAM-Ansatz, der auf einem globalen Schleifenschließungsdetektor mit Echtzeitbeschränkungen basiert. Dieses Paket kann verwendet werden, um 3D-Punktwolken der Umgebung zu generieren und / oder um eine 2D-Belegungsgitterkarte für die Navigation zu erstellen. Die Tutorials und Demos zeigen einige Beispiele für das Mapping mit RTAB-Map.

http://wiki.ros.org/rtabmap_ros

SLAM

Das Erkunden einer unbekannten Umgebung und das Orientieren in dieser wird von uns Menschen intuitiv verrichtet. Über unsere Sinnesorgane: Augen, Haut, Ohren und Nase nehmen wir Informationen, in Form von Reizen, aus unserer näheren Umwelt auf. Diese Informationen werden in unserem Gehirn kombiniert und zu einer Positionsbestimmung und Charakterisierung unserer Umgebung verarbeitet. Bewusst oder unbewusst erkennen wir markante Merkmale, die wir zu einer räumlichen Beziehung verknüpfen, um eine abstrakte Vorstellung eines Lageplans zu erhalten, mit deren Hilfe, je nach Aufgabe und Ziel, navigiert wird.

Ähnlich wie beim Menschen soll dies auch bei mobilen Systemen erreicht werden. Ohne jegliches Vorwissen soll aus den Daten von Sensoren, die in einer mobilen Systemeinheit integriert sind, bei gleichzeitiger Kartierung der Umgebung durch einfache dreidimensionale Punkte oder komplexere Konstrukte, auf die Position und Orientierung geschlossen werden. Hierbei bezeichnet man den Vorgang der Kartenerstellung im Englischen als mapping und das Erkennen der Position einer mobilen Systemeinheit als self-localisation.

Eine große Herausforderung solcher Systeme ist, dass für eine genaue Positionsbestimmung eine entsprechend detaillierte Karte benötigt wird und für die Generierung einer detaillierten Karte die genaue Position der mobilen Systemeinheit bekannt sein muss. Daraus wird deutlich, dass diese zwei Anforderungen, Kartenerstellung und Selbstlokalisierung, nicht unabhängig voneinander gelöst werden können. SLAM ist somit ein Henne-Ei-Problem, da weder die Karte noch die Position bekannt ist, sondern diese gleichzeitig geschätzt werden sollen.

https://de.wikipedia.org/wiki/Simultaneous_Localization_and_Mapping

Simultaneous Localization and Mapping (SLAM)

SLAM Tollbox

https://index.ros.org/p/slam_toolbox/


Wartungsstatus: Lebensende (Ersetzt durch das Paket nmea_navsat_driver. Wird voraussichtlich in Indigo entfernt.) Betreuer: Eric Perko <eric AT ericperko DOT com> Autor: Eric Perko <eric AT ericperko DOT com>, Steven Martin Lizenz: BSD Quelle: git https://github.com/ros-drivers/nmea_gps_driver.git (Zweig: hydro-devel) Neu in Hydro Dieses Paket ist veraltet und wurde durch das Paket nmea_navsat_driver in ROS Hydro ersetzt. Es wird in ROS Indigo fallen gelassen. .

TF

http://wiki.ros.org/tf/Tutorials

TensorFlow

TensorFlow ist ein Framework zur datenstromorientierten Programmierung. Populäre Anwendung findet TensorFlow im Bereich des maschinellen Lernens. Der Name TensorFlow stammt von Rechenoperationen, welche von künstlichen neuronalen Netzen auf mehrdimensionalen Datenfeldern, sog. Tensoren, ausgeführt werden.

https://de.wikipedia.org/wiki/TensorFlow

orb_slam2

Dies ist eine ROS-Implementierung der ORB-SLAM2-Echtzeit-SLAM-Bibliothek für Monokular, Stereo und RGB-DKameras, die die Flugbahn der Kamera und eine spärliche 3D-Rekonstruktion berechnen (im Stereo- und RGB-D-Fall mit echtem Maßstab). Es ist in der Lage, Schleifen zu erkennen und die Kamera in Echtzeit neu zu lokalisieren. Diese Implementierung entfernt die Pangolin-Abhängigkeit und den ursprünglichen Viewer. Alle Daten-E / A werden über ROS-Themen verarbeitet. Zur Visualisierung können Sie RViz verwenden.

http://wiki.ros.org/orb_slam2_ros