Der Schutz Ihrer Daten ist uns wichtig!
Wir verwenden Cookies und ähnliche Technologien, um Ihre Erfahrung zu verbessern, die Nutzung der Website zu analysieren und unsere Inhalte kontinuierlich zu verbessern. Durch Klicken auf 'Alle akzeptieren' stimmen Sie der Verwendung dieser Technologien zu. Für weitere Informationen lesen Sie bitte unsere Cookie-Richtlinie.
Blog
2 Min. Lesedauer
KI ermöglicht es Robotern, ihre Umgebung zu sehen, wahrzunehmen und mit ihr zu interagieren, um Probleme der realen Welt zu lösen. Erfahren Sie in diesem Blogartikel, wie das funktioniert.
Viele Kunden fragen uns bei Sereact, wie Roboter in der Lage sind, unbekannte Objekte auf zuverlässige Weise zu handeln. Insbesondere dann, wenn die Objekte unstrukturiert und chaotisch in einem Behälter angeordnet sind. Kann der Roboter also sehen? In gewisser Weise ja. Mit Hilfe von Künstlicher Intelligenz ist es Robotern tatsächlich möglich, ihre Umgebung wahrzunehmen. Im Folgenden werden die wichtigsten Schritte, welche die KI durchläuft, veranschaulicht.
Die Roboterwahrnehmung beschreibt die Fähigkeit eines Roboters, die Umgebung, in der er arbeitet, mit Hilfe von Sensoren wahrzunehmen. Dazu werden häufig Farbkameras oder 3D-Sensoren eingesetzt. Mit Hilfe von Methoden des Deep Learnings können die hochdimensionalen Sensordaten verarbeiten werden, um kompakte Umgebungsrepräsentationen zu erhalten. Dazu werden die aktuellen Sensordaten mit neuronalen Netzen verarbeitet, um z.B. einzelne Objekte zu erkennen oder zu lokalisieren.
Reasoning zielt darauf ab, intelligente Entscheidungen zu treffen und eine übergeordnete Aufgabenplanung durchzuführen, um die Aufgabe zu lösen, z. B. das Picken eines Objekts. Man kann sich das wie eine To-Do-Liste mit mehreren Aufgaben in einer bestimmten Reihenfolge vorstellen. Ansätze des Reinforcement Learnings (RL) werden häufig verwendet, damit Roboter durch Versuch-und-Irrtum-Erfahrungen lernen, intelligente Entscheidungen zu treffen. Bei diesem Prozess interagieren sie mit der Umgebung und können Aktionen und Verhaltensweisen ausprobieren. Nach der Ausführung erhält der Roboter ein Feedback-Signal, das er zur Optimierung seines Verhaltens nutzen kann.
Nachdem der Roboter einen Plan zur Lösung einer Aufgabe ausgearbeitet hat (man denke an die To-Do-Liste), ist der nächste Schritt die Bewegungsplanung. Dabei wird berechnet, wie sich der Roboter geschickt an Hindernissen vorbeibewegt. Dabei ist vor allem die Vermeidung von Kollisionen wichtig, weshalb die Ergebnisse der Wahrnehmung mit einbezogen werden. Dabei werden verschiedene Ziele für die Bewegung berücksichtigt, z.B. dass er die Aufgabe möglichst schnell oder möglichst energieeffizient erledigen soll.
Der letzte Schritt besteht darin, die geplante Bewegung auszuführen. Sensoren und Wahrnehmungsalgorithmen werden eingesetzt, um zu ständig zu überwachen, ob eine unvorhergesehene Situation eintritt. Zum Beispiel, dass das aufgenommene Objekt während der Handhabung verloren geht. In einem solchen Fall wird die laufende Ausführung unterbrochen, um eine neue Lösung für das Teilproblem zu finden. Da sich die Bedingungen des Problems geändert haben, wird die gesamte Pipeline auf Stufe 1 neu gestartet, um die Phasen der Wahrnehmung, des Denkens und der Bewegungsplanung erneut aufzurufen. Ist die Aufgabe des Roboters schließlich erfolgreich abgeschlossen, wird er mit einem kühlen Getränk (bzw. mit einem positiven Feedback) belohnt.