Intelligenter Assistenzroboter mit visueller und auditiver Umgebungssensorik

Konferenz: Ambient Assisted Living - AAL - 2. Deutscher AAL-Kongress mit Ausstellung / Technologien - Anwendungen - Management
27.01.2009 - 28.01.2009 in Berlin

Tagungsband: Ambient Assisted Living - AAL

Seiten: 4Sprache: DeutschTyp: PDF

Persönliche VDE-Mitglieder erhalten auf diesen Artikel 10% Rabatt

Autoren:
Nauth, Peter (Fachhochschule Frankfurt a. M., University of Applied Sciences, Nibelungenplatz 1, D-60318 Frankfurt)

Inhalt:
Heute in der Praxis eingesetzte Roboter können ihre Umwelt in der Regel nur eingeschränkt wahrnehmen. Zukünftige Assistenzroboter, die autonom in einer natürlichen Umgebung operieren und mit Menschen auf natürliche Weise kommunizieren sollen, erfordern umfangreichere Sensorik und die Fusion der Sensordaten. Auf der Basis von Embedded Intelligent Systems zur Spracherkennung und Bildverarbeitung sowie zur Fusion der damit generierten Umfeldinformationen wurde ein intelligenter Assistenzroboter entwickelt. Dieser kann aus mehreren einfachen Objekten, die er mittels einer Kamera sieht, dasjenige auswählen und greifen, das ihm ein Benutzer per Sprachkommando nennt. Die entwickelte Technologie wird derzeit auf einen humanoiden Roboter übertragen.