Segmentacja mapy głębi i obrazu wideo na potrzeby generacji semantycznej mapy otoczenia

Projekt dotyczy autonomicznej percepcji mobilnego systemu zrobotyzowanego. Celem jest analiza map głębi (skanów laserowych) i stowarzyszonych z nimi obrazów kolorowych, pozyskiwanych przez robota podczas ruchu w środowisku wewnętrznym.

Projekt dotyczy autonomicznej percepcji mobilnego systemu zrobotyzowanego. Celem jest analiza map głębi (skanów laserowych) i stowarzyszonych z nimi obrazów kolorowych, pozyskiwanych przez robota podczas ruchu w środowisku wewnętrznym. Zakłada się, że wyniki analizy takich danych przyjmą postać semantycznej mapy 3D otoczenia. Dane będą uzyskane na potrzeby dwóch scenariuszy działania robota:

  1. omijania przeszkód podczas dojazdu korytarzem do obiektu-celu w warunkach występowania obiektów-przeszkód,
  2. chwytania wybranego obiektu położonego na stole lub podłodze w warunkach współwystępowania innych obiektów. W ramach projektu wyróżnimy 3 zagadnienia badawcze:
    • Wyznaczanie mapy 3D w oparciu o fuzję danych z mapy głębi i obrazu wideo.
    • Segmentacja mapy 3D i klasyfikacja wybranych obiektów.

Okres realizacji: 01.07.2012 – 15.12.2012

Koordynator: Przemysłowy Instytut Automatyki i Pomiarów PIAP