Op Kinect gebaseerd systeem dat herkent wat u doet

Anonim

Op Kinect gebaseerd systeem ontwikkeld dat herkent wat u doet

Wetenschap

Ben Coxworth

8 juli 2011

2 afbeeldingen

Enkele van de activiteiten die het met Kinect uitgeruste systeem kon identificeren (Afbeelding: Cornell University)

Wanneer en wanneer we ooit onze persoonlijke robotassistenten krijgen, zou het prettig zijn om te denken dat we onszelf voor hen zouden kunnen zijn, dingen doen zoals het krassen van onze peuken of het controleren van onze deodorant - omdat ze gewoon robots, toch? Ze zullen niet weten wat we doen. Nou ... dankzij onderzoek dat momenteel wordt uitgevoerd aan de Cornell University, is er al een Microsoft Kinect-systeem dat de activiteiten van mensen correct kan identificeren, op basis van observatie van hun bewegingen. Als dergelijke technologie in een robot is ingebouwd, is het mogelijk dat dit u kan vermanen omdat u met uw mond open kauwt - hoewel het waarschijnlijker is om u te helpen een zwaar voorwerp op te tillen.

In het onderzoeksproject werd de RGBD-camera (rood, groen, blauw, diepte) van de Kinect gebruikt om vier personen te observeren die 12 verschillende activiteiten in vijf verschillende omgevingen uitvoeren - kantoor, keuken, slaapkamer, badkamer en woonkamer. De activiteiten omvatten dingen zoals tanden poetsen, koken, schrijven op een whiteboard, werken op een computer en drinkwater. De gegevens werden door een algoritme gehaald, waarbij activiteiten werden opgesplitst in meer beheersbare subactiviteiten, die bekend staan ​​als een hiërarchisch maximaal Markov-model met entropie. Het stelt in wezen dat als iemand A, B, C en D doet, E waarschijnlijk is wat ze doen. Als het systeem de persoon voor het eerst een trainingsset van de activiteiten had gezien, kon hij die activiteiten herkennen met een nauwkeurigheid van 84, 3 procent in het veld. Als het de persoon niet eerder had gezien, was het in staat om 64, 2 procent nauwkeurigheid beheren.

Personal Assistant-robots die met een dergelijk systeem zijn uitgerust, zouden het in thuiszorgsituaties kunnen gebruiken, controleren of mensen onder hun hoede voldoende water drinken, regelmatig hun tanden poetsen, hun pillen nemen enzovoort. Afhankelijk van de mogelijkheden van de robot, zou het kunnen ingrijpen en helpen als het zag dat de persoon moeite had iets te doen.

In de experimenten was het systeem in staat om te voorkomen dat het werd weggegooid door niet-gerelateerde gebaren, vermengd met de activiteiten, en het leek er niet toe te doen of de persoon die het aan het kijken was links of rechtshandig was. De Cornell-onderzoekers gaven echter toe dat al hun proefpersonen in de open lucht presteerden en was er niet zeker van hoe goed het systeem zou presteren als objecten een deel van zijn blik zouden blokkeren. Ze stelden ook voor dat het beter zou werken als het systeem bepaalde belangrijke voorwerpen (tandenborstels, vorken, enz.) Zou leren herkennen die contextueel zijn voor bepaalde activiteiten.

Bron: I PROGRAMMER

Enkele van de activiteiten die het met Kinect uitgeruste systeem kon identificeren (Afbeelding: Cornell University)

Enkele van de activiteiten die het met Kinect uitgeruste systeem kon identificeren (Afbeelding: Cornell University)