Как обнаружить жесты в OpenKinect (с оболочками python)

Я начал изучать разработку OpenKinect, и для начала я пытаюсь понять, как искать определенные жесты, сделанные человеком.

Есть ли какие-либо учебники о том, как это сделать? Или что было бы хорошим местом для начала?

Я просто пытаюсь делать такие вещи, как знать, когда человек поворачивает свою руку в одном или другом направлении, например. Хотя, конечно же, я бы очень признателен за любую помощь!

UPDATE: из того, что я могу сказать, я скорее всего использую рамки OpenNI/NITE, в дополнение к оболочкам ONIPY Python. Поэтому, если нет лучшей структуры, мне просто нужно выяснить, как сделать свои собственные жесты сейчас.

Ответы

Ответ 1

Я не уверен, что это будет именно то, что вы хотите, но мой брат использовал библиотеку OpenNI/NITE, чтобы распознать некоторые жесты на Kinect, используя Ruby. Я увидел демо, что мой брат сделал, где компьютер узнал, что он дает компьютеру волну.

В этой библиотеке есть привязки Python с проект onipy, но я лично его не использовал. Я подозреваю, что все-таки может понадобиться какая-то работа, но я обязательно посмотрю на нее. Возможно, вам захочется прочитать документацию на сайте OpenNI.