Este proyecto consiste en el control de un robot lego NXT, utilizando una interfaz natural de usuario, basada en el movimiento de las manos que indicará la posición del Lego NXT; arriba, abajo, izquierda, derecha, adelante, atrás y movimientos diagonales sin tener contacto físico con el dispositivo . El control para el robot Lego NXT se realizó de manera remota gracias al Kinect que capta los movimientos del cuerpo humano en tiempo real, este dispositivo capta los movimientos realizados por el cuerpo, en este caso, el de las manos gracias a un sistema de detección en conjunto, como la cámara RGB, un sensor de profundidad y un infrarrojo, los cuales permiten obtener imágenes en 3D y se obtienen puntos característicos del cuerpo humano, como lo son las articulaciones (hombros, rodillas, manos, codos, pies, cuellos y entre otros). El software del sensor Kinect permitió acoplar este dispositivo al ordenador gracias a su amplia librería y trabajar en conjunto con Processing. Luego de tener estas etapas elaboradas, se procedió a vincular las órdenes del sensor, con los respectivos movimientos, arriba, abajo, izquierda, derecha, adelante, atrás y además de movimientos diagonales y todo el sistema se comunica por conexión bluetooth.