JA Joel Aparicio
Funcional Complejidad Media 2025

AI/ML

Computer Vision Gesture Controller

Sistema de reconocimiento de gestos en tiempo real para traducir movimientos de mano en acciones de escritorio usando vision por computadora.

Caso

Computer Vision Gesture Controller

Proyecto academico orientado a vision por computadora aplicada.

Notas del caso

Este proyecto fue una forma de explorar vision por computadora aplicada a interaccion humano-computadora desde una base pragmatica. En lugar de ir directo a un modelo entrenado, el enfoque fue construir un pipeline heuristico que permitiera capturar, interpretar y reaccionar en tiempo real con una webcam convencional.

El valor del caso esta en la traduccion de landmarks a reglas utiles: estados de dedos, distancias geometricas y decisiones que desembocan en acciones concretas sobre el sistema. Aunque es un proyecto academico, el flujo muestra una lectura bastante clara de tiempo real, feedback visual y separacion entre deteccion y actuacion.

Tambien deja ver sus propios limites, y eso para mi suma. No todo proyecto tecnico debe maquillarse como si ya fuera producto final; aqui tiene mas sentido mostrar lo que funciona, donde estan las fragilidades y por que el siguiente paso natural seria robustecer estabilidad y control temporal.

Puntos clave

  • Seguimiento de landmarks de mano en tiempo real desde webcam con visual feedback sobre el frame.
  • Clasificacion de gestos mediante estados de dedos y distancias geometricas entre landmarks.
  • Integracion directa con acciones del sistema como navegacion, zoom, undo/redo y capturas.

Stack

    Python OpenCV MediaPipe NumPy PyAutoGUI