Estudiantes UC crean sistema para entender lengua de señas usado por personas sordas
Mediante el uso de visión artificial y aprendizaje automático, NeuroSign emplea MediaPipe y TensorFlow Lite para reconocer gestos captados por una cámara, interpretarlos mediante inteligencia artificial y traducirlos en mensajes audibles de fácil entendimiento
Detalles








