Diferencia entre revisiones de «Grupo 3»
(→Motivación) |
(→Desarrollo del problema) |
||
Línea 23: | Línea 23: | ||
==Desarrollo del problema== | ==Desarrollo del problema== | ||
− | + | En el [http://www.fing.edu.uy/inco/proyectos/butia/mediawiki/index.php/Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga proyecto anterior] se realizó una extensa investigación del área de reconocimiento de voz, recabándose información e implementándose la paleta en base a ella. | |
+ | La completa explicación sobre el funcionamiento del reconocimiento de voz dentro del proyecto y sobre como fue implementado, se puede leer en la siguiente sección de la wiki anterior [http://www.fing.edu.uy/inco/proyectos/butia/mediawiki/index.php/Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga#Desarrollo_del_problema Desarrollo del problema] | ||
'''Gramática:''' | '''Gramática:''' |
Revisión del 17:51 13 ago 2014
Contenido
Integrantes
- Álvaro Pardo
- Fernando Penadés
Tutor
- Mercedes Marzoa
Introducción
En el año 2013 comenzó un proyecto denominado Paleta para primitivas de reconocimiento de voz en tortuga que tuvo como objetivo el agregar una paleta al TurtleBot que trabaje con reconocimiento de voz. La idea central de ese proyecto fue acercar el Proyecto Butiá a estudiantes con discapacidades físicas tales que no les permitan usar el mouse para manejar el TurtleBots. Se planteó entonces la opción de crear un módulo de reconocimiento de voz que permita programar las funcionalidades del robot mediante comandos de voz. Dicho proyecto inició la investigación del área del reconocimiento de voz, creó la nueva paleta y agregó las primeras funcionalidades a la misma.
El proyecto sobre el que trata esta wiki es una continuación del anteriormente mencionado y tiene como objetivo fundamental el mejorar las funcionalidades del anterior, así como agregar nuevas a la paleta.
Motivación
Nos pareció buena idea continuar con este proyecto, con el fin de mejorarlo y acercarlo más a el objetivo final de insertarlo en el mundo educativo, dando así nuevas posibilidades a los chicos con capacidades diferentes de trabajar con el robot Butiá. Las principales dificultades que notamos a la hora de programar mediante voz con la paleta anterior, pasaban por la imposibilidad de desplazarse por la pantalla (moviendo el scroll) y de deshacer. Creímos conveniente orientar nuestro trabajo hacía la implementación de dichas funcionalidades.
Objetivos
- Agregar varias funcionalidades básicas a las ya existentes.
- Permitir al usuario una más cómoda edición del código, mediante comandos para mover del scroll y la operación "Deshacer".
- Agregar más entrenamiento a las operaciones pre existentes, con el fin de mejorar la capacidad de reconocimiento de las mismas.
Desarrollo del problema
En el proyecto anterior se realizó una extensa investigación del área de reconocimiento de voz, recabándose información e implementándose la paleta en base a ella. La completa explicación sobre el funcionamiento del reconocimiento de voz dentro del proyecto y sobre como fue implementado, se puede leer en la siguiente sección de la wiki anterior Desarrollo del problema
Gramática: La gramática actual es la siguiente:
Paleta
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha. Luego simplemente se comienza a decir las instrucciones.
Comandos soportados desde antes:
- Empezar
- Adelante Butiá
- Atrás Butiá
- Derecha Butiá
- Izquierda Butiá
- Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10
- Limpiar: Borra todos los comandos
- Ejecutar: Deja de escuchar y ejecuta el programa
Comandos nuevos:
- Bajar: Baja el scroll
- Subir: Sube el scroll
- Deshacer
- Por siempre
- Repetir [número] donde número es la cantidad de veces a repetir de 1 a 10
- Fin: Comando utilizado para terminar de poner bloques dentro de una estructura de repetición (Repetir o Por siempre) y comenzar a ponerlos abajo de la misma
Demostración
A continuación se adjunta una demostración de la funcionalidad que permite subir y bajar el scroll mediante los comandos de voz "Subir" y "Bajar"
Finalmente se adjunta una demostración de todas las funcionalidades agregadas en esta iteración.
Conclusiones
Logramos implementar las funcionalidades que nos propusimos y concluímos que aún quedan varias funcionalidades importantes que desarrollar, como las estructuras "if-then-else" y la utilización de cajas. Centramos nuestro trabajo en agregar algunas estructuras básicas, como repetir (de 1 a 10) y por siempre, y funcionalidades de edición, como movimiento del scroll y el deshacer. Esta última es fundamental, dado que el reconocimiento de voz es aún inexacto y es necesario poder volver atrás sin necesidad de borrar todo. El otro objetivo que nos propusimos fue el de mejorar el entrenamiento de las funcionalidades preexistentes. Logramos duplicar la base de datos de voz y mejorar el reconocimiento adecuado de los comandos anteriores. Sin embargo, notamos que todavía hace falta trabajo de entrenamiento para que la paleta pueda ser usada convenientemente.
Trabajo a futuro
- Agregar más funcionalidades básicas y más complejas, como por ejemplo guardado de proyecto, uso de cajas, estructuras "if" y sensores.
- Entrenar aún más el modelo acústico.
- Ampliar a otros idiomas.
Referencias
[1] Modelo acustico VoxForge: http://www.voxforge.org/es
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx
[3] Using PocketSphinx with GStreamer: http://cmusphinx.sourceforge.net/wiki/gstreamer
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt
Plugin
Archivo:Butia listens.zip (31,07 MB)