<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="es">
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Florencia+Clerici</id>
		<title>Proyecto Butiá - Contribuciones del usuario [es]</title>
		<link rel="self" type="application/atom+xml" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Florencia+Clerici"/>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php/Especial:Contribuciones/Florencia_Clerici"/>
		<updated>2026-04-05T21:58:21Z</updated>
		<subtitle>Contribuciones del usuario</subtitle>
		<generator>MediaWiki 1.26.2</generator>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5503</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5503"/>
				<updated>2014-06-25T11:35:01Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:PaletaEscuchar.png]]&lt;br /&gt;
&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
Ejemplo de ejecutar: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;UVaBrpXh3s4&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aclaración: El problema del ultimo bloque que agrega luego de recibir el comando ejecutar ya fue arreglado.&lt;br /&gt;
&lt;br /&gt;
Ejemplo de limpiar bloques: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;85LtJ-DWd5Q&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ejemplo de instrucciones con error al final: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;A5dZr13dnHY&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
* Ampliar la gramática para abarcar mas funcionalidades del TurtleBot.&lt;br /&gt;
* Entrenar el modelo acústico con más personas y en ambientes con ruido.&lt;br /&gt;
* Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5502</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5502"/>
				<updated>2014-06-25T11:33:32Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:PaletaEscuchar.png]]&lt;br /&gt;
&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
Ejemplo de ejecutar: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;UVaBrpXh3s4&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aclaración: El problema del ultimo bloque que agrega luego de recibir el comando ejecutar ya fue arreglado.&lt;br /&gt;
&lt;br /&gt;
Ejemplo de limpiar bloques: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;85LtJ-DWd5Q&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ejemplo de instrucciones con error al final: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;youtube&amp;gt;A5dZr13dnHY&amp;lt;/youtube&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:PaletaEscuchar.png&amp;diff=5501</id>
		<title>Archivo:PaletaEscuchar.png</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:PaletaEscuchar.png&amp;diff=5501"/>
				<updated>2014-06-25T11:33:15Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5439</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5439"/>
				<updated>2014-06-18T16:49:10Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Paleta.png]]&lt;br /&gt;
&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
Ejemplo de ejecutar: http://youtu.be/UVaBrpXh3s4&lt;br /&gt;
&lt;br /&gt;
Aclaración: El problema del ultimo bloque que agrega luego de recibir el comando ejecutar ya fue arreglado.&lt;br /&gt;
&lt;br /&gt;
Ejemplo de limpiar bloques: http://youtu.be/85LtJ-DWd5Q&lt;br /&gt;
&lt;br /&gt;
Ejemplo de instrucciones con error al final: http://youtu.be/A5dZr13dnHY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5438</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5438"/>
				<updated>2014-06-18T16:48:10Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Paleta.png]]&lt;br /&gt;
&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
Ejemplo de ejecutar: http://youtu.be/UVaBrpXh3s4&lt;br /&gt;
Aclaración: El problema del ultimo bloque que agrega luego de recibir el comando ejecutar ya fue arreglado.&lt;br /&gt;
Ejemplo de limpiar bloques: http://youtu.be/85LtJ-DWd5Q&lt;br /&gt;
Ejemplo de instrucciones con error al final: http://youtu.be/A5dZr13dnHY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Gramatica.jpg&amp;diff=5437</id>
		<title>Archivo:Gramatica.jpg</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Gramatica.jpg&amp;diff=5437"/>
				<updated>2014-06-18T16:15:08Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: subió una nueva versión de «Archivo:Gramatica.jpg»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5436</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5436"/>
				<updated>2014-06-18T16:12:14Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Paleta.png]]&lt;br /&gt;
&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5435</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5435"/>
				<updated>2014-06-18T16:11:34Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Paleta.png]]&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Paleta.png&amp;diff=5434</id>
		<title>Archivo:Paleta.png</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Paleta.png&amp;diff=5434"/>
				<updated>2014-06-18T16:10:49Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5433</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5433"/>
				<updated>2014-06-18T16:08:48Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5432</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5432"/>
				<updated>2014-06-18T16:08:00Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
[[Archivo:Gramatica.jpg]]&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Gramatica.jpg&amp;diff=5431</id>
		<title>Archivo:Gramatica.jpg</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Archivo:Gramatica.jpg&amp;diff=5431"/>
				<updated>2014-06-18T16:06:44Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5430</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5430"/>
				<updated>2014-06-18T15:54:04Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
El proyecto consiste en programar mediante instrucciones de voz funcionalidades básicas para el butiá.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
La idea nuestra de elegir este proyecto surge luego de una reunión a la que fuimos donde una maestra que trabaja con niños con capacidades diferentes planteó la necesidad de agregarle funcionalidades al Butiá para poder trabajar con sus alumnos.&lt;br /&gt;
Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática para poder usar las operaciones básicas del robot butiá en TurtleBot&lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
Para realizar nuestro proyecto utilizamos una parte del proyecto CMU Sphinx. &lt;br /&gt;
CMU Sphinx es un sistemas de reconocimiento de voz desarrollado en la Universidad de Carnegie Mellon compuesto por una serie de programas para reconocimiento de voz. &lt;br /&gt;
En nuestro caso utilizamos PocketSohinx que es una biblioteca escrita en c para el reconocimiento de voz basada en SphinxBase, en particular elegimos esta biblioteca por ser liviana, especial si se necesita velocidad y portabilidad.&lt;br /&gt;
También usamos otra herramienta de CMU Sphinx llamada SphinxTrain que sirve para entrenar el modelo acústico. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Los modelos necesarios para el reconocimiento de voz son los siguientes:'''&lt;br /&gt;
&lt;br /&gt;
* Modelo acústico: VoxForge[1]. Contiene la probabilidad de que aparezcan ciertas palabras en un determinado orden. &lt;br /&gt;
&lt;br /&gt;
* Diccionario fonético: Relaciona cada palabra con su fonética.&lt;br /&gt;
&lt;br /&gt;
* Gramática: Define el conjunto de combinaciones de palabras.&lt;br /&gt;
&lt;br /&gt;
'''¿Porque utilizamos VoxForge?'''&lt;br /&gt;
&lt;br /&gt;
A pesar de que existen corpus disponibles para poder crear modelos acústicos, la mayoría (especialmente los grandes y mejor construidos, con los que se podrían construir buenos modelos acústicos) deben ser adquiridos bajo licencias restrictivas. VoxForge es un proyecto que intenta  recoger transcripciones de textos mediante voz para ser usada como herramienta de reconocimiento de voz libre y de código abierto.&lt;br /&gt;
&lt;br /&gt;
'''Creando el modelo de lenguaje'''&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: Dependiendo de la aplicación se usará o bien una gramática (se definen una serie de frases, con un cierto formato) o un modelo de lenguaje (empleado para aplicaciones de dictado), en nuestro caso usamos una gramática ya que solo nos interesa reconocer unas frases determinadas.&lt;br /&gt;
&lt;br /&gt;
'''Gramática:'''&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Adaptando el modelo acústico'''&lt;br /&gt;
Si bien CMUSphinx tiene varios modelos acústicos muy bien preparados, los mismos no están en español. Incluso en voxForge no existe, todavía, un Corpus de voz o un modelo acústico en castellano para poder ser descargado. Lo que hicimos entonces fue grabar a varias personas diciendo las palabras que necesitamos para los comandos.&lt;br /&gt;
&lt;br /&gt;
Para poder adaptar el modelo fue necesario definir lo siguiente:&lt;br /&gt;
* butia-listens.dic: es donde se define el diccionario, todas las palabras que se reconocerán con su correspondiente fonética. &lt;br /&gt;
* butia-listens.fileids - Lista de archivos a entrenar&lt;br /&gt;
* butia-listens.transcription - Transcripción para entrenar, asocia las palabras con los archivos de audio&lt;br /&gt;
* wav - Carpeta con los archivos de audio de las voces grabadas&lt;br /&gt;
&lt;br /&gt;
Luego de tener todas estas cosas definidas adaptamos el modelo usando el script correspondiente [4]&lt;br /&gt;
&lt;br /&gt;
==Preparando la plataforma==&lt;br /&gt;
Pocketsphinx como ya mencionamos es una biblioteca que depende de otra llamada SphinxBase, por este motivo es que se necesita instalar las dos. Entonces, primero que nada instalamos las dos bibliotecas, siguiendo el tutorial en [3].&lt;br /&gt;
&lt;br /&gt;
Luego hay que instalar las dependencias para que puedan funcionar las bibliotecas, es necesario instalar las siguientes:&lt;br /&gt;
*gstreamer&lt;br /&gt;
*gstramer-python&lt;br /&gt;
*pocketshpix-plugin.x86_64&lt;br /&gt;
&lt;br /&gt;
==El programa==&lt;br /&gt;
Para hacer el programa nos basamos en [3]&lt;br /&gt;
Lo que hace el programa es escuchar el micrófono y usando pockesphinx y el modelo adaptado por nosotros devuelve el comando en texto. Luego según el comando elegido se llama al bloque correspondiente. Si el comando es ejecutar detiene el esuchar y ejecuta, si es limpiar borra todos los bloques y sigue escuchando para poder ingresar nuevamente los comandos. &lt;br /&gt;
&lt;br /&gt;
==Paleta==&lt;br /&gt;
La paleta como se ve en la imagen consta de un solo bloque llamado escuchar. Lo que hace este bloque es iniciar el programa que escucha.&lt;br /&gt;
Luego simplemente se comienza a decir las instrucciones. &lt;br /&gt;
&lt;br /&gt;
'''Comandos válidos:'''&lt;br /&gt;
* Empezar&lt;br /&gt;
* Adelante Butiá&lt;br /&gt;
* Atrás Butiá&lt;br /&gt;
* Derecha Butiá&lt;br /&gt;
* Izquierda Butiá&lt;br /&gt;
* Esperar [número] donde número es la cantidad de tiempo a esperar de 1 a 10&lt;br /&gt;
* Limpiar: Borra todos los comandos &lt;br /&gt;
* Ejecutar: Deja de escuchar y ejecuta el programa &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Demo==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
Aprendimos como hacer una platea en turtlebots, como se trabaja con reconocimiento de voz y lo complejo que es esto. &lt;br /&gt;
También vimos la importancia de tener una buena base de datos de voz para que funcione bien, aunque no pudimos lograrlo.&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
Entrenar el modelo acústico con más personas y en ambientes con ruido&lt;br /&gt;
Ampliar a otros idiomas&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] Modelo acustico VoxForge: http://www.voxforge.org/es&lt;br /&gt;
[2] Tutorial Pocketsphinx http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx &lt;br /&gt;
[3] Using PocketSphinx with GStreamer:  http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;br /&gt;
[4] Adapting the default acoustic model: http://cmusphinx.sourceforge.net/wiki/tutorialadapt&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5429</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5429"/>
				<updated>2014-06-18T15:53:25Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: Página blanqueada&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5214</id>
		<title>Paleta para primitivas de reconocimiento de voz en tortuga</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Paleta_para_primitivas_de_reconocimiento_de_voz_en_tortuga&amp;diff=5214"/>
				<updated>2014-05-24T21:40:20Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: Página creada con '==Integrantes==  * Mercedes Marzoa * Florencia Clerici  ==Tutor== * Andrés Aguirre  ==Introducción== A continuación presentamos el proyecto Paleta para primitivas de reconoci...'&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Integrantes==&lt;br /&gt;
&lt;br /&gt;
* Mercedes Marzoa&lt;br /&gt;
* Florencia Clerici&lt;br /&gt;
&lt;br /&gt;
==Tutor==&lt;br /&gt;
* Andrés Aguirre&lt;br /&gt;
&lt;br /&gt;
==Introducción==&lt;br /&gt;
A continuación presentamos el proyecto Paleta para primitivas de reconocimiento de voz en tortuga.&lt;br /&gt;
&lt;br /&gt;
==Motivación==&lt;br /&gt;
El proyecto surge a partir de una reunión del Proyecto Butiá en la que una maestra que trabaja en la escuela (?) planteo la necesidad de contar con una herramienta que le permitiera trabajar a sus alumnos con TurtleBot y el robot butiá. Si bien el proyecto no puede resolver toda la problemática, la idea es que se pueda extender y que quede planteado el problema para motivar otras soluciones.&lt;br /&gt;
&lt;br /&gt;
==Objetivos==&lt;br /&gt;
* Tener un módulo de reconocimiento de voz&lt;br /&gt;
* Definir un gramática básica para poder usar las operaciones básicas del robot butiá en el TurtleBot &lt;br /&gt;
* Integrar el módulo en el TurtleBot&lt;br /&gt;
&lt;br /&gt;
==Desarrollo del problema==&lt;br /&gt;
&lt;br /&gt;
Hay dos tipos de modelos para describir un lenguaje: gramáticos o estáticos. Los modelos gramáticos son muy simples y se utilizan para reconocer comandos y controles. En este caso como se quiere reconocer comandos se define un modelo de lenguaje gramático.&lt;br /&gt;
&lt;br /&gt;
Para poder utilizar la biblioteca de reconocimiento tienen que estar definidos:&lt;br /&gt;
*''butia-listens.gram:'' es donde se define la gramática.&lt;br /&gt;
*''butia-listens.dic:'' es donde se define el diccionario (todas las palabras que se reconocerán).&lt;br /&gt;
*''modelo acustico:'' es lo que va a utilizar la biblioteca como fuente de datos para hacer el reconocimiento.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Una vez se tiene definido lo anterior, podemos empezar a desarrollar el modulo de reconocimiento. El primer paso es instalar la biblioteca y sus dependencias. Para eso hay que descargar: Pocketsphinx y Sphinxbase, siguiendo el tutorial en [1].&lt;br /&gt;
&lt;br /&gt;
La estructura básica del programa que usamos para reconocer se encuentra publicada en [2].&lt;br /&gt;
&lt;br /&gt;
* Describir modulo de escucha&lt;br /&gt;
* Describir proceso de entrenamiento del modelo acústico&lt;br /&gt;
*''butia-listens.transcription:'' es donde asociamos los comandos a reconocer con los archivos de audio.&lt;br /&gt;
* Describir paleta&lt;br /&gt;
* Recorte y video de un ejemplo&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Conclusiones==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Trabajo a futuro==&lt;br /&gt;
* Ampliar la gramática para abarcar mas funcionalidades del TurtleBot&lt;br /&gt;
* Seguir entrenando el modelo acústico&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[1] http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx&lt;br /&gt;
[2] http://cmusphinx.sourceforge.net/wiki/gstreamer&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	<entry>
		<id>http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Espacio_para_grupos_2013&amp;diff=5213</id>
		<title>Espacio para grupos 2013</title>
		<link rel="alternate" type="text/html" href="http://164.73.124.35/inco/proyectos/butia/mediawiki/index.php?title=Espacio_para_grupos_2013&amp;diff=5213"/>
				<updated>2014-05-24T17:46:34Z</updated>
		
		<summary type="html">&lt;p&gt;Florencia Clerici: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Cada grupo debe crearse un link como el del ejemplo a continuación: &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[ejemplo|Nombre Proyecto]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[integracion_ros_butia|Integración de ROS a la plataforma Butiá]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Plugin_colores|Plugin que permita usar la cámara como sensor de colores]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[fut_rob|Futbol de Robots]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[butia_android|Butiá Android II]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Utilización_de_GPS_USB_en_TurtleBlocks|Utilización de GPS USB en TurtleBlocks]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Accesibilidad|Paleta para primitivas de accesibilidad a personas con discapacidad en tortuga]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Paleta para primitivas de reconocimiento de voz en tortuga]]&amp;lt;br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Florencia Clerici</name></author>	</entry>

	</feed>