Presentando SEmotion

Uno de los campos que he estado explorando este año ha sido el de las aplicaciones para móviles. Aunque en un principio la convergencia ha sido a través de Ionic Framework, utilizando la tecnología de AngularJS, durante los últimos meses he empezado a experimentar con la tecnología Android.

Un poco de contexto

Mi objetivo, en un principio, era aprender y adentrarme en un campo con bastante futuro (y bastante colapsado a día de hoy) Pero también pretendía suplir una necesidad que me había surgido desde que soy padre.

Desde el día que mi hijo nació he intentando entender que le pasaba cuando simplemente lloraba. Al principio, las opciones eran bastante limitadas: tenía hambre, le dolía algo o había que cambiarle el pañal. Con el paso del tiempo esas opciones se han ido ampliando hasta llegar a un punto en el que puedes no saber que necesita realmente el niño.

Por eso, empecé a buscar por la red investigaciones al respecto, opiniones de expertos en niños pequeños, psicólogos infantiles, profesores, etc.. consulté con algunos conocidos que también son padres y pude comprobar que todos ellos tenían la misma necesidad.

La aplicación

inocentada-2015Con este contexto me planteé que se podrían utilizar la multitud de sensores que a día de hoy tiene un teléfono móvil para intentar descifrar las emociones latentes en su entorno. Aunque es una idea ambiciosa que no solo se queda en el ámbito infantil, mi primer objetivo era conseguir medir el patrón de emociones de un bebé.

Por supuesto, no iba a ser un trabajo sencillo, los móviles en principio, están preparados para captar nuestra posición, movimientos, etc.. pero no los del entorno que nos rodea. Ahí es donde, investigando, encontré a dos alumnos del MIT que estaban desarrollando un proyecto para el departamento de robótica y consistía en parametrizar el entorno y traducir esos datos para poder ser utilizados.

Tras ponerme en contacto con ellos y comentarles mi idea, pudimos comprobar que una manera de utilizar esos datos era transformarlos en sensaciones, normalmente los utilizaban para que el robot realizará alguna acción, pero ¿por qué no transmitir una sensación y dejar que el humano reaccione según mejor le convenga?

Y ese iba a ser el objetivo de la aplicación que estaba creando, transmitir las sensaciones y dejar el poder de decisión en la persona que está utilizando la aplicación. Si sabes lo que está pasando, sabes como reaccionar.

Siguientes pasos

Aunque la programación de la aplicación está bastante avanzada, es demasiado compleja para ser acometida por una única persona, así que desde aquí me gustaría pedir ayuda. Mejor si es una persona con conocimientos de desarrollo con iOS, dado que sería importante poder lanzar la aplicación en ambos soportes.

Como puede verse en la captura de pantalla, la interfaz gráfica es totalmente inexistente y estoy trabajando con un prototipo bastante básico. La ayuda de un diseñador con experiencia en UI/UX sería muy agradecida. No puedo ni imaginar la mejor manera de transmitir algo tan importante y personal como las sensaciones.

Agradecimientos

Lograr desarrollar una aplicación tan compleja he requerido mucho trabajo, por supuesto, la principal fuente de inspiración ha sido mi hijo, pero muchos amigos y conocidos me han mostrado su opinión y apoyo durante los últimos meses.

Agradecer también el trabajo que llevan realizando durante años los estudiantes To Feel Trao y Jo Rando, del MIT. Estoy seguro que pronto su esfuerzo se verá reflejado en multitud de proyectos en el campo de la robótica.

Actualización: indudablemente se trataba de la ya típica y clásica broma del 28 de diciembre.