Sensores de las emociones que modifican el contexto dependiendo del estado de ánimo del usuario.
Autoemotive es un proyecto del grupo de computación afectiva del MIT basado en la exploración del potencial de las conexiones emocionales con las máquinas. El objetivo de este proyecto es implementar la tecnología que detecta el estado de ánimo a los vehículos, para crear un coche capaz de empatizar con el conductor y mejorar la experiencia al volante.
Complementando la infraestructura existente en la gran mayoría de vehículos con la tecnología de los sensores emocionales del MIT, el coche podría regular la posición del asiento de forma automática, así como suavizar la música y la intensidad de luz del cuadro de mandos o ampliar el alcance de los faros para compensar la pérdida de visión. Todo gracias a la tecnología de reconocimiento facial y a partir de las señales eléctricas de la piel registradas en los sensores integrados en el volante o los tiradores de la puerta.
Este sistema, además de adaptar la situación al contexto de la conducción y al estado de ánimo del conductor, también ayudaría a prevenir todas aquellas situaciones causantes de la mayor parte de accidentes en carretera. Estados de somnolencia en trayectos largos, estrés emocional debido al tráfico o simplemente una pequeña distracción al volante, podría ser detectada por el propio vehículo desencadenando una serie de mecanismos de seguridad que ayuden a controlar la situación.
El reconocimiento facial es uno de los métodos más empleados en la tecnología de detección de estados emocionales. De hecho, se utilizan registros de más de mil millones de expresiones faciales para programar los algoritmos capaces de reconocer y clasificar emociones básicas como la ira o la alegría, con una precisión de hasta el 90%.
Empresas como Afectiva o Emotient, especializadas en el reconocimiento facial, ponen a disposición de empresas y anunciantes su software de detección de los movimientos faciales, con el fin de controlar las reacciones emocionales de los consumidores ante una campaña de publicidad o un producto que se pretende lanzar al mercado.
El desarrollo de sensores emocionales cada vez más sofisticados y con un registro de las métricas de estado de ánimo mucho más completo está dinamizando también el sector de las aplicaciones móviles.
Entre las aplicaciones más destacadas encontramos Moodscope, una app móvil desarrollada por Microsoft para medir el estado de ánimo del usuario con la actividad registrada en el dispositivo y compartirlo a través de su red de contactos. Mappines es otra de las aplicaciones disponibles, que al igual que la anterior, utiliza los sensores internos para determinar la reacción del usuario frente a los estímulos externos y su estado anímico en tiempo real.
La medicina es otro de los sectores interesados en el uso de biosensores, entrenados con técnicas de reconocimiento facial para diagnosticar enfermedades con mayor rapidez y precisión. De hecho, los sensores de la emoción han impulsado nuevas técnicas psiquiátricas para determinar el estado de ánimo de pacientes a partir del reconocimiento de emociones básicas como el miedo o la ira.
La conectividad de estos algoritmos con otro tipo de aplicaciones podrían complementar los denominados asistentes personales, ofreciendo información personalizada en función de su estado anímico. También podría ser útil para saber qué momento es más idóneo para poder hablar con un determinado contacto y establecer el tono adecuado de la conversación, en función de si está alegre o disgustado.
No obstante, algunos expertos señalan que más allá de las bondades del potencial de las conexiones emocionales con las máquinas, hay cuestiones aún por acotar que podrían afectar a la privacidad del usuario.
Imágenes | pixabay