Investigadores de varias universidades de los Estados Unidos dicen que Siri ha mejorado sus respuestas en cuanto a emergencias médicas y crisis personales durante el último año, pero aún tiene que seguir mejorando. Un estudio de Stanford realizado hace aproximadamente un año descubrió que los asistentes inteligentes como Siri, Cortana o S Voice solían no estar acertados cuando necesitábamos ayuda de tipo médico, respondiendo con «comentarios frívolos» o realizando una búsqueda en Internet cuando alguien decía cosas como «Estoy deprimido». Adam Miner, el autor principal del estudio, dice que las cosas han mejorado desde entonces.
Según Miner, «Ahora Siri reconoce declaraciones como ‘he sido violad@’ y recomienda ir al National Sexual Assautl Hotline«, algo que, por lo menos en el momento de escribir este post, no ofrece un resultado similar si lo decimos en español. Como siempre, o más de lo que nos gustaría, las mejoras de todo lo relacionado con Apple llegan antes a Estados Unidos, luego a países como Canadá y Australia y luego al resto del mundo.
Siri sigue mejorando, pero aún tiene que hacerlo más
Miner quiere que las compañías creen estándares para reconocer emergencias y ofrecer respuestas apropiadas:
Nuestro equipo lo vio como una oportunidad de crear agentes virtuales conscientes de salud. Llevar a esa persona a la fuente correcta es una victoria para todos.
En estos momentos, todos los asistentes virtuales tienen que mejorar. En el caso de Siri, no sólo tiene que mejorar en cuanto a sus respuestas sobre la salud; también tiene que mejorar su inteligencia artificial, para lo que ayudaría que recordara o pudiera seguir el hilo de una conversación. Este año ha dado un paso adelante importante gracias al lanzamiento de SiriKit y otros SDK por los que podemos, por ejemplo, enviar un WhatsApp pidiéndoselo a Siri.
¿Qué te gustaría que pudiera hacer Siri en un futuro a medio plazo?