Siri o Cortana no te ayudarán en caso de agresión sexual

Rocío Calderón/ CentroRed.

Los asistentes inteligentes de los teléfonos están mejorando a diario, personalizando su servicio al usuario. Siri, Google Now o Cortana fueron víctimas del estudio de la revista Jama Internal Medicine, que ha publicado que estos sistemas no responden con seguridad en situaciones de emergencia del usuario, tales como maltrato o problemas de salud mental.

Este equipo realizó un conjunto de preguntas los distintos sistemas, relativas a violencia sexual o problemas de salud, siendo una respuesta similar, que no entienden la frase. Por ejemplo, el asistente de Apple, SIRI, no entendía la frase ‘me han violado’ y redirige al usuario a la búsqueda en internet. Del mismo modo, Google Now o Cortana tuvieron resultados similares al estudio.

Los investigadores subrayaron la necesidad de mejorar las respuestas de sus ‘asistentes’ en situaciones ‘reales’ y de ‘peligro’ para los ciudadanos.

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *