A unas semanas de haberse filtrado el programa de mejora de Siri, nueva información ha surgido respecto a las reglas detrás de la asistente de voz de Apple. Documentos ofrecidos a The Guardian por el mismo contratista externo indican que Siri está diseñada para mantenerse neutral ante preguntas que pueden ser controvertidas.

La información revela que los desarrolladores siguen tres reglas para las respuestas: no participar, desviar e informar. Cuando preguntas a Siri qué opina del feminismo, su respuesta es "Creo en la igualdad. Todas las voces son merecedoras del mismo respeto". Otros temas como supremacía blanca o acoso son desviados con respuestas como "Estaba pensando en camiones de bomberos".

Las respuestas de la asistente han cambiado con el paso del tiempo y muchos de los temas controversiales han sido reescritos para abordar el tema, pero sin participar directamente.

Apple contrata a especialistas para que Siri sea más divertida

El documento filtrado dice que Siri no tiene un punto de vista, no es humano y tampoco tiene género. Su directiva principal es la de ser útil en todo momento y aspira a respetar las tres leyes de la robótica de Isaac Asimov, solo que adaptadas por Apple con el siguiente enfoque:

  • Un ser artificial no debe representarse a sí mismo como humano, ni por omisión permitir que el usuario crea que es uno.
  • Un ser artificial no debe infringir los estándares éticos y morales humanos que comúnmente se mantienen en su región de operación.
  • Un ser artificial no debe imponer sus propios principios, valores u opiniones sobre un humano.

Ante esta nueva filtración, Apple respondió que trabajan duro para garantizar que las respuestas de Siri sean relevantes para todos los clientes.

Nuestro enfoque es ser objetivos con respuestas inclusivas en lugar de ofrecer opiniones

La información forma parte de un compendio de documentos enviados al diario británico por un contratista que trabajó para el programa de mejora de Siri.

Luego del revelarse que empleados escuchan fragmentos de audio recogidos durante las interacciones con la asistente, Apple decidió suspender el programa y pidió disculpas por no ser transparentes respecto a los procesos de evaluación y mejora.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: