Skip to content

BLOG

Novedades, ideas y reflexiones varias.

Asistentes de voz, confidencialidad e intimidad

Decía Marc Andreesen (Netscape) allá por 2016 que, en el ansia de Amazon por desplegar una plataforma propia para el recabado de datos a gran escala, el fracaso de su teléfono móvil (Fire Phone) ayudó a la empresa a centrar toda su atención en el esfuerzo más tímido y focalizado de desplegar altavoces inteligentes (Echo), poniendo a Alexa (su asistente de voz) muy por delante de Siri/Apple y forjando un importante liderazgo en inteligencia artificial aplicada al reconocimiento de voz, hoy al alcance de cualquier empresa como servicio en nube (Lex) en el seno de Amazon Web Services.

De sobra ha sido comentado que todas las empresas trabajando en el entrenamiento de algoritmos de inteligencia artificial para el reconocimiento de voz han recurrido, sin excepción, a la asistencia manual de personas físicas. Lo cual abre un debate interesante: a los riesgos inherentes al tratamiento automatizado presente y futuro de todos los datos que uno pueda confiar a su asistente inteligente se suma la violación de confidencialidad característica de la propagación de información entre personas físicas.

La medalla de la incoherencia se la ha llevado en cualquier caso Apple. Habiendo justificado con su respeto a la privacidad el menor entrenamiento (y más primitivo estado) de Siri, ha terminado siendo el jugador menos transparente y más incapaz de garantizar al usuario el control sobre sus propios datos. A diferencia de Amazon, no solo ha ocultado en su política de protección de datos la existencia de verificadores manuales, sino que además no ha facilitado el acceso a las grabaciones realizadas, o una opción para su eliminación.

Como algunas declaraciones anónimas han demostrado, los datos expuestos han tocado la esfera más íntima de sus usuarios, frecuentemente objeto de grabación inesperada por la activación errónea de Siri en sus relojes inteligentes (Apple Watch) o iPhones en situaciones que oscilan entre el ámbito doméstico y el altamente sensible de una consulta médica.

En fin, algo así como:

  • Siri funciona mal porque no recaba tantos datos como los demás (posiblemente justificable)
  • Como no funciona bien, se activa todo el tiempo (pensando que ha sido invocado), lo cual exige una verificación manual de que realmente se solicita su asistencia
  • La vergüenza asociada a esta secuencia (o peor aún, una cultura de mínima transparencia) provoca su ocultación, que a su vez resulta en una violación de confianza, intimidad y confidencialidad posiblemente más grave que la que hubiera podido resultar de un recabado más amplio y transparente de datos para empezar.

Puede que algunas empresas no estén cultural y organizativamente preparadas para enarbolar la bandera de la privacidad, aunque no dependan del mercado publicitario para subsistir.

Share on twitter
Share on facebook
Share on linkedin