Dispositivo asistente virtual Alexa

Pilla una infidelidad de su novio gracias a Alexa, el asistente virtual de Amazon

Estos dispositivos almacenan archivos de voz con todas las peticiones que le hacemos

Noelia Bertol

«Una mujer ha pillado a su marido poniéndole los cuernos gracias a Alexa«, comenzaba diciendo la usuaria de TikTok @achoesgratis. Esta contaba que la susodicha, que ya tenía sospechas de que algo estaba pasando, decidió revisar el historial de grabaciones del asistente virtual que tenían en casa y, en efecto, ¡descubrió el pastel!

Y es que, si no lo sabes, estos dispositivos graban todas las peticiones que le hacemos. «Resulta que ese aparatito tan bonito y redondito que nos soluciona la vida tan rápidamente graba absolutamente todo lo que decimos«, contaba esta misma usuaria.

«Cuando dices ‘Alexa’, ese es el patrón de inicio de grabación«, añadía. No obstante, otros usuarios que ya han descubierto entre el historial archivos de voz que no corresponden a peticiones como tal.

@achoesgratiss_oficialPillada épica, gracias a ALEXA♬ sonido original – achoesgratis

Esta mujer, llamada Jessica Lowman, pilló la infidelidad de su novio después de descubrir archivos de voz en los que otra mujer que no era ella le hacía peticiones a Alexa. Ella misma contó la experiencia en su cuenta de TikTok. «Ni siquiera sabía que Alexa almacenaba esta mierda», contaba fruto del enfado, si bien este dispositivo le había servido para destapar el engaño de su pareja.

Cómo eliminar los archivos de voz que almacena Alexa

Una experta en ciberseguridad, María Aperador, ya advirtió sobre el peligro de que estos dispositivos almacenen grabaciones con nuestra voz, y es que si bien según las políticas de privacidad de la empresa Amazon no puede hacer uso indebido de estos audios, si nos robaran la cuenta los ciberdelincuentes tendrían carta blanca para usarlos a su antojo.

Si esto sucediera, los ciberdelincuentes podrían acceder a todos nuestros datos «desde móviles a tarjetas de crédito, direcciones y, por supuesto, todos nuestros audios», explica la joven. A su vez con esta información y mediante inteligencia artificial podrían clonar nuestra voz y suplantar nuestra identidad para hacer estafas e incluso abrir cuentas de banco o pedir créditos a nuestro nombre entre otras cosas.

Para borrar estos archivos tenemos que acceder a nuestra cuenta en la aplicación de Alexa. En el apartado de ‘Más’ seleccionamos ‘Configuración’ y a continuación ‘Privacidad de Alexa’. Aquí podremos consultar el historial de voz activando los filtros por fecha. Si seleccionamos ‘Todo el historial’, abajo nos aparece la posibilidad de ‘Eliminar todas mis grabaciones‘. ¡Listo! 

MÁS SOBRE: