Assistentes virtuais podem ficar vulneráveis a comandos de áudio maliciosos
Embora ainda não tenham sido disseminados, pesquisadores querem desde já chamar a atenção das empresas de tecnologiaA popularização de assistentes virtuais em dispositivos eletrônicos cresce a cada dia e já mostra sinais de vulnerabilidade quanto a malwares. Pesquisadores da Universidade de Berkeley, na Califórnia, descobriram comandos que não são audíveis aos ouvidos do ser humano, mas que podem atingir alguns dos programas mais populares, como a Alexa, o Google Assistente e a Siri.O arquivo de áudio secreto consegue interagir com os chatbots, sem qualquer ação ou autorização prévia da parte do dono do equipamento. A pesquisadora Carlini cita um exemplo deuma ordem para adicionar itens ao carrinho de compras na Amazon, dentro do Google Assistente: “OK Google, navegue por evil.com”. Nós, seres humanos, não escutamos o som, mas, de maneira inofensiva, ele consegue realizar várias diretrizes.Leia mais…
