Virtuální asistenti reagují na skryté příkazy, člověk je neslyší

Podle deníku The New York Times skupina studentů z kalifornské univerzity v Berkeley ukázala, že se mohou v neškodných hudebních nahrávkách či záznamech mluveného slova ukrývat neslyšitelné pokyny pro virtuální asistenty, jimiž jsou Siri, Google Assistant a Alexa, vyvinutá Amazonem nebo Google Assistant. Útočníci by mohli převzít kontrolu nad inteligentní domácností, a to pouze tím, že byste si přehráli konkrétní skladbu s příkazy přes rádio či streamovací platformu. Pomocí metody, se kterou vědci ve Spojených státech a Číně úspěšně experimentují již dva roky a postupně tak dosahují čím dál pokročilejší úrovně propracování, by mohla nepovolaná osoba odeslat peníze z účtu, odemknout dveře, nebo nakupovat na internetu. Více zde.

Podle Carliniho, jednoho z členů výzkumného týmu, zatím nic nenasvědčuje tomu, že by se tyto postupy dostaly mimo světové laboratoře. Dodal ale, že je pouze otázkou času, než je někdo začne zneužívat.

Apple uvedl, že Siri má bezpečnostní prostředky, které útočníkovi neumožňují provádět některé úkony. Jeho inteligentní reproduktor HomePod je navržen tak, že neprovede příkazy jako je odemknutí dveří. Cupertinská společnost navíc poznamenala, že iPhony a iPady musí být nejprve odemčeny, aby mohla Siri provést příkazy, jež přistupují k citlivým datům uživatelů. Více zde.

Začněte ještě dnes řešit Vaše virtuální bezpečí s pomocí našich specialistů na IT bezpečnost. Kontaktujte nás.

Sledujte nás na sociálních sítích -> Facebooklinkedin nebo sdílejte článek -> Facebooklinkedin