〜 卓越した品質へ 〜

人に聞こえない音でSiriやGoogle Nowなどの音声アシスタントに攻撃を加えることができると,中国の研究チームが報告しています。このブログのネタ元はCnet Japanの記事です。記事を読んでいると,かなり恐ろしいことが実現可能になってしまうようです。

どのような攻撃が可能になるかというと,例えばiPhone上のSiriをハッキングすると,FaceTimeで通話をしたり,連絡先にあるメールアドレスにスパムメールを送ったりすることができるようになります。要するに音声アシスタントが実現できる機能は大体利用できると考えて良さそうです。

日本では通勤の電車の中でスマホをいじっている人が多いので,そこに攻撃者が乗り込み複数端末を一気にハッキングして,スパムメール送信の踏み台にしたりするなんて悪用事例が出てこないとも限りません。これはマルウェアを埋め込んでハッキングするのではなく,マイクの機能を利用しているだけですので,防ぐことも難しいです。

端末メーカーに人が聞き分けることができない周波数の音を感知しないようにしてもらうのが対策となりそうです。

防御方法が見つかっていない状態で,このようなハッキングの手口が公表されてしまうと,悪用する人が出てきそうで怖いです。
ちなみに,iPhone6 Plusはこの攻撃を防ぐことができたようです。

私のマドスマは???
マイナーだから攻撃対象外になってくれれればいいのですが。Cortanaが入っているから,攻撃対象になったらダメだろうなぁ。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です