В чем проблема? Анонимный источник отметил, что в некоторых случаях Siri записывает пользовательский язык после ложных активаций, передает Arstechnica.

Читайте также: Какую музыку украинцы чаще всего искали в Shazam: интересная статистика

Пробуждает виртуального помощника фраза "Hey, Siri", но анонимный источник сообщил о том, что запись может быть активирована похожими по звучанию словами или даже шумом грома.

Также сообщается, что в смарт-часах Apple Watch автоматическая активация Siri происходит тогда, когда устройство слышит язык.

Было собрано множество записей в ходе частных бесед с врачами, при проведении коммерческих сделок и прочее. Эти записи сопровождались пользовательскими данными, раскрывающими местоположение и контактную информацию,
– отметил анонимный источник.

Реакция компании Apple. Представители Apple заявили о том, что компания делает шаги, которые позволяют защитить пользователей от связи с записями, которые передаются подрядчикам.

Они отметили, что аудиозаписи не связаны с Apple ID, а разработчиками проверяется менее 1% ежедневных активаций Siri.

Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно