
Каждая пятая компания в РФ пострадала от дипфейков, самое опасное – подделка голоса начальника. Как защититься?
-(1).jpg)
Преступники осваивают технологии искусственного интеллекта (ИИ) не менее активно, чем легальные пользователи. Каждая пятая российская компания подверглась успешной атаке с применением дипфейков – технологии, когда преступники с помощью ИИ подделывают голос или изображение и выдают себя за доверенных лиц с целью получения выгоды. Об этом говорят результаты совместного исследования MTS AI и Б1.
Согласно данным исследования, наиболее потенциально опасным каналом в этом отношении являются мессенджеры, а наименее опасным – социальные сети. Наибольшей проблемой стал именно аудиоспуфинг, то есть поддельный голос коллеги или руководителя, сгенерированный ИИ.
79% представителей российского бизнеса, участвовавших в исследовании, отметили, что подмена голоса начальника является самой серьезной угрозой. И это не случайность: звонки (в особенности через мессенджеры) и голосовые сообщения – самый популярный вид деловой коммуникации в России. Социальные сети бизнесом практически не используются, а корпоративные почтовые сервисы, как правило, надежно защищены сервисами служб безопасности.
Дипфейки – относительно новый вид угроз, а любая новая угроза особенно опасна. Примеров успешных атак на бизнес с использованием дипфейков в минувшем году накопилось немало. В 2024 году транснациональная компания, работающая в Гонконге, потеряла 25,6 млн долларов из-за мошенничества при проведении видеоконференции. В ОАЭ с помощью имитации голоса одного из руководителей банка было похищено 35 млн долларов, а в Китае зафиксированы случаи хищений в размере сотен тысяч долларов с помощью поддельных видеоконференций.
В России также участились случаи атак через мессенджер Telegram, когда мошенники создают поддельные аккаунты руководителей компаний для получения конфиденциальной информации и осуществления несанкционированных переводов средств. Помимо этого, есть отдельные случаи, когда злоумышленники создают дипфейк-видео, якобы записанные от лица коллеги, и рассылают их с целью выманивания денег у других сотрудников.
Уровень защиты компаний от подобных угроз остается крайне низким – только 3% представителей бизнеса полностью уверены в безопасности своих предприятий, 13% признают, что не смогут защититься в случае спуфинг-атак, а 38% испытывают сомнения в готовности к ним.


«Дипфейки становятся реальной проблемой, и результаты исследования показывают, что на текущий момент российские компании не готовы к ее решению. По мере развития технологий количество атак с дипфейками будет только расти, поэтому представителям бизнеса очень важно вдумчиво подойти к созданию систем защиты против спуфинга. В этом процессе особое значение приобретает развитие open-source решений, так как именно эти технологии выступают драйвером для всей индустрии, а не только для ее лидеров».
Василий Самсонов
Партнер Б1, Форензик

Главный эксперт «Лаборатории Касперского» Сергей Голованов отмечает, что дипфейки вместе с социальной инженерией стали серьезной и актуальной проблемой не только для бизнеса, но и для частных лиц.
«В прошлом году злоумышленники уже массово использовали дипфейки, ведь так им проще убедить жертву в своей легенде. В таких атаках чаще всего подделывают голосовые сообщения знакомых жертвы. Среди наиболее распространенных схем – случаи, когда злоумышленники создают в Telegram поддельные аккаунты руководителей различных компаний и пытаются с их помощью обмануть сотрудников, чтобы вынудить их перевести деньги на счета атакующих, а часто также взять кредит. Для этого мошенники могут заранее собирать информацию о компании и персонале. В подобных аудиосообщениях голос, похожий на голос руководителя, обычно предупреждает о скором звонке от «регулятора» или «правоохранительных органов». После чего следует уже стандартная схема со звонком якобы от «представителей банка» с предложением перевести средства на «безопасный счет», – говорит Голованов.
По словам руководителя портфеля продуктов VisionLabs Татьяны Дешкиной, речь идет о десятках тысяч атак на корпоративный сектор и физлиц в 2024 году, которые в текущем году могут превратиться в сотни тысяч, потому что данная технология, как и остальной генеративный искусственный интеллект, стремительно развивается. Качество созданного контента растет, а получить доступ к программам генерации голоса и видео становится проще и проще.
«Ущерб начинается от нескольких десятков тысяч и достигает нескольких миллионов рублей в каждом отдельном случае. Еще одна проблема – создание порнографических дипфейков – ущерб от которых сложно определить. Из-за этических аспектов пострадавшие не всегда готовы обратиться в правоохранительные органы, поэтому злоумышленники безнаказанно могут совершить тысячи таких действий, прежде чем их обнаружат», – говорит Дешкина.
Специалисты уже начали разрабатывать способы выявления фальшивых голосов, опираясь на то, что при генерации звуков часто не учитываются особенности реального речевого аппарата (связки, язык, челюсти и губы).
Ведущие технологические и торговые площадки внедряют меры по защите и проверке подлинности данных. Однако, по словам руководителя Trust&Safety Wildberries & Russ Игоря Сомова, пока самая надежная защита – это соблюдение принципов киберосознанности, то есть культуры безопасного поведения, в которой человек ежедневно осознает свою ответственность за сохранность денег и данных и предпринимает необходимые действия для их защиты.
Эксперт советует придерживаться четырех правил, которые помогут избежать ущерба от кибермошенников.
- Использование альтернативного канала связи. Если вам пришло голосовое сообщение или позвонили от лица знакомого человека либо компании с неожиданной просьбой, лучше связаться с этим человеком (или организацией) через другой сервис – например, позвонить с другого номера или написать в мессенджере. Так вы сможете убедиться, действительно ли звонок был от них
- Контрольные вопросы. Если вам звонит знакомый, но что-то кажется подозрительным, попросите его ответить на личный вопрос, ответ на который точно известен только вам двоим. Например, о конкретном событии из прошлого
- Коммуникация только по официальным каналам. При общении с компаниями (банками, интернет-магазинами, службами доставки и т. д.) пользуйтесь только официальными контактами, указанными на их официальных сайтах или в официальных приложениях
- Ограничение доступа к личным материалам. Старайтесь не выкладывать в свободный доступ видео, аудиозаписи и другие материалы, по которым может быть сгенерирован ваш образ или голос. Если это нужно по работе или для общения в соцсетях, настраивайте приватность и доступ только для близких или проверенных людей
Дипфейки – не временная проблема, а устойчивый тренд, который будет развиваться. Поэтому крайне важно сохранять бдительность и формировать навыки кибербезопасности, чтобы в любых сомнительных ситуациях быстро проверять информацию и не поддаваться на уловки мошенников.
Статьи и колонки Б1
Посмотреть все (1).jpg)
35% женщин сами отказались от роста карьеры в 2024 году. В чем причины
66% россиянок уверены, что мужчинам при прочих равных платят больше, а 77% отмечают, что в компаниях нет программ поддержки женщин. Своими размышлениями о том, как на это реагировать бизнесу, делятся эксперты Школы управления «Сколково».
03.02.2025
 (1).jpg)
Устойчивое развитие: главные тенденции, существенные судебные разбирательства
В статье для журнала «Акционерное общество: вопросы корпоративного управления» Наталья Аристова и Марина Малкова, эксперты Группы компаний Б1, рассматривают основные тенденции устойчивого развития в России для 2024 года.
01.02.2025
 (1).jpg)
Будущее платежей – 2025
В статье для журнала Fintech Notes менеджер отдела услуг по повышению эффективности финансовой функции Б1 Юлия Котова перечислила основные тенденции, которые будут влиять на будущее платежей в 2025 году.
31.01.2025
 (1) (1).png)
В сложные времена усиливают свои позиции те, кто не боится рисковать
Интервью с Вильгельминой Шавшиной, партнером Группы компаний Б1, руководителем группы услуг по таможенному регулированию и международной торговле, для издания Russian Business Guide.
17.01.2025
 (1).jpg)
Как мошенники крадут лица и голоса руководителей компаний — «Б1» и MTS AI
21% российских компаний уже столкнулись со спуфингом и дипфейками — кражей лиц и голосов ключевых сотрудников компании, а также поддельными видео и изображениями. Однако отражать такие атаки бизнес по-прежнему не вполне готов, выяснили «Б1» и МТS АI.
17.01.2025
 (1).jpg)
Эволюция агрохолдингов
Российский сельскохозяйственный бизнес адаптировался к вызовам времени, создав эффективные модели управления. Что они из себя представляют, и как выбрать наиболее подходящую, в рамках статьи для журнала «Агроинвестор» рассказал Андрей Буханцов, руководитель направления по оказанию услуг в области трансформации бизнеса для отрасли АПК компании Б1.
15.01.2025
 (1).jpg)
Каждая пятая компания в РФ пострадала от дипфейков, самое опасное – подделка голоса начальника. Как защититься?
Каждая пятая российская компания подверглась успешной атаке с применением дипфейков – технологии, когда преступники с помощью ИИ подделывают голос или изображение и выдают себя за доверенных лиц с целью получения выгоды, сообщает «Российская газета» со ссылкой на совместное исследование MTS AI и Б1.
13.01.2025
 (1) (1).jpg)
ЦФА: драйвер цифровой трансформации финансов
В статье для журнала Fintech Notes менеджер отдела услуг по повышению эффективности финансовой функции Б1 Юлия Котова описала функциональные возможности блокчейна и ЦФА, а также их стратегическое значение для финансового сектора.
13.01.2025
 (1).jpg)
Корпоративное финансирование в современных реалиях (на примере ООО)
В статье для журнала «Акционерное общество» эксперты отдела по оказанию юридических услуг Б1 Анна Евланова и Анна Акулова описали новые особенности внутрикорпоративного финансирования при наличии в составе участников общества нерезидентов из недружественных государств.
01.01.2025
 (1).jpg)
Роль психологии в формировании культуры производственной безопасности
Наталья Ермакова, менеджер отдела услуг в области устойчивого развития Б1, в статье для журнала Business Quarterly поделилась выводами о влиянии и роли психологической составляющей в культуре производственной безопасности.
26.12.2024