Общество

Аналитик Ульянов: Никто не застрахован от дипфейков со своим участием

19 февраля 2024, 19:10 — Общественная служба новостей — ОСН

Мошенники могут использовать дипфейки для того, чтобы вводить своих жертв в заблуждение. При этом как-либо застраховаться от создания своей цифровой копии современный пользователь не может, поскольку необходимые для этого технологии доступны всем, пускай и не всегда бесплатно. Распознать качественный дипфейк также может быть затруднительно, особенно для не разбирающегося в этом человека. Об этом Общественной службе новостей рассказал руководитель аналитического центра компании Zecurion, эксперт по кибербезопасности Владимир Ульянов.

Ранее американский стартап OpenAI презентовал свою новую разработку – нейросеть Sora, которая может создавать реалистичные видеоролики исходя из текстовых запросов. Пугающий реализм генерируемых искусственным интеллектом видео породил среди пользователей сети бурные обсуждения о возможности применения этой инновационной технологии злоумышленниками для создания так называемых дипфейков – изображений, аудиозаписей или видео с участием людей, которые не давали на это согласия.

«Инструменты [распознавания дипфейков] не будут доступны широкому кругу лиц».

Ульянов отметил, что сейчас нейросети активно развиваются, и в будущем этот процесс будет только ускоряться: технологии будут становиться все более совершенными и доступными, а результат – все более точным и реалистичным. При этом реального способа регулировать применение нейросетей и распространение сгенерированных ими файлов на данный момент не существует, равно как и отсутствуют доступные способы идентификации качественных дипфейков, указал он.

«Есть, конечно, инструменты для этого, но они, скажем так, не тривиальны и не очень доступны. Наверное, так же, как и сами инструмент для создания этих самых видеороликов [дипфейков]. Если ты хочешь добиться какого-то базового уровня, то можно и бесплатно или за недорого его получить, но если нужно качество, то в создание такого видео все-таки нужно будет вложиться. Соответственно, для того чтобы распознать его, нужно или обладать высокой квалификацией и самостоятельно изучать это видео буквально по кадрам, или использовать специальные инструменты и средства, которые помогали бы выявлять какие-то несоответствия. Но подобные инструменты не будут доступны широкому кругу лиц», — говорит собеседник издания.

Основная опасность дипфейков – помимо того, что с помощью них можно создать «компромат» практически на любого человека – заключается в том, что их могут использовать злоумышленники для обмана своих потенциальных жертв. Так, уже сейчас некоторые пользователи мессенджеров сталкиваются с тем, что мошенники, взламывая аккаунты и рассылая с них просьбу прислать деньги на подставной счет, используют технологии генерации речи для подделывания голосовых сообщений якобы от владельца учетной записи. В перспективе, они могут дополнить свои схемы видео-дипфейками, чтобы еще эффективнее усыплять бдительность потенциальных жертв, указал Ульянов. «В этом случае конверсия у мошенников может быть очень высокая», говорит он.

«Только надеяться, что вас это не затронет».

«Что касается того, как с этим бороться – у меня, честно говоря, какого-то рецепта нет. Только надеяться, что вас это не затронет, потому что, если человек захочет сделать [дипфейк с вами], и он будет обладать достаточным материалом, он это сделает. Если мы говорим о публичных людях, образы которых достаточно легко можно получить, то в этом случае практически нет способов, как уберечь себя», — отметил эксперт.

Так, средством борьбы с дипфейками могла бы стать маркировка производимого нейросетями контента, однако искушенные мошенники, скорее всего, найдут способ обойти это ограничение, заметил Ульянов. Поэтому эффективная тактика противодействия дипфейкам и регулирования ИИ-контента появится только со временем, когда связанная с ними проблематика будет четко обозначена, а к решению вопроса будут подключены сами компании-разработчики нейросетей, заметил Ульянов.

Поделиться
Андрей Марков

Корреспондент. Окончил журфак СПбГУ, публиковался в университетской газете. Работал корреспондентом в Федеральном агенстве новостей и в ряде местных изданий.

Последние статьи

Число вахтовых вакансий на Дальнем Востоке выросло на 10%

По данным сервиса hh.ru, которые приводит vostokmedia, в первом квартале 2026 года спрос на вахтовых сотрудников на Дальнем Востоке продолжил расти. Число таких предложений увеличилось на 10% по сравнению с…

% дней назад

Топ-менеджер «Яндекса» погиб во время рыбалки в Волгоградской области

Топ-менеджер «Яндекса» Сергей Лойтер и волгоградский застройщик Александр Назаров пропали во время рыбалки в Светлоярском районе Волгоградской области. Об этом пишет РИА Новости. В силовых структурах уточнили, что Лойтер найден…

% дней назад

Путин потребовал не зацикливаться на контрпродуктивных запретах

Глава государства Владимир Путин высказался о введении запретов в России. Слова политика прозвучали на заседании Совета законодателей. Путин согласился, что страна сталкивается с беспрецедентными вызовами, которые должна достойно преодолевать. Однако…

% дней назад

Сенатор Карасин: наконец-то здравый смысл начинает прослеживаться в ФРГ

Председатель комитета Совета Федерации по международным делам Григорий Карасин заявил, что в политических кругах Германии начинает проявляться здравый подход в отношении России. Так в бесед с «Лентой.ру» он прокомментировал прозвучавший…

% дней назад

Экономист Разуваев: паспорт ЕАЭС нужен России для преодоления нехватки кадров

С 2021 по 2025 год число граждан, составляющих кадровый резерв страны, снизилось с 7 млн до 4,4 млн человек. Такие данные приводят аналитики службы «Финэкспертиза». Под кадровым резервом понимаются не…

% дней назад

Два российских вуза получили предостережения от Рособрнадзора

Два вуза получили предостережения от Роспотребнадзора в связи с выявленными нарушениям обязательных норм. Об этом в понедельник, 27 апреля, сообщает ведомство в своем канале в «Макс». В публикации, в частности,…

% дней назад