test

Общество

Аналитик Ульянов: Никто не застрахован от дипфейков со своим участием

19 февраля 2024, 19:10
pixabay.com
19 февраля 2024, 19:10 — Общественная служба новостей — ОСН

Мошенники могут использовать дипфейки для того, чтобы вводить своих жертв в заблуждение. При этом как-либо застраховаться от создания своей цифровой копии современный пользователь не может, поскольку необходимые для этого технологии доступны всем, пускай и не всегда бесплатно. Распознать качественный дипфейк также может быть затруднительно, особенно для не разбирающегося в этом человека. Об этом Общественной службе новостей рассказал руководитель аналитического центра компании Zecurion, эксперт по кибербезопасности Владимир Ульянов.

Ранее американский стартап OpenAI презентовал свою новую разработку – нейросеть Sora, которая может создавать реалистичные видеоролики исходя из текстовых запросов. Пугающий реализм генерируемых искусственным интеллектом видео породил среди пользователей сети бурные обсуждения о возможности применения этой инновационной технологии злоумышленниками для создания так называемых дипфейков – изображений, аудиозаписей или видео с участием людей, которые не давали на это согласия.

«Инструменты [распознавания дипфейков] не будут доступны широкому кругу лиц».

blockquote

Ульянов отметил, что сейчас нейросети активно развиваются, и в будущем этот процесс будет только ускоряться: технологии будут становиться все более совершенными и доступными, а результат – все более точным и реалистичным. При этом реального способа регулировать применение нейросетей и распространение сгенерированных ими файлов на данный момент не существует, равно как и отсутствуют доступные способы идентификации качественных дипфейков, указал он.

«Есть, конечно, инструменты для этого, но они, скажем так, не тривиальны и не очень доступны. Наверное, так же, как и сами инструмент для создания этих самых видеороликов [дипфейков]. Если ты хочешь добиться какого-то базового уровня, то можно и бесплатно или за недорого его получить, но если нужно качество, то в создание такого видео все-таки нужно будет вложиться. Соответственно, для того чтобы распознать его, нужно или обладать высокой квалификацией и самостоятельно изучать это видео буквально по кадрам, или использовать специальные инструменты и средства, которые помогали бы выявлять какие-то несоответствия. Но подобные инструменты не будут доступны широкому кругу лиц», — говорит собеседник издания.

Основная опасность дипфейков – помимо того, что с помощью них можно создать «компромат» практически на любого человека – заключается в том, что их могут использовать злоумышленники для обмана своих потенциальных жертв. Так, уже сейчас некоторые пользователи мессенджеров сталкиваются с тем, что мошенники, взламывая аккаунты и рассылая с них просьбу прислать деньги на подставной счет, используют технологии генерации речи для подделывания голосовых сообщений якобы от владельца учетной записи. В перспективе, они могут дополнить свои схемы видео-дипфейками, чтобы еще эффективнее усыплять бдительность потенциальных жертв, указал Ульянов. «В этом случае конверсия у мошенников может быть очень высокая», говорит он.

«Только надеяться, что вас это не затронет».

blockquote

«Что касается того, как с этим бороться – у меня, честно говоря, какого-то рецепта нет. Только надеяться, что вас это не затронет, потому что, если человек захочет сделать [дипфейк с вами], и он будет обладать достаточным материалом, он это сделает. Если мы говорим о публичных людях, образы которых достаточно легко можно получить, то в этом случае практически нет способов, как уберечь себя», — отметил эксперт.

Так, средством борьбы с дипфейками могла бы стать маркировка производимого нейросетями контента, однако искушенные мошенники, скорее всего, найдут способ обойти это ограничение, заметил Ульянов. Поэтому эффективная тактика противодействия дипфейкам и регулирования ИИ-контента появится только со временем, когда связанная с ними проблематика будет четко обозначена, а к решению вопроса будут подключены сами компании-разработчики нейросетей, заметил Ульянов.

Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале ОСН. Присоединяйтесь!