Общество

Аналитик Ульянов: Никто не застрахован от дипфейков со своим участием

19 февраля 2024, 19:10 — Общественная служба новостей — ОСН

Мошенники могут использовать дипфейки для того, чтобы вводить своих жертв в заблуждение. При этом как-либо застраховаться от создания своей цифровой копии современный пользователь не может, поскольку необходимые для этого технологии доступны всем, пускай и не всегда бесплатно. Распознать качественный дипфейк также может быть затруднительно, особенно для не разбирающегося в этом человека. Об этом Общественной службе новостей рассказал руководитель аналитического центра компании Zecurion, эксперт по кибербезопасности Владимир Ульянов.

Ранее американский стартап OpenAI презентовал свою новую разработку – нейросеть Sora, которая может создавать реалистичные видеоролики исходя из текстовых запросов. Пугающий реализм генерируемых искусственным интеллектом видео породил среди пользователей сети бурные обсуждения о возможности применения этой инновационной технологии злоумышленниками для создания так называемых дипфейков – изображений, аудиозаписей или видео с участием людей, которые не давали на это согласия.

«Инструменты [распознавания дипфейков] не будут доступны широкому кругу лиц».

Ульянов отметил, что сейчас нейросети активно развиваются, и в будущем этот процесс будет только ускоряться: технологии будут становиться все более совершенными и доступными, а результат – все более точным и реалистичным. При этом реального способа регулировать применение нейросетей и распространение сгенерированных ими файлов на данный момент не существует, равно как и отсутствуют доступные способы идентификации качественных дипфейков, указал он.

«Есть, конечно, инструменты для этого, но они, скажем так, не тривиальны и не очень доступны. Наверное, так же, как и сами инструмент для создания этих самых видеороликов [дипфейков]. Если ты хочешь добиться какого-то базового уровня, то можно и бесплатно или за недорого его получить, но если нужно качество, то в создание такого видео все-таки нужно будет вложиться. Соответственно, для того чтобы распознать его, нужно или обладать высокой квалификацией и самостоятельно изучать это видео буквально по кадрам, или использовать специальные инструменты и средства, которые помогали бы выявлять какие-то несоответствия. Но подобные инструменты не будут доступны широкому кругу лиц», — говорит собеседник издания.

Основная опасность дипфейков – помимо того, что с помощью них можно создать «компромат» практически на любого человека – заключается в том, что их могут использовать злоумышленники для обмана своих потенциальных жертв. Так, уже сейчас некоторые пользователи мессенджеров сталкиваются с тем, что мошенники, взламывая аккаунты и рассылая с них просьбу прислать деньги на подставной счет, используют технологии генерации речи для подделывания голосовых сообщений якобы от владельца учетной записи. В перспективе, они могут дополнить свои схемы видео-дипфейками, чтобы еще эффективнее усыплять бдительность потенциальных жертв, указал Ульянов. «В этом случае конверсия у мошенников может быть очень высокая», говорит он.

«Только надеяться, что вас это не затронет».

«Что касается того, как с этим бороться – у меня, честно говоря, какого-то рецепта нет. Только надеяться, что вас это не затронет, потому что, если человек захочет сделать [дипфейк с вами], и он будет обладать достаточным материалом, он это сделает. Если мы говорим о публичных людях, образы которых достаточно легко можно получить, то в этом случае практически нет способов, как уберечь себя», — отметил эксперт.

Так, средством борьбы с дипфейками могла бы стать маркировка производимого нейросетями контента, однако искушенные мошенники, скорее всего, найдут способ обойти это ограничение, заметил Ульянов. Поэтому эффективная тактика противодействия дипфейкам и регулирования ИИ-контента появится только со временем, когда связанная с ними проблематика будет четко обозначена, а к решению вопроса будут подключены сами компании-разработчики нейросетей, заметил Ульянов.

Поделиться
Андрей Марков

Корреспондент. Окончил журфак СПбГУ, публиковался в университетской газете. Работал корреспондентом в Федеральном агенстве новостей и в ряде местных изданий.

Последние статьи

В Австрии самолет Ryanair арестовали из-за спора с пассажиркой

В аэропорту австрийского Линца судебные приставы наложили арест на самолет Ryanair из-за спора с пассажиркой, которая добивалась выплаты компенсации после сильной задержки рейса. По данным Bild, речь шла о сумме…

% дней назад

Sohu: слова Путина о газе вызвали тревогу в Евросоюзе

Заявление президента России Владимира Путина о возможном прекращении поставок газа в страны Евросоюза вызвало тревожную реакцию на Западе, пишет Sohu. «Одно предложение Владимира Путина заставило Запад коллективно запаниковать. Кто станет…

% дней назад

Британского туриста в ОАЭ обвинили после съемки ракетного удара по Дубаю

В ОАЭ британский турист оказался под следствием после того, как снял на телефон ракетный удар по Дубаю. По данным зарубежных СМИ, 60-летний мужчина вошел в число иностранцев, которых обвинили по…

% дней назад

NBC: устроившего стрельбу в американской синагоге звали Мохаммед Джалло

В США раскрыли личность мужчины, открывшего огонь возле синагоги в штате Мичиган. Об этом информирует NBC. По данным источника, преступником оказался 36-летний Мохаммед Бейлор Джалло. В 2016 году его уже…

% дней назад

В РПЦ призвали молиться за верующих в Молдавии, на Украине и в Прибалтике

В России состоялись Рождественские образовательные чтения. По итогам мероприятия духовенство призвало молиться за православных в странах ближнего зарубежья. Об этом пишет РИА Новости. По данным агентства, священнослужители предложили вознести молитву…

% дней назад

Пожар в гостинице на северо-востоке Москвы потушили, спасены 7 человек

На северо-востоке Москвы ликвидировали пожар в здании гостиницы на Алтуфьевском шоссе. Возгорание произошло на втором этаже. После сообщения о пожаре на место быстро прибыли сотрудники МЧС и приступили к тушению.…

% дней назад