Мошенники могут использовать дипфейки для того, чтобы вводить своих жертв в заблуждение. При этом как-либо застраховаться от создания своей цифровой копии современный пользователь не может, поскольку необходимые для этого технологии доступны всем, пускай и не всегда бесплатно. Распознать качественный дипфейк также может быть затруднительно, особенно для не разбирающегося в этом человека. Об этом Общественной службе новостей рассказал руководитель аналитического центра компании Zecurion, эксперт по кибербезопасности Владимир Ульянов.
Ранее американский стартап OpenAI презентовал свою новую разработку – нейросеть Sora, которая может создавать реалистичные видеоролики исходя из текстовых запросов. Пугающий реализм генерируемых искусственным интеллектом видео породил среди пользователей сети бурные обсуждения о возможности применения этой инновационной технологии злоумышленниками для создания так называемых дипфейков – изображений, аудиозаписей или видео с участием людей, которые не давали на это согласия.
«Инструменты [распознавания дипфейков] не будут доступны широкому кругу лиц».
Ульянов отметил, что сейчас нейросети активно развиваются, и в будущем этот процесс будет только ускоряться: технологии будут становиться все более совершенными и доступными, а результат – все более точным и реалистичным. При этом реального способа регулировать применение нейросетей и распространение сгенерированных ими файлов на данный момент не существует, равно как и отсутствуют доступные способы идентификации качественных дипфейков, указал он.
«Есть, конечно, инструменты для этого, но они, скажем так, не тривиальны и не очень доступны. Наверное, так же, как и сами инструмент для создания этих самых видеороликов [дипфейков]. Если ты хочешь добиться какого-то базового уровня, то можно и бесплатно или за недорого его получить, но если нужно качество, то в создание такого видео все-таки нужно будет вложиться. Соответственно, для того чтобы распознать его, нужно или обладать высокой квалификацией и самостоятельно изучать это видео буквально по кадрам, или использовать специальные инструменты и средства, которые помогали бы выявлять какие-то несоответствия. Но подобные инструменты не будут доступны широкому кругу лиц», — говорит собеседник издания.
Основная опасность дипфейков – помимо того, что с помощью них можно создать «компромат» практически на любого человека – заключается в том, что их могут использовать злоумышленники для обмана своих потенциальных жертв. Так, уже сейчас некоторые пользователи мессенджеров сталкиваются с тем, что мошенники, взламывая аккаунты и рассылая с них просьбу прислать деньги на подставной счет, используют технологии генерации речи для подделывания голосовых сообщений якобы от владельца учетной записи. В перспективе, они могут дополнить свои схемы видео-дипфейками, чтобы еще эффективнее усыплять бдительность потенциальных жертв, указал Ульянов. «В этом случае конверсия у мошенников может быть очень высокая», говорит он.
«Только надеяться, что вас это не затронет».
«Что касается того, как с этим бороться – у меня, честно говоря, какого-то рецепта нет. Только надеяться, что вас это не затронет, потому что, если человек захочет сделать [дипфейк с вами], и он будет обладать достаточным материалом, он это сделает. Если мы говорим о публичных людях, образы которых достаточно легко можно получить, то в этом случае практически нет способов, как уберечь себя», — отметил эксперт.
Так, средством борьбы с дипфейками могла бы стать маркировка производимого нейросетями контента, однако искушенные мошенники, скорее всего, найдут способ обойти это ограничение, заметил Ульянов. Поэтому эффективная тактика противодействия дипфейкам и регулирования ИИ-контента появится только со временем, когда связанная с ними проблематика будет четко обозначена, а к решению вопроса будут подключены сами компании-разработчики нейросетей, заметил Ульянов.
В Евросоюзе отвергли идею Владимира Зеленского о быстром принятии Украины. Об этом сообщило агентство Reuters. С критикой идеи выступил канцлер Германии Фридрих Мерц. Он пояснил, что Зеленский хотел вступить в…
Военный корреспондент Евгений Поддубный заявил, что в ходе боев за Гришино в ДНР российские войска успешно применили тактику «троянского коня», использовав американскую боевую машину пехоты Bradley. В своем Telegram-канале Поддубный…
В Крыму на трассе «Таврида» вблизи Керчи грузовик «Вольво» влетел в «Мазду» и «Лифан», которые остановились на обочине для устранения поломки. Об этом сообщают argumenti.ru. Отмечается, что от удара легковушки…
В Мали активизировались боевые действия между правительственными силами и вооруженными группировками. В минувшее воскресенье сильнейшим атакам подвергся город Кидаль, на территории которого присутствовали военнослужащие Африканского корпуса Министерства обороны России, оказывающие…
Эксперт по жилью Наталья Перескокова заявила, что россиянам не следует откладывать покупку квартиры в надежде на обвал рынка, так как цены на недвижимость в стране не снизятся. Так она прокомментировала …
Российский лидер Владимир Путин встретился с представителями Ирана. Об этом сообщила пресс-служба Кремля. Президент РФ заявил, что на прошлой неделе получил послание от верховной лидера исламской республики Моджтабы Хаменеи, который…