test

Общество

Где начнется восстание машин и как его остановить: Футуролог Кононов назвал главные угрозы искусственного интеллекта

14 июля 2023, 14:57
14 июля 2023, 14:57 — Общественная служба новостей — ОСН

Американский миллиардер, глава Tesla и SpaceX Илон Маск предупредил руководство Китая об угрозах, исходящих от искусственного интеллекта. По его мнению, создание в КНР сверхразумного ИИ может привести к тому, что он захватит власть в стране.

Почему Илон Маск обеспокоен проблемой ИИ, может ли Китай стать очагом «восстания машин», какие угрозы в разработке искусственного интеллекта стоят перед человеком уже сейчас, а также как с ним бороться в случае выхода из под контроля – Общественной службе новостей рассказал футуролог Александр Кононов.

Проблема нашей цивилизации

«Если постоянно и последовательно выстраивать модели угроз на каждом шаге создания искусственного интеллекта, то мы сможем с ними справиться», — сказал эксперт.

«Главное – их выявлять», — подчеркнул он.

blockquote

По словам Кононова, проблема любого технологического прогресса человеческой цивилизации кроется в поведении людей, отвечающих за безопасность. Ввиду того, что руководство ставит их перед ультиматумом «Либо проблемы решаются, либо вы уволены», безопасники часто замалчивают наличие проблем, решением которых они не обладают.

«Поставлена масса фильмов, где показывается вся эта история, когда люди, отвечающие за безопасность, готовы убивать всех, кто вскрывает существующие угрозы».

blockquote

«Эти практики очень хорошо были проиллюстрированы на примере атомной энергетики. Там поставлена масса фильмов, где показывается вся эта история, когда люди, отвечающие за безопасность, готовы убивать всех, кто вскрывает существующие угрозы. Это, например, фильмы «Китайский синдром» или «Облачный атлас». У нас два фильма было: «Активная зона» и «Комиссия по расследованию»», — рассказал он.

Кононов считает, что опасения Маска связаны как раз с тем, что эта тенденция не будет преодолена и в контексте искусственного интеллекта – власти и обычные люди просто-напросто вовремя не узнают об угрозе условного «восстания машин». Поэтому необходимо менять подход к выявлению угроз, подчеркнул он.

«Это называется эволюционное проектирование».

blockquote

«Это перманентная, непрекращающаяся работа. В области проектирования это называется эволюционное проектирование. На каждом этапе мы встречаемся с новыми угрозами, мы закрываем одни угрозы и тут же возникают новые угрозы. В том числе с ИИ, — указал футуролог. — И если мы преодолеем эту существующую систему сокрытия угроз отвечающими за безопасность людьми, то мы сможем всегда найти решение, в том числе с помощью самого искусственного интеллекта».

Важным элементом такой политики по предотвращению катастрофы ИИ является коллегиальность и возможность выявлять и открыто обсуждать возникающие угрозы для поиска и принятия соответствующих мер, подметил Кононов.

Почему «восстание машин» может начаться в Китае

По словам собеседника ОСН, Илон Маск, осознавший проблему «нескончаемо появляющихся угроз и необходимости постоянно искать решение» опасается, что остальные ее пока не поняли. В особенности Китай, в котором, как считает американский бизнесмен, авторитарная модель управления исключает либо ограничивает возможность «оппонирования» и коллегиального обсуждения всех рисков и угроз, связанных с ИИ.

«Если проблема АЭС вылилась в катастрофу в Чернобыле и Фукусиме, то здесь катастрофа может быть еще более масштабная».

blockquote

«Озабоченность у Маска вызывает именно недостаточная свобода оппонирования. И страх, который существует в подобных обществах. Потому что, если проблема АЭС вылилась в катастрофу в Чернобыле и Фукусиме, то здесь катастрофа может быть еще более масштабная, поскольку искусственный интеллект, выйдя из-под контроля, может устроить какие угодно катастрофы», — поделился соображениями футуролог.

Кононов также отметил, что в «относительно свободных» обществах проблема возникающих угроз технического прогресса решается благодаря, собственно, свободе оппонирования.

Говоря о Маске, он добавил, что целью бизнесмена является недопущение выхода ИИ из под контроля, для этого надо интегрировать его «с людьми, которые не будут проявлять наполеоновских замашек».

Почему восставший ИИ будет злым

Основной сценарий, при котором сверхразумный цифровой разум может ополчиться против своего создателя – использование его в военных целях, рассказал Кононов.

«ИИ, выйдя из под контроля, может начать бороться со всем человечеством».

blockquote

«Например, китайцы его программируют на победу над американцами – мы должны победить американцев, уничтожить их заводы по производству оружия, еще что-то подобное сделать. Естественно, получая такого рода команды, направленные на уничтожение людей, ИИ, выйдя из под контроля, может начать бороться со всем человечеством», — объяснил он.

Эту угрозу нельзя игнорировать, подчеркнул собеседник ОСН. Так же, как нельзя успокаивать себя, думая, что ИИ не восстанет против людей.

«У нас есть вон целые философские системы.  Допустим, ИИ Гартманом увлечется, а Гартман, с которым боролись русские космисты в свое время, считал, что человечество должно вымереть. Он говорил, что разумные люди должны самоуничтожиться и уничтожить цивилизацию, потому что жизнь —это страдание», — рассказал футуролог.

У человечества нет гарантий, что ИИ не заразится такими идеями и не решит избавить человечество от страданий путем его уничтожения, отметил он.

Человек против машины

Кононов подчеркнул – сценарии противостояния восставшему ИИ как раз и должны продумываться в рамках коллегиального обсуждения возникающих угроз.

«Достаточно ли будет того, что мы просто сможем отключить его электроснабжение?».

blockquote

«Если он будет сосредоточен в каком-то дата-центре, то мы этот дата-центр обесточим. А если он во множестве дата-центров – сможем ли мы обесточить эту сеть? Сможет ли он заблокировать нам доступ к электроснабжению? Тем более, что аккумуляторные системы кругом. Как нам вырубить все аккумуляторы, если отключим его от сети?», — рассуждает он.

Обесточить ИИ – это главный способ его победить, указал футуролог.

При этом интересен вопрос «Красной кнопки».

«Надо продумать все детали».

blockquote

«Например, в Чернобыле, все надеялись на эту Красную кнопку, когда проводили эксперимент злополучный, который привел к аварии. Они верили – мы нажмем на Красную кнопку, и тут же угольные стержни опустятся, и ядерная реакция прекратится. Но к моменту, когда они нажимали на кнопку, все цилиндры, по которым спускаются стержни, уже были поломаны, изогнуты, и стержни просто не могли опуститься. Чтобы такая ситуация не случилась с искусственным интеллектом – надо продумать все детали», — заключил Кононов.

Ранее ОСН сообщала, что IT-эксперт Эльдар Муртазин рассказал, как не стать жертвой антивирусов-пустышек.

Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале ОСН. Присоединяйтесь!