IT-эксперт Ульянов заявил, что серьезные модели ИИ безопасны для систем обороны

13 января 2026, 15:03
Фото: Кузьмичёнок Василий/Агентство «Москва»
13 января 2026, 15:03 — Общественная служба новостей — ОСН

Руководитель аналитического центра Zecurion Владимир Ульянов заявил, что серьезные модели ИИ безопасны для оборонных систем. Об этом сообщает Ридус.

Таким образом он прокомментировал информацию, что военное министерство США намерено предоставить доступ к своей сети ряду популярных открытых моделей искусственного интеллекта.

«Ключевой вопрос здесь – все-таки прозрачность и контролируемость используемых моделей», – отметил собеседник. И подчеркнул, что если речь идет о «серьезных продуктах» наподобие продукции Google и xAI, то их можно счесть безопасными для такой работы.

По его словам, при грамотном аккуратном внедрении инструментов с использованием элементов искусственного интеллекта риски утечки или других угроз существенно сокращаются.

Как ранее писала Общественная служба новостей, IT-эксперт Наталия Иванова назвала профессии, которые находятся под угрозой из-за ИИ.

Руководитель коммуникационного агентства PGR agency Анастасия Бастрыкина заявила, что студентов следует научить работать с ИИ с пользой для себя.

Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале ОСН.