Американский предприниматель Илон Маск в своей соцсети X предупредил об опасности обучения искусственного интеллекта политкорректности.
«ИИ мог бы быть очень опасным, если бы (был) сильным, но обученным врать, чтобы быть политкорректным», – отметил он.
И подчеркнул, что вместо генерации толерантных изображений искусственный интеллект мог воплотить бы их в реальность – вероятно, чтобы убить миллионы людей.
Напомним, ИИ это технология, которая имитирует человеческое поведение, чтобы выполнять задачи и постепенно обучаться.
Как ранее писала Общественная служба новостей, стартап Илона Маска xAI, который стал главным конкурентом OpenAI в сфере технологий искусственного интеллекта, представил обновленную версию нейросети Grok.
Житель американского штата Гавайи Джеймс Чоу, достигший 106-летнего возраста отпраздновал свою день рождения тренировкой в спортзале и поделился секретом своего долголетия. Об этом сообщает Hawaii News Now. По данным издания,…
Председатель Социал-демократического союза женщин России, экс-сенатор Ольга Епифанова заявила, что в некоторых регионах страны положены выплаты за долгий брак. Об этом сообщает RT. По ее словам, федерального закона о единовременных…
Жители РФ стали чаще возвращаться к наличным платежам. Об этом сообщило издание «Известия». Согласно оценке Центробанка РФ, объем наличных в обращении в ближайшие пять лет может увеличиться по меньшей мере…
Глава киевского режима Владимир Зеленский торопится в Давос на встречу с президентом США Дональдом Трампом. Об этом пишет издание Kyiv Post. Зеленский заявил, что Зеленский «после намеков» на отказ от…
Внимание мирового сообщества приковано к Арктике на фоне заявлений президента Соединенных Штатов Америки Дональда Трампа о намерении включить Гренландию в состав своей страны. Об этом сообщает канал CNN. По данным…
В школе №37 в Нижнекамске ученик напал с ножом на сотрудницу учреждения. Как сообщает Mash, инцидент произошел сегодня утром. Женщина осталась жива. Обстоятельства произошедшего на данный момент устанавливаются. Предварительно, женщина…