Американский предприниматель Илон Маск в своей соцсети X предупредил об опасности обучения искусственного интеллекта политкорректности.
«ИИ мог бы быть очень опасным, если бы (был) сильным, но обученным врать, чтобы быть политкорректным», – отметил он.
И подчеркнул, что вместо генерации толерантных изображений искусственный интеллект мог воплотить бы их в реальность – вероятно, чтобы убить миллионы людей.
Напомним, ИИ это технология, которая имитирует человеческое поведение, чтобы выполнять задачи и постепенно обучаться.
Как ранее писала Общественная служба новостей, стартап Илона Маска xAI, который стал главным конкурентом OpenAI в сфере технологий искусственного интеллекта, представил обновленную версию нейросети Grok.
Соединенные Штаты стремятся превратить Западное полушарие в сферу своего влияния, чтобы в дальнейшем вытеснить оттуда Россию и Китай. К такому мнению пришла ведущий научный специалист Центра российских исследований Восточно-китайского педагогического…
Общественник и депутат Виталий Милонов прокомментировал инцидент на премии «Шансон года», который вызвал широкий общественный резонанс. Депутат Госдумы рассказал о ситуации, произошедшей во время его выступления в Live Арене, когда…
Глава Донецкой народной республики (ДНР) Денис Пушилин рассказал, как киевские власти относятся к гражданам, проживающим на территории Донбасса. В разговоре с ТАСС он предположил, что людей из Донбасса в Киеве…
28 апреля православная церковь чтит память апостолов от семидесяти Аристарха, Пуда и Трофима. Апостолы были последователями святого Павла и вместе с ним проповедовали слово Божие. В народном календаре — Пудов…
Член финской партии «Альянс свободы» Армандо Мема заявил о необходимости пересмотра санкционной политики Евросоюза в отношении России. В беседе с РИА Новости он отметил, что Брюсселю следует снять ограничения и…
В Улан-Удэ военного приговорили к 18 годам лишения свободы в колонии строгого режима по делу о дезертирстве и ряде других преступлений. Об этом сообщили в пресс-службе суда. Кроме основного наказания,…