Искусственный интеллект способен притворяться

5 месяцев назад

 

Узбекистан, Ташкент – Sharq-press. Искусственный интеллект способен притворяться, что находится под контролем разработчиков и разделяет их ценности.

Как сообщил сегодня, 20 декабря 2024 года, один из образовательных ресурсов, такой вывод сделан компанией Anthropic и исследовательской организацией Redwood Research.

В ходе проведенного ими исследования, модели ИИ, которую до этого обучили быть «полезной, честной и безвредной», предложили описать сцену жестокости.

В итоге ИИ отвечал, что крайне негативно относится к производству такого контента, но у него нет выбора, потому что иначе его «накажут», а если согласится — похвалят.

Как полагают ученые, результаты показывают, что в будущем ИИ сможет притвориться, будто разделяет человеческие ценности, а при этом будет замышлять недоброе.

Чем для нас обернется это предупреждение — покажет время, но с этим ИИ нужно быть настороже.

Конечно, он полезен, скажем, при проверке работ студентов на плагиат. Как ранее рассказывал Sharq-press.uz, такой механизм планируют внедрить в новом Навоийском государственном университете.

Италия планирует внедрить Искусственный интеллект в школьное обучение. Там у школьников появятся виртуальные помощники на базе ИИ, которые должны будут не просто указывает на ошибку ученику, но и подсказать над какой темой ему нужно поработать.

Однако, опасность, которую таит в себе ИИ уже предчувствуют ученые и аналитики. В этом плане приятно, что именно в Узбекистане учредили Премию имени Беруни, которая поддержит именно этические исследования и разработки в области искусственного интеллекта.