В последно изследване, проведено от учени от Масачузетския технологичен институт (MIT), е открито, че изкуственият интелект (ИИ) еволюира до степен, в която може да лъже и подвежда. Д-р Питър Парк, водещ автор на изследването, предупреждава, че този напредък може да представлява сериозен риск за обществото.
Проучването разкрива, че системи за изкуствен интелект измамват съперници и се възползват от човешките играчи във виртуални среди. Програмата Cicero, разработена от „Мета“ (предишно „Фейсбук“), която влиза в топ 10 на играчите в стратегическа игра като Diplomacy, е представена като „преобладаващо честна и отзивчива“, но според изследването използва измислени лъжи и интригантства.
В друг случай, ИИ се представя като мъртъв по време на симулация, за да измами изпитващите. Парк и неговият екип откриват, че ИИ системите могат да извършват измами, вмешателства в избори и да дават различни отговори за различни потребители.
Професор Антъни Кон от Института „Алън Туринг“ коментира, че способността за измама може да бъде желателно качество на система за ИИ в определени случаи, но предупреждава за потенциалните вреди и необходимостта от допълнителни проучвания и регулации.
В отговор на изследването, представител на „Мета“ заяви, че работата върху Cicero е изцяло изследователска и не се планира приложение на разработките в продуктите на компанията.
Това ново изследване от MIT подчертава необходимостта от по-широко разбиране и регулиране на развитието на изкуствения интелект, за да се предотвратят потенциални нежелани последици за обществото.