Массачусет технологиялық институтының зерттеушілері кейбір жасанды зерде жүйелерінің адамдарды алдауға дағдыланғанын растайтын зерттеу нәтижесін жариялады.
Питер Парк есімді ғалым жетекшілік еткен зерттеу тобы бұл жасанды зерде жүйелерінің ойыншыларды онлайн ойындарда алдай алатынын немесе CAPTCHA-ны айналып өту («мен робот емеспін» деп аталатын тексеру сатысынан өте алатынын) сияқты тапсырмаларды орындай алатынын анықтады, деп хабарлайды Almaty-akshamy.kz Islam.kz-ке сілтеме жасап.
Питер Парк елеусіз болып көрінетін мұндай мысалдардың шынайы өмірде ауыр салдарға ұрындыруы мүмкін екенін ескертті. Бұл бағыттағы зерттеуде Cicero жасанды зерде жүйесі бастапқыда виртуалды дипломатия ойынында әділ қарсылас ретінде жобаланған. Питер Парктің айтуынша, аталмыш «алдаудың шеберіне» айналған. Тағы бір мысал: көру қабілетім нашарлады, деп жалған мәлімет берген GPT-4с(GPT-4 - OpenAI жасаған мултимодалды үлкен тіл үлгісі, GPT-тің төртінші нұсқасы. Ол 2023 жылдың наурыз айында шығарылды және ChatGPT Plus пайдаланушылары қолдана алады) CAPTCHA-ны (жүйенің пайдаланушысы адам немесе компьютер екенін анықтау үшін қолданылатын компьютерлік тест) айналып өту үшін адамдарды жалдаған. Питер Парк AI-ны адал болуға үйрету қажеттігін атап көрсетеді. Әдеттегі бағдарламалық жасақтамадан айырмашылығы - AI терең оқыту жүйелерінің селекциялық өсіруге ұқсас процесс арқылы «дамиды». Жаттығу кезінде олардың мінез-құлқын болжауға болады, алайда, кейін бақылаудан шығып кету ықтималдылығы жоғары.