Учені з Канади та Австралії протестували моделі GPT-3.5 і GPT-4 від OpenAI на наявність 18 відомих когнітивних упереджень – від неприйняття ризику до ефекту «гарячої руки», повідомляє INFORMS, передає NV.
Приєднуйтесь до нашої групи "Оперативно" у Телеграм та Вайбер, щоб першими знати важливі та актуальні новини!
У половині випадків ChatGPT демонстрував ті самі помилки, що й люди. Особливо яскраво це проявлялося в ситуаціях невизначеності, коли потрібно було вибрати між безпечним варіантом і ризикованим задля прибутку. GPT-4 показав навіть більше прагнення до передбачуваності, ніж користувачі.
Цікаво, що упередженості ШІ зберігалися незалежно від того, чи стосувалися питання абстрактних психологічних завдань, чи реальних бізнес-процесів – управління запасами або перемовин із постачальниками.
Однак ШІ зумів уникнути деяких людських помилок, як-от ігнорування статистики на користь окремих випадків або хибна думка безповоротних витрат. Дослідники пояснюють: такі схильності формуються з навчальних даних, що відображають людські упередження, і закріплюються на етапі налаштування моделі.
Автори роботи радять використовувати ШІ в завданнях із чіткими і перевіреними рішеннями, а в суб'єктивних – залишати контроль за людиною.
Джерело: NV
Перегляньте цікаві новини:
Найбільша карта церков України
Більше рубрик та новин тут