Штучний інтелект теж помиляється: дослідження показало когнітивні упередження у ChatGPT
Загрози та виклики
09.05.2025
Нове дослідження показало: ШІ часом ухвалює рішення так само ірраціонально, як і людина

Учені з Канади та Австралії протестували моделі GPT-3.5 і GPT-4 від OpenAI на наявність 18 відомих когнітивних упереджень – від неприйняття ризику до ефекту «гарячої руки», повідомляє INFORMS, передає NV.

Приєднуйтесь до нашої групи "Оперативно" у Телеграм та Вайбер, щоб першими знати важливі та актуальні новини!

У половині випадків ChatGPT демонстрував ті самі помилки, що й люди. Особливо яскраво це проявлялося в ситуаціях невизначеності, коли потрібно було вибрати між безпечним варіантом і ризикованим задля прибутку. GPT-4 показав навіть більше прагнення до передбачуваності, ніж користувачі.

Цікаво, що упередженості ШІ зберігалися незалежно від того, чи стосувалися питання абстрактних психологічних завдань, чи реальних бізнес-процесів – управління запасами або перемовин із постачальниками.

Однак ШІ зумів уникнути деяких людських помилок, як-от ігнорування статистики на користь окремих випадків або хибна думка безповоротних витрат. Дослідники пояснюють: такі схильності формуються з навчальних даних, що відображають людські упередження, і закріплюються на етапі налаштування моделі.

Автори роботи радять використовувати ШІ в завданнях із чіткими і перевіреними рішеннями, а в суб'єктивних – залишати контроль за людиною.

Джерело: NV

Перегляньте цікаві новини:

Надихаючі історії

Все для сімей

Загрози та виклики 

Молоде життя

Каталог ютуб каналів церков

Найбільша карта церков України

Більше рубрик та новин тут

Загрози та викликиСуспільство
Останні новини
Останні новини