Курси НБУ $ 41.55 € 46.75
Які прохання до чат-ботів змушують їх брехати

Галюцинації, або надання неправдивих, або фіктивних відповідей, залишаються нерозв'язною проблемою в ШІ.

Фото – ForkLog UA.

Які прохання до чат-ботів змушують їх брехати

Якщо попросити ШІ давати короткі відповіді, то виникає ймовірність збільшення галюцинацій

Дослідження компанії Giskard, яка розробляє цілісний бенчмарк для моделей AI, показало, що якщо попросити у чат-бота бути коротким, у нього може виникнути більше галюцинацій, ніж зазвичай.

Про це повідомляє УНІАН покликаючись на дослідження компанії Giskard.

У повідомленні в блозі йдеться про те, що це особливо актуально для провідних моделей, таких як GPT-4o від OpenAI, Mistral Large і Claude 3.7 Sonnet, які зазнають труднощів зі збереженням точності, коли їх просять відповісти коротко.

Вчені припускають, що короткі відповіді не дають нейромережам «простору» для уточнень, спростувань і роз'яснень, що критично для завдань, пов'язаних із фактичною достовірністю. Інакше кажучи, сильні спростування вимагають довших пояснень.

Вчені припускають, що короткі відповіді не дають нейромережам «простору» для уточнень, спростувань і роз'яснень, що критично для завдань, пов'язаних із фактичною достовірністю.

«Коли моделі змушені бути короткими, вони незмінно вибирають стислість, а не точність, – пишуть дослідники. «Можливо, найважливіше для розробників те, що, здавалося б, невинні системні підказки на кшталт «будьте стислі» можуть саботувати здатність моделі розвінчувати дезінформацію».

Дослідження Giskard містить й інші цікаві відкриття, наприклад, що моделі ШІ частіше залишають без спростування спірні твердження, якщо вони подані впевнено. Це ставить розробників перед вибором між зручністю для користувача і збереженням точності.

Дослідження Giskard містить й інші цікаві відкриття, наприклад, що моделі ШІ частіше залишають без спростування спірні твердження, якщо вони подані впевнено.

Галюцинації, або надання неправдивих, або фіктивних відповідей, залишаються нерозв'язною проблемою в ШІ. Причому навіть найпросунутіші моделі міркувань, такі як o3 від OpenAI, демонструють вищу частоту галюцинацій порівняно з їхніми попередницями.

Галюцинації, або надання неправдивих, або фіктивних відповідей, залишаються нерозв'язною проблемою в ШІ.

Глава NVIDIA вважає, що розв'язання проблем із «галюцинаціями ШІ» займе принаймні кілька років. Люди не повинні сумніватися у відповіді ШІ, задаючись питанням, «галюцинація це чи ні», «розумно це чи ні».

Новини та корисна інформація – швидко, оперативно, доступно!​ Приєднуйтесь до нашого Телеграм-каналу  Волинь ЗМІ

Читайте також: Вражає: наскільки знизилась кількість підприємців в Україні.

Реклама Google

Telegram Channel