fallback

Учени разкриха интелигентността на изкуствения интелект

LLM често се объркват с ненужни подробности, което води до неправилни отговори

17.10.2024 | 14:11 Автор: Беатрис Младжова

Според изследователи от Apple Computer Company, големи езикови модели (LLM) като ChatGPT нямат реални логически разсъждения, а създават илюзията за интелигентност. Статия с резултатите от изследването е публикувана на сървъра за предпечат на arXiv.

Екипът се фокусира върху способността на интелигентните същества, включително хората, да правят разлика между важна и маловажна информация в ситуации, които изискват логичен анализ.

Изследователите предполагат, че истинската интелигентност включва способността да могат да се игнорират неуместни данни и да се фокусира върху същността на въпроса, какъвто е случаят с човешкото мислене.

За да тестват тази хипотеза, изследователите са включили малко количество външна информация в своите въпроси за LLM. Те са задали стотици въпроси, използвани преди това за тестване на езикови модели, добавяйки допълнителни данни, които не са били свързани с темата.

Резултатите от експеримента показват, че LLM често се объркват с ненужни подробности, което води до неправилни или безсмислени отговори на същите въпроси, на които моделите преди това са отговорили правилно. Това, според изследователите, показва, че LLM-ите нямат способността наистина да разбират и да мислят рационално.

Четете повече по темата в megavselena.bg.

Ще гласувате ли на предстоящите избори на 27 октомври?

Категорично "да".
63%
Категорично "не".
22%
Колебая се, още не съм решил/а.
10%
От години не гласувам, не се интересувам от политика.
5%
Общо 2174 гласа

Снимка: Pexels

fallback
Още от Техно
fallback