Според изследователи от Apple Computer Company, големи езикови модели (LLM) като ChatGPT нямат реални логически разсъждения, а създават илюзията за интелигентност. Статия с резултатите от изследването е публикувана на сървъра за предпечат на arXiv.
Екипът се фокусира върху способността на интелигентните същества, включително хората, да правят разлика между важна и маловажна информация в ситуации, които изискват логичен анализ.
Изследователите предполагат, че истинската интелигентност включва способността да могат да се игнорират неуместни данни и да се фокусира върху същността на въпроса, какъвто е случаят с човешкото мислене.
За да тестват тази хипотеза, изследователите са включили малко количество външна информация в своите въпроси за LLM. Те са задали стотици въпроси, използвани преди това за тестване на езикови модели, добавяйки допълнителни данни, които не са били свързани с темата.
Резултатите от експеримента показват, че LLM често се объркват с ненужни подробности, което води до неправилни или безсмислени отговори на същите въпроси, на които моделите преди това са отговорили правилно. Това, според изследователите, показва, че LLM-ите нямат способността наистина да разбират и да мислят рационално.
Четете повече по темата в megavselena.bg.
Ще гласувате ли на предстоящите избори на 27 октомври?
Снимка: Pexels