От Европейския надзорен орган по защита на данните стана ясно, че опитите на технологичната компания OpenAI да намали рисковете на чатбота си ChatGPT от предоставяне на неверни резултати, не отговарят на стандартите, за да гарантират спазването на правилата за данните на Европейския съюз, предаде Ройтерс.
"Въпреки че мерките, предприети за спазване на принципа на прозрачност, са полезни за избягване на погрешно тълкуване на резултатите, получени от ChatGPT, те не са достатъчни за спазване на принципа за точност на данните", заяви работната група в доклад, публикуван на официалната ѝ страница.
Съвместните разследвания, провеждани от националните органи за поверителност на личните данни в ЕС, все още продължават, се казва в доклада, като се добавя, че поради това все още не е възможно да се предостави пълно описание на резултатите, съобщи БТА.
Снимка: БГНЕС