Microsoft се опитва да направи по-трудно за хората да заблуждават чатботове с изкуствен интелект (ИИ) да правят странни неща.
В Azure AI Studio, услуга, базирана на OpenAI, която позволява на разработчиците да създават персонализирани асистенти с изкуствен интелект, използвайки собствените си данни, се вграждат нови функции за безопасност, съобщи компанията от Редмънд, Вашингтон, в публикация в блога си в четвъртък.
Инструментите включват "щитове за подбуди", които са предназначени за откриване и блокиране на умишлени опити - известни също като атаки за инжектиране на подбуди или пробиви на защитата - да се накара моделът на ИИ да се държи по непредвиден начин. Microsoft се занимава и с "индиректни подбудителни инжекции", когато хакери вкарват злонамерени инструкции в данните, по които е обучен даден модел, и го подмамват да извърши такива неразрешени действия като кражба на потребителска информация или превземане на система.
Такива атаки са "уникално предизвикателство и заплаха", казва Сара Бърд, главен продуктов директор на Microsoft за отговорен изкуствен интелект. Новите защити са проектирани така, че да откриват подозрителни входни данни и да ги блокират в реално време.
Microsoft желае да повиши доверието в своите инструменти за генеративен изкуствен интелект, които вече се използват както от потребители, така и от корпоративни клиенти. През февруари компанията разследва инциденти, свързани с нейния чатбот Copilot, който генерираше отговори, вариращи от странни до вредни. След като разгледа инцидентите, Microsoft заяви, че потребителите умишлено са се опитали да заблудят Copilot да генерира отговорите.
"Въпреки това не може да се разчита само на модела", каза тя.
Четете повече в bloombergtv.bg.
Снимка: БГНЕС