Представители на страните от Г-7 проведоха среща, за да обсъдят проблемите, свързани с инструментите с генеративен изкуствен интелект. А ЕК вече предложи свой закон за изкуствения интелект.
Евроинституциите работят върху регулация за изкуствения интелект (ИИ), което ще отнеме поне 2 години, а технологии като биометричното наблюдение и ChatGPT изпреварват регулациите, затова еврокомисарят Маргрете Вестагер призова тази седмица за доброволен кодекс за поведение на индустрията на изкуствения интелект, преди да бъде въведено цялостно законодателство. ЕК иска да ограничи рисковете от тази бурно развиваща се нова технология.
"Рисковете са много и те са във всякакви сфери. За работните места изглежда като стандартен процес за бизнеса, в който автоматизира и елиминира работни места. Всъщност, има отчасти този аспект, но става твърде бързо и това може да доведе до по-неочаквани обществени недоволства. От друга страна, навлизайки във всички сфери, освен че застрашава съществуващи бизнес модели и работни места, създава възможности за неща, които дори не можем сега да си представим. За мен това е водещият проблем, че то се развива толкова бързо, че ние не можем да осмислим проблемите, които може да ни създаде", каза бившият министър на електронното управление Божидар Божанов в студиото на "Брюксел 1".
"Проблемите може да са от всякакво естество. За съжаление, твърде е широка гамата в обществения живот, който може да пострада от негови решения. Най-вече в областта на моментите, в които изкуственият интелект по някакъв начин може да повлияе върху жизнения стандарт или ако щете оценката на даден индивид в обществото. Вече има такива записани случаи в не една и две експериментални постановки, правени от различни видове учени и университети. Например, Amazon публикува един алгоритъм, с който подбираше кадри за себе си и всъщност тъй като ИИ е точно толкова точен, колкото данните, с които е трениран. Ако данните, с които е трениран, не са толкова точни, резултатите от неговата работа съответно няма да са задоволителни", коментира експертът по киберсигурност Спас Иванов в ефира на Bulgaria ON AIR.
"В този конкретен случай алгоритъмът беше на практика дисквалифициран от повечето хора с различен цвят на кожата, поради факта, че те по-рядко се задържат на работните места дълго време. Другото негативно отношение, което получиха дадени кандидати за работа, беше, че той беше негативен към кандидатурите на жени, тъй като те излизат в майчинство, трябва да се грижат за деца и т.н. Бидейки трениран със съвсем реални данни, решенията, които той взима, които в крайна сметка имат последствия върху истинския живот на реални хора, би могло да бъдат дотам, че някой да не получи желаната работа. Друг експеримент пък показа, че при подбора на пациенти в дадени болници, там където пациентът се нуждае от страшно много изследвания, че ще донесе разходи за болницата или пък тя ще има по-малка печалба от неговото лечение, алгоритъмът или премахват част от изследванията, или изобщо отказваха този пациент да бъде лекуван в тази болница, което е животозастрашаващо", допълни Иванов.
Божанов пък сподели, че в САЩ са правени експерименти и с подпомагане на съдебни състави при присъди.
"Там отново се наблюдавала същата дискриминация, тъй като в предишни случаи при подобни престъпления повече чернокожи са били осъждани. Съответно за невинен чернокож алгоритъмът е казал, че е виновен, а пък виновен човек с бял цвят на кожата е бил оправдан", поясни той.
Гледайте целия разговор във видеото.