"Пандемията принуди работодателите добре да се замислят колко се доверяват на персонала си. Миналата година огромен брой компании трябваше да въведат дистанционна работа в мащаб, за която иначе никога не биха помислили.
Мнозина бяха приятно изненадани. Те откриха, че могат да разчитат на служителите да продължават да вършат работата си без да се отпускат. Всъщност проучванията сочат, че работниците от вкъщи отработват повече часове от всякога", пише Сара О’Конър за Financial Times.
Но други работодатели не го приеха толкова леко. Уплашени от мисълта да загубят погледа си върху персонала, те панически закупиха софтуер за наблюдение, голяма част от който претендира, че използва изкуствен интелект (AI), за да контролира евентуални забежки на служителите и да измерва производителността.
"В момента има процъфтяващ пазар на облачни системи, които обещават да държат домашните работници на линия. Някои, като Controlio, предлагат "невидим режим“, който прави системата "напълно неразпознаваема за потребителя - без икони в лентата или процеси в диспечера на задачите“, посочва О’Конър.Тъй като изкуственият интелект навлиза бързо и тихомълком в домовете на хората, публикуваните наскоро от ЕС проектоправила за това как той трябва да се използва при редица различни обстоятелства бяха навременни.
Според предложените правила AI, използван за "набиране и подбор на лица, за вземане на решения за повишения и уволнения, и за разпределяне на задачи, наблюдение или оценка на лица в трудови отношения“, трябва да се класифицира като "висок риск“. Доставчиците на AI системи "с висок риск“ ще трябва да се подчинят на определени задължения, като например да предоставят ясна информация за това как работи софтуерът, като използват висококачествени масиви от данни и позволявайки човешки надзор.Брюксел е прав да описва изкуствения интелект на работното място като рисков. Често има голям дисбаланс на правомощията между работодател и служител, особено на работните места без колективно договаряне.
Четете повече по темата в investor.bg.
Снимка: Bloomberg.com
Харесайте страницата ни във Facebook ТУК