Големите платформи за социални медии отдавна разчитат на модераторите на съдържание, често в страни с ниско заплащане. Подобни работни места има и в областта на генеративния изкуствен интелект. Причината е, че хората проверяват отново някои от данните за големите езикови модели като Bard или ChatGPT. Тази обратна връзка от хората е част от процеса на обучение и прави програмите толкова интелигентни, че те изглеждат човешки за своите потребители.
Че в тази област правилата, на които демонстративно разчита технологичната индустрия, не струват много, показва изследване на журналиста Алекс Кандровиц в неговия бюлетин Big Technology. Той е разговарял с кениеца Ричард Матенге, който е бил един от онези наблюдатели на съдържанието, работещи от името на OpenAI: той пресява набора от данни за ChatGPT и филтрира неприятните неща.
Когато през 2021 г. започва да обучава модела GPT на OpenAI, Ричард Матенге усеща, че е попаднал на перфектната позиция. След години работа в сферата на обслужването на клиенти в Найроби, Кения, той най-накрая се занимавал с нещо смислено и с бъдеще. И все пак, макар и обещаваща, позицията го белязала. В продължение на девет часа на ден, пет дни в седмицата, Матенге ръководил екип, който обучава модела на публично съдържание.
В процеса Reinforcement Learning from Human Feedback (Усилващо обучение от човешка обратна връзка) ботовете стават по-умни, когато хората маркират съдържанието, като ги учат как да оптимизират въз основа на тази обратна връзка. Лидерите в областта на изкуствения интелект, включително Сам Алтман от OpenAI, оценяват високо техническата ефективност на тази практика, но рядко говорят за цената, която някои хора плащат, за да приведат системите за изкуствен интелект в съответствие с нашите ценности.
Аутсорсинг в бедни страни, ниски заплати - и от двете страни на Атлантическия океан всички се крият, за да избегнат отговорността за травмираните фасилитатори. Само че в случая става дума за онези хора, които като мъченици поемат всички грехове на мрежата само за да можем да имаме "чисто преживяване", когато посегнем към мобилния телефон и сърфираме в социалните мрежи.
Говорителят на OpenAI заявява, че компанията е потърсила повече информация от Sama за условията на труда. След това Sama е информирала OpenAI, че излиза от сферата на модериране на съдържание.
Четете повече в investor.bg
Страхувате ли се от развитието на изкуствения интелект?
Снимка: БГНЕС