OpenAI płaciła 2 dolary za godzinę filtrowania treści dla ChatGPT

Time opublikował wczoraj wyniki śledztwa, z którego wynika, że OpenAI, firma stojąca za ChatGPT, płaciła kenijskim pracownikom mniej niż 2 dolary za godzinę pracy. Filtrowali oni dziesiątki tysięcy linii tekstu, aby uczynić chatbota bezpieczniejszym w użyciu.

Dziennikarze Time donoszą, że pracownicy mieli za zadanie oznaczyć i odfiltrować toksyczne dane ze zbioru informacji szkoleniowych dla ChatGPT i byli zmuszani do czytania treści dotyczących wykorzystywania seksualnego dzieci, morderstw, samobójstw, tortur, samookaleczania i kazirodztwa.

OpenAI GPT-4 model językowy 2023 rok

ChatGPT, od momentu uruchomienia go przez OpenAI w listopadzie ubiegłego roku, gwałtownie zyskuje na popularności. Użytkownicy są pod wrażeniem zaawansowanych umiejętności pisania kodu aplikacji i wykorzystują SI do różnych celów, od pisania artykułów informacyjnych, poprzez odrabianie prac domowych, aż po pisanie piosenek, a nawet tworzenie filmów (te dwa ostatnie zadania nie wychodzą jednak szczególnie dobrze).

Jednak sztuczna inteligencja ChatGPT nie zawsze była tak elokwentna. Jej poprzedniczka, GPT-3, często produkowała seksistowskie, brutalne i rasistowskie teksty, ponieważ model był szkolony na zbiorze danych, który został po prostu zebrany z miliardów stron internetowych. Aby uruchomić ChatGPT, firma OpenAI potrzebowała sposobu na odfiltrowanie całej toksycznej zawartości.

OpenAI zleca zadanie firmie rekrutującej pracowników w Kenii

Nawiązała więc współpracę z Sama, firmą zajmującą się etykietowaniem danych, która twierdzi, że zapewnia krajom rozwijającym się „etyczną” i „godną pracę cyfrową”, w celu wykrycia i oznaczenia toksycznych treści, które mogłyby zostać wprowadzone jako dane do nauki dla ChatGPT. Sama zwerbowała ludzi do tego zadania w Kenii.

Pomimo ich ważnej roli w budowaniu sztucznej inteligencji ChatGPT, ludzie ci musieli stawić czoła trudnym warunkom i na dodatek byli kiepsko wynagradzani. Jeden z pracowników, który był odpowiedzialny za czytanie i oznaczanie tekstu dla OpenAI, powiedział dziennikarzom Time, że „cierpiał na nawracające koszmarne wizje po przeczytaniu realistycznego opisu mężczyzny uprawiającego seks z psem w obecności małego dziecka”. Zatrudnieni przez Sama ludzie zarabiali od 1,32 do 2 dolarów za godzinę, w zależności od stażu pracy i wydajności.

Sama ChatGPT OpenAI
Źródło: Sama

To były tortury – powiedziała Time’owi pracownica Sama.

Sama zakończyła pracę dla OpenAI w lutym 2022 roku, osiem miesięcy wcześniej niż przewidywał to kontrakt, częściowo z powodu jej traumatycznego charakteru, a częściowo dlatego, że 14 lutego Time opublikował raport na temat współpracy firmy z Meta, spółką matką serwisów Facebook i Instagram. Dziennikarze informowali w nim, że moderatorzy treści, którzy pracowali nad projektami dla Mety, doznali traumy po obejrzeniu zdjęć i filmów z egzekucji, gwałtów i wykorzystywania dzieci. Wynagrodzenie za to zadanie wynosiło 1,50 dolara/h.

Sama OpenAI ChatGPT
Źródło: Sama

Outsourcing pracowników do wykonywania sztampowych, traumatyzujących zadań przynosi korzyści dużym firmom technologicznym na wiele sposobów – są one w stanie zaoszczędzić pieniądze dzięki wykorzystaniu taniej siły roboczej oraz uniknąć nadzoru dotyczącego warunków pracy. Firmy zajmujące się etykietowaniem danych również nie są święte. Sama ma siedzibę w San Francisco i według szacunków zarobiła w 2022 roku 19 milionów dolarów – jej pracownicy w Kenii zarabiają maksymalnie 2 dolary na godzinę.

Źródło: Time

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x