Sztuczna inteligencja YouTube blokuje kanał szachowy za słowa o czarnych i białych

Wygląda na to, że sztuczna inteligencja używana przez YouTube do moderowania zawartości wideo, zablokowała kanał szachowy za użycie rasistowskiego języka. Sprawa dotyczy jednego z najpopularniejszych twórców takich wideo i miała miejsce w ubiegłym roku. Blokada według informacji przesłanej użytkownikowi dotyczyła propagowania „szkodliwych i niebezpiecznych” treści.

Po interwencji Antonio Radicia, właściciela kanału, wszystko wróciło do normy, ale YouTube nie wyjaśnił dlaczego doszło do takiej sytuacji. „Agadmator”, bo takiego pseudonimu używa twórca, ma ponad milion subskrybentów i jest jednym z najpopularniejszych w branży. Jego kanał zablokowano w po tym, jak opublikował wywiad z Hikaru Nakamurą, pięciokrotnym mistrzem i najmłodszym Amerykaninem, który zdobył tytuł Arcymistrza.

Sztuczna inteligencja YouTube blokuje kanał szachowy

Sztuczna inteligencja i kontekst

Eksperci podejrzewają, że to użycie słów takich jak „czarny” i „biały” spowodowało, iż sztuczna inteligencja YouTube zareagowała w ten sposób. Platforma używa algorytmów SI i ludzi do moderowania treści, ale w tym przypadku technika wyraźnie zawiodła. Naukowcy sugerują, że platformy społecznościowe powinny uwzględniać język szachowy w swoich algorytmach, aby uniknąć takich incydentów w przyszłości. „Nie wiemy, jakich narzędzi używa YouTube. Jeśli jednak opierają się one na sztucznej inteligencji, tego rodzaju wypadki mogą się zdarzać” – powiedział Ashiqur R KhudaBukhsh, informatyk z Language Technologies Institute Carnegie Melon.

Aby sprawdzić, czy użycie takich terminów jak czarny czy biały, doprowadziło do zawieszenia kanału YouTube, KhudaBukhsh i Rupak Sarkar przeprowadzili badanie. Sprawdzili jak w takiej sytuacji działają klasyfikatory mowy, rodzaj sztucznej inteligencji, która jest wyszkolona do wykrywania mowy nienawiści. Duet wykorzystał oprogramowanie do ponad analizy 680 000 nagrań z pięciu popularnych kanałów szachowych na YouTube. Okazało się, że 82% oznaczonych przez SI próbek nie zawierało żadnych słów, które można traktować jako rasistowskie. Słowa takie jak „czarny”, „biały”, „atak” i „groźba” uruchamiały jednak filtry.

Sztuczna inteligencja może nam w wielu przypadkach pomagać, ale jak widać, trzeba kontrolować jej decyzje, bo nie zawsze są racjonalne.

Źródło: News18

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *