Sztuczna inteligencja YouTube blokuje kanał szachowy za słowa o czarnych i białych
Wygląda na to, że sztuczna inteligencja używana przez YouTube do moderowania zawartości wideo, zablokowała kanał szachowy za użycie rasistowskiego języka. Sprawa dotyczy jednego z najpopularniejszych twórców takich wideo i miała miejsce w ubiegłym roku. Blokada według informacji przesłanej użytkownikowi dotyczyła propagowania „szkodliwych i niebezpiecznych” treści.
Po interwencji Antonio Radicia, właściciela kanału, wszystko wróciło do normy, ale YouTube nie wyjaśnił dlaczego doszło do takiej sytuacji. „Agadmator”, bo takiego pseudonimu używa twórca, ma ponad milion subskrybentów i jest jednym z najpopularniejszych w branży. Jego kanał zablokowano w po tym, jak opublikował wywiad z Hikaru Nakamurą, pięciokrotnym mistrzem i najmłodszym Amerykaninem, który zdobył tytuł Arcymistrza.
Sztuczna inteligencja i kontekst
Eksperci podejrzewają, że to użycie słów takich jak „czarny” i „biały” spowodowało, iż sztuczna inteligencja YouTube zareagowała w ten sposób. Platforma używa algorytmów SI i ludzi do moderowania treści, ale w tym przypadku technika wyraźnie zawiodła. Naukowcy sugerują, że platformy społecznościowe powinny uwzględniać język szachowy w swoich algorytmach, aby uniknąć takich incydentów w przyszłości. „Nie wiemy, jakich narzędzi używa YouTube. Jeśli jednak opierają się one na sztucznej inteligencji, tego rodzaju wypadki mogą się zdarzać” – powiedział Ashiqur R KhudaBukhsh, informatyk z Language Technologies Institute Carnegie Melon.
Aby sprawdzić, czy użycie takich terminów jak czarny czy biały, doprowadziło do zawieszenia kanału YouTube, KhudaBukhsh i Rupak Sarkar przeprowadzili badanie. Sprawdzili jak w takiej sytuacji działają klasyfikatory mowy, rodzaj sztucznej inteligencji, która jest wyszkolona do wykrywania mowy nienawiści. Duet wykorzystał oprogramowanie do ponad analizy 680 000 nagrań z pięciu popularnych kanałów szachowych na YouTube. Okazało się, że 82% oznaczonych przez SI próbek nie zawierało żadnych słów, które można traktować jako rasistowskie. Słowa takie jak „czarny”, „biały”, „atak” i „groźba” uruchamiały jednak filtry.
Sztuczna inteligencja może nam w wielu przypadkach pomagać, ale jak widać, trzeba kontrolować jej decyzje, bo nie zawsze są racjonalne.
Źródło: News18
Miłośnik nowoczesnych technologii, głównie nowych rozwiązań IT. Redaktor w czasopismach Gambler, Enter, PC Kurier, Telecom Forum, Secret Service, Click!, Komputer Świat Gry, Play, GameRanking. Wiele lat spędził w branży tłumaczeniowej – głównie gier i programów użytkowych. W wolnych chwilach lata szybowcem, jeździ na rowerze i pochłania duże ilości książek.