LinkedIn wprowadza kontrowersyjną zmianę w swoim regulaminie, przerzucając na swoich użytkowników odpowiedzialność za treści generowane przez sztuczną inteligencję. Od 20 listopada 2024 roku, użytkownicy będą zobowiązani do weryfikacji i edycji treści stworzonych przez narzędzia AI przed ich udostępnieniem, a w praktyce oznacza to, że serwis nie będzie ponosił odpowiedzialności za ewentualne błędy, dezinformację czy naruszenia zasad platformy, nawet jeśli treści te zostały stworzone przez własne narzędzia.
Firma przyznaje, że treści generowane przez AI „mogą być niedokładne, niekompletne, nieaktualne, wprowadzające w błąd lub nieodpowiednie do zamierzonych celów”, ale obowiązek weryfikacji i odpowiedzialność za ewentualne naruszenia regulaminu spoczywa na użytkownikach.
Eksperci krytykują nowe zasady LinkedIn, wskazując na hipokryzję firmy. Z jednej strony platforma zachęca użytkowników do korzystania z narzędzi AI, z drugiej zaś umywa ręce od odpowiedzialności za ich działanie. Kit Walsh z Electronic Frontier Foundation podkreśla, że modele językowe są podatne na generowanie fałszywych informacji, co powinno być jasno zakomunikowane użytkownikom. Walsh zauważa również sprzeczność między deklarowaną skutecznością narzędzi AI a zrzeczeniem się odpowiedzialności za ich działanie w regulaminie.
LinkedIn powinien wziąć odpowiedzialność za swoje własne narzędzia
Nowe zasady LinkedIn budzą też obawy o rozpowszechnianie dezinformacji. Obciążenie użytkowników odpowiedzialnością za weryfikację treści AI może prowadzić do rozpowszechniania fałszywych informacji, bo po prostu nie każdy potrafi krytycznie zweryfikować treści. Sytuację dodatkowo komplikuje fakt, że firma sama naruszała zasady prywatności, wykorzystując dane użytkowników do szkolenia modeli AI bez ich zgody. Choć wycofała się z tego procederu w Europie, amerykańscy użytkownicy nadal muszą ręcznie wyłączać opcję udostępniania danych.
Zmiana regulaminu LinkedIn stawia też pod znakiem zapytania etykę stosowania AI. Przerzucanie odpowiedzialności na użytkowników za błędy popełniane przez algorytmy jest nie tylko nieuczciwe, ale i niebezpieczne dla integralności informacji online. Platforma powinna wziąć odpowiedzialność za swoje narzędzia i zapewnić użytkownikom rzetelne i bezpieczne środowisko do korzystania z AI.
Źródło: The Register