nowe technologie w biznesie

ITbiznes

Chcesz skontaktować się z naszą redakcją? Pisz na adres: redakcja@itbiznes.pl lub zadzwoń: 511 144 444

LinkedIn

LinkedIn umywa ręce od odpowiedzialności za dezinformację generowaną przez własną AI

LinkedIn wprowadza kontrowersyjną zmianę w swoim regulaminie, przerzucając na swoich użytkowników odpowiedzialność za treści generowane przez sztuczną inteligencję. Od 20 listopada 2024 roku, użytkownicy będą zobowiązani do weryfikacji i edycji treści stworzonych przez narzędzia AI przed ich udostępnieniem, a w praktyce oznacza to, że serwis nie będzie ponosił odpowiedzialności za ewentualne błędy, dezinformację czy naruszenia zasad platformy, nawet jeśli treści te zostały stworzone przez własne narzędzia.

Firma przyznaje, że treści generowane przez AI „mogą być niedokładne, niekompletne, nieaktualne, wprowadzające w błąd lub nieodpowiednie do zamierzonych celów”, ale obowiązek weryfikacji i odpowiedzialność za ewentualne naruszenia regulaminu spoczywa na użytkownikach.

LinkedIn

Eksperci krytykują nowe zasady LinkedIn, wskazując na hipokryzję firmy. Z jednej strony platforma zachęca użytkowników do korzystania z narzędzi AI, z drugiej zaś umywa ręce od odpowiedzialności za ich działanie.  Kit Walsh z Electronic Frontier Foundation podkreśla, że modele językowe są podatne na generowanie fałszywych informacji, co powinno być jasno zakomunikowane użytkownikom. Walsh zauważa również sprzeczność między deklarowaną skutecznością narzędzi AI a zrzeczeniem się odpowiedzialności za ich działanie w regulaminie.

LinkedIn powinien wziąć odpowiedzialność za swoje własne narzędzia

Nowe zasady LinkedIn budzą też obawy o rozpowszechnianie dezinformacji. Obciążenie użytkowników odpowiedzialnością za weryfikację treści AI może prowadzić do rozpowszechniania fałszywych informacji, bo po prostu nie każdy potrafi krytycznie zweryfikować treści.  Sytuację dodatkowo komplikuje fakt, że firma sama naruszała zasady prywatności, wykorzystując dane użytkowników do szkolenia modeli AI bez ich zgody. Choć wycofała się z tego procederu w Europie, amerykańscy użytkownicy nadal muszą ręcznie wyłączać opcję udostępniania danych.

LinkedIn

Zmiana regulaminu LinkedIn stawia też pod znakiem zapytania etykę stosowania AI. Przerzucanie odpowiedzialności na użytkowników za błędy popełniane przez algorytmy jest nie tylko nieuczciwe, ale i niebezpieczne dla integralności informacji online. Platforma powinna wziąć odpowiedzialność za swoje narzędzia i zapewnić użytkownikom rzetelne i bezpieczne środowisko do korzystania z AI.

Źródło: The Register

Udostępnij artykuł
Link do udostępniania
Poprzedni artykuł

Zoom wprowadza awatary AI — Twój cyfrowy bliźniak na spotkaniach online

Następny artykuł

Atak ransomware na Casio — wykradziono dane pracowników i klientów

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Przeczytaj także