Apple Intelligence nie jest najostrzejszą kredką w piórniku

Apple w ogniu krytyki po tym, jak jego funkcja wykorzystująca sztuczną inteligencję do podsumowywania najnowszych doniesień prasowych przypisała BBC fałszywy nagłówek. Narzędzie, znane jako Apple Intelligence, wprowadziło w błąd użytkowników, sugerując, że Luigi Mangione, oskarżony o morderstwo CEO firmy ubezpieczeniowej UnitedHealthcare – Briana Thompsona – popełnił samobójstwo. W rzeczywistości Mangione został aresztowany i przebywa w areszcie w Huntingdon State Correctional Institution w Pensylwanii, czekając na proces o morderstwo. Zdarzenie miało miejsce zaledwie 48 godzin po wprowadzeniu Apple Intelligence na rynek w Wielkiej Brytanii.

Apple Intelligence
Źródło: BBC

BBC, zaniepokojone sytuacją, złożyło skargę do Apple, domagając się naprawy systemu. Fałszywy nagłówek pojawił się wśród trzech streszczonych informacji – dwie pozostałe, dotyczące sytuacji w Syrii oraz aktualizacji na temat prezydenta Korei Południowej, Yoon Suk Yeola, były poprawne. Nie jest to pierwszy taki incydent: wcześniej Apple Intelligence błędnie podsumowało informacje, sugerując, że premier Izraela Benjamin Netanjahu został aresztowany, podczas gdy chodziło o nakaz aresztowania wydany przez Międzynarodowy Trybunał Karny, nie zaś o realne zatrzymanie.

Apple Intelligence

Reporterzy bez Granic wzywają firmę do wyłączenia tej funkcji Apple Intelligence

Organizacja Reporterzy bez Granic (RSF) wezwała Apple do wyłączenia funkcji generowania tego typu podsumowań. W oświadczeniu podkreślono, że generatywna AI w obecnej formie jest zbyt niedojrzała, by dostarczać wiarygodne informacje.

AI to maszyny probabilistyczne, a faktów nie można ustalać rzutem kostką. RSF wzywa Apple do odpowiedzialnego działania poprzez usunięcie tej funkcji. Automatyczna produkcja fałszywych informacji przypisywanych redakcji medialnej godzi w wiarygodność tego medium i zagraża prawu społeczeństwa do rzetelnych informacji na temat bieżących wydarzeń — powiedział Vincent Berthier, szef Działu Technologii i Dziennikarstwa w RSF.

Europejski AI Act – mimo że jest najbardziej zaawansowanym prawodawstwem na świecie w tej dziedzinie – nie uznał AI generujących informacje za systemy wysokiego ryzyka, pozostawiając istotną lukę prawną. Musi ona być niezwłocznie wypełniona – dodał.

Apple dotychczas nie skomentowało oficjalnie sprawy. Przedstawiciele firmy promują narzędzie, argumentując, że ma ono ułatwić orientację w natłoku powiadomień, jednak opisywane incydenty pokazują, że algorytmy potrafią wprowadzać użytkowników w błąd. W dobie intensywnego rozwoju AI i dążenia do jej integracji z codziennym życiem tego typu pomyłki mogą negatywnie wpłynąć na zaufanie do technologii, zwłaszcza gdy stawką jest rzetelność informacji oraz bezpieczeństwo odbiorców.

Źródło: BBC, TechSpot

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x