Naukowcy oszukali uczelniany system egzaminacyjny za pomocą AI

Naukowcy z Uniwersytetu w Reading przeprowadzili badanie, w którym sztuczną inteligencję (ChatGPT-4) wykorzystano do napisania odpowiedzi egzaminacyjnych z pięciu modułów licencjackich z psychologii. Celem badania było sprawdzenie, czy AI jest w stanie oszukać system oraz samych oceniających.

Wyniki eksperymentu okazały się zaskakujące. Aż 94% odpowiedzi wygenerowanych przez AI przemknęło się pod czujnym okiem egzaminatorów. Co więcej, oceny przyznane tym pracom były średnio wyższe niż te, które uzyskali studenci. Dowodzi to ogromnego ryzyka związanego z niekontrolowanym użyciem sztucznej inteligencji w edukacji i konieczność opracowania skutecznych metod wykrywania takich działań.

Naukowcy badanie AI egzaminy

W badaniu wykorzystano najnowszą wersję modelu językowego ChatGPT-4, który został stuningowany do generowania odpowiedzi na podstawie dostarczonych materiałów egzaminacyjnych. Prace napisane przez AI były potem anonimowo wysyłane egzaminatorom, którzy nie byli świadomi, że oceniają odpowiedzi stworzone przez sztuczną inteligencję.

Naukowcy biją na alarm

Oprócz wysokiej skuteczności w oszukiwaniu egzaminatorów badanie wykazało również, że AI może generować odpowiedzi o jakości przewyższającej prace pisane przez ludzi. W odpowiedzi na te wyniki naukowcy wzywają do pilnego wprowadzenia nowych standardów i narzędzi, które pozwolą na wykrywanie prac napisanych przez sztuczną inteligencję.

Naukowcy badanie AI egzaminy

Zastosowanie takich technologii w edukacji może mieć daleko idące konsekwencje, zarówno pozytywne, jak i negatywne. Z jednej strony AI może wspierać proces nauczania i odciążać studentów oraz nauczycieli. Z drugiej strony istnieje obawa, że może to prowadzić do oszustw na masową skalę i deprecjacji wartości wykształcenia akademickiego.

Pełne wyniki badania można znaleźć w artykule opublikowanym na łamach PLOS ONE.

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x