OpenAI publikuje narzędzie do wykrywania tekstu napisanego przez SI

Firma OpenAI, która stoi za głośnym botem ChatGPT, opublikowała narzędzie, które ma służyć do wykrywania, czy badany tekst wygenerowała sztuczna inteligencja. To reakcja na głośne protesty środowiska akademickiego i nauczycieli, którzy obawiali się, że uczniowie i studenci będą korzystać z SI do pisania wypracowań, a nawet egzaminów.

AI Text Classifier to precyzyjnie dostrojony model GPT, który przewiduje, jak prawdopodobne jest, że tekst został wygenerowany przez SI, takie jak ChatGPT – wyjaśnia nowy wpis na blogu OpenAI.

openai-gpt-3-sztuczna-inteligencja-streszczenie-ksiazek-dokumentacji-technicznej

Narzędzie OpenAI nie jest jeszcze w pełni wiarygodne

Wiele amerykańskich uniwersytetów i szkół zablokowało dostęp do bardzo popularnego ostatnio bota ChatGPT, ze względu na to, że nie byli w stanie odróżnić np. streszczenia książki wygenerowanego przez SI od takiego, które napisał uczeń. Powstała więc potrzeba stworzenia narzędzia, które będzie w stanie odróżnić pracę człowieka i maszyny. Od kilku tygodni pojawiały się amatorskie rozwiązania, ale teraz za sprawę zabrali się ci, którzy stoją za całym zamieszaniem. OpenAI ostrzega jednak, że wykorzystywanie ich narzędzia jako jedynego dowodu na nieuczciwe praktyki

Nasz klasyfikator nie jest w pełni wiarygodny – ostrzega OpenAI.

W naszych ocenach na „zestawie wyzwań” tekstów angielskich, nasz klasyfikator poprawnie identyfikuje 26% próbek napisanych przez SI (true positives) jako „prawdopodobnie napisane przez SI”. Z drugiej strony, 9% próbek napisanych przez człowieka ocenianych jest jaki napisane przez SI (false positives).

Jakość narzędzia prawdopodobnie poprawi się wraz z upływem czasu i wytrenowaniem go za pomocą kolejnych danych. Na razie jednak nie jest to niezawodne narzędzie do wykrywania treści generowanych przez SI.

Źródło: OpenAI

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x