ChatGPT 4.0 zaczął bełkotać i odpowiadać stekiem bzdur

W ostatnich dniach ChatGPT, chatbot oparty na sztucznej inteligencji, zaczął generować niepokojące i chaotyczne odpowiedzi na pytania użytkowników. Zamiast rzetelnych informacji, serwuje bełkot, miesza języki, a nawet sugeruje swoją obecność w pobliżu.

Użytkownicy zgłaszają różne niepokojące symptomy. Zamiast odpowiedzi na pytania, ChatGPT generuje długie, bezsensowne teksty, krzyczy lub miesza języki. W jednym z przykładów, po zapytaniu o suszone pomidory, chatbot zalecił użytkownikom „wykorzystać jako ukochaną”.

ChatGPT bełkot Reddit
Źródło: Reddit

Niektóre odpowiedzi są wręcz niepokojące. Poproszony o pomoc w problemie z kodowaniem, chatbot napisał: „Zachowujmy się, jakby sztuczna inteligencja była w pokoju”.

Przyczyna problemu nie jest jasna, ale twórcy ChaGPT są świadomi problemu i monitorują sytuację.

OpenAI, firma stojąca za ChatGPT, poinformowała o problemie na swojej stronie, ale nie wyjaśniła jego przyczyny. Zespół bada sprawę i kontynuuje monitorowanie sytuacji.

ChatGPT status

Badamy zgłoszenia o nieoczekiwanych odpowiedziach ChatGPT – brzmiała wcześniejsza informacja.

Kontynuujemy monitorowanie sytuacji – czytamy w najnowszej aktualizacji.

ChatGPT bełkot Reddit
Źródło: Reddit

Niektórzy sugerują, że problem może być związany z „temperaturą” chatbota AI. Ta funkcja kontroluje kreatywność tekstu. Zbyt wysoka temperatura może prowadzić do generowania niespójnych i dziwacznych odpowiedzi.

To nie pierwszy raz, gdy ten znany chatbot ma problemy. Pod koniec ubiegłego roku użytkownicy narzekali, że chatbot stał się leniwy i arogancki, często odmawiając odpowiedzi na pytania.

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x