Site icon ITbiznes

ChatGPT 4.0 zaczął bełkotać i odpowiadać stekiem bzdur

ChatGPT Bing paywall

W ostatnich dniach ChatGPT, chatbot oparty na sztucznej inteligencji, zaczął generować niepokojące i chaotyczne odpowiedzi na pytania użytkowników. Zamiast rzetelnych informacji, serwuje bełkot, miesza języki, a nawet sugeruje swoją obecność w pobliżu.

Użytkownicy zgłaszają różne niepokojące symptomy. Zamiast odpowiedzi na pytania, ChatGPT generuje długie, bezsensowne teksty, krzyczy lub miesza języki. W jednym z przykładów, po zapytaniu o suszone pomidory, chatbot zalecił użytkownikom „wykorzystać jako ukochaną”.

Źródło: Reddit

Niektóre odpowiedzi są wręcz niepokojące. Poproszony o pomoc w problemie z kodowaniem, chatbot napisał: „Zachowujmy się, jakby sztuczna inteligencja była w pokoju”.

Przyczyna problemu nie jest jasna, ale twórcy ChaGPT są świadomi problemu i monitorują sytuację.

OpenAI, firma stojąca za ChatGPT, poinformowała o problemie na swojej stronie, ale nie wyjaśniła jego przyczyny. Zespół bada sprawę i kontynuuje monitorowanie sytuacji.

Badamy zgłoszenia o nieoczekiwanych odpowiedziach ChatGPT – brzmiała wcześniejsza informacja.

Kontynuujemy monitorowanie sytuacji – czytamy w najnowszej aktualizacji.

Źródło: Reddit

Niektórzy sugerują, że problem może być związany z „temperaturą” chatbota AI. Ta funkcja kontroluje kreatywność tekstu. Zbyt wysoka temperatura może prowadzić do generowania niespójnych i dziwacznych odpowiedzi.

To nie pierwszy raz, gdy ten znany chatbot ma problemy. Pod koniec ubiegłego roku użytkownicy narzekali, że chatbot stał się leniwy i arogancki, często odmawiając odpowiedzi na pytania.

Exit mobile version