ChatGPT wciąż będzie kłamał jak najęty i unikał pracy, ale sam się do tego przyzna

13 godziny temu 9

ChatGPT, tak samo, jak i inne modele językowe mimo bycia tylko AI, wykazuje cechy typowe dla cwanych i leniwych ludzkich pracowników. Tym samym często nie robi tego, o co go prosimy, a jak nie znajduje informacji — często ich nawet nie szukając — to zwyczajnie zmyśla, licząc, że to przejdzie. Oczywiście potraktujcie to z przymrużeniem oka: AI nie działa intencjonalnie, bo nie jest zdolne do posiadania intencji. Jednak efekty wyglądają tak, a nie inaczej. 

Dalsza część tekstu pod wideo

ChatGPT z autodonosem

Czy ChatGPT zacznie wykonywać zlecone zadania co do joty i przestanie halucynować? Oczywiście, że nie. Przynajmniej na razie. Będzie jednak wysyłać raporty na ten temat. W ten sposób będziemy świadomi tego, kiedy model językowy nie wywiązał się z zadań. To natomiast pozwoli nam na uniknięcie błędów nim spowodowanych.

Advertisement

To jednak dopiero początek. Dzięki tym mechanizmom możliwe stanie się szkolenie warunkujące mające zminimalizować te niepożądane zachowania. Oczywiście będzie to dość długi i mozolny proces, a model językowy zapewne będzie dążył do jego obejścia. Daje to jednak dość realne szanse na poprawę jakości działania agentów AI. 

Przeczytaj źródło