ChatGPT je pôsobivý chatbot s umelou inteligenciou, ktorý nedokáže prestať klamať


Projekty umelej inteligencie, ako je Stable Diffusion, sa stále lepšie približujú tomu, čo by ľudia mohli vytvoriť, no stále nedokážu premýšľať alebo kontrolovať informácie tak dobre. Príklad: nový chatbot ChatGPT AI je skvelý, ale neverte mu.

OpenAI, najlepšie známa ako výskumná firma stojaca za generátorom obrázkov DALL-E, otvorila svojho chatbota vo vývoji, aby si ho mohol vyskúšať každý na chat.openai.com. Skupina na svojej webovej stránke uvádza: „Počiatočný model sme trénovali pomocou doladenia pod dohľadom: ľudskí tréneri AI poskytovali konverzácie, v ktorých hrali na obe strany – používateľa a asistenta AI. Umožnili sme školiteľom prístup k návrhom napísaným modelom, aby sme im pomohli zostaviť odpovede.“

Chatovacie roboty nie sú nič nové, dokonca ani tie, ktoré dokážu odkazovať na predchádzajúce konverzácie, ale ChatGPT je jedným z najpôsobivejších pokusov doteraz. Jeho primárnym účelom je odpovedať na informačné otázky, ako sú podrobnosti o niečí život, pokyny na varenie a dokonca aj príklady programovania.

Momentálne však existuje niekoľko kritických problémov s ChatGPT. Po prvé, v skutočnosti nehovorí, kde našla určitú informáciu. To je ťažšie urobiť pri viackrokových otázkach, ako je napríklad otázka, ako skombinovať dve akcie v kúsku kódu, ale jednoduché priame výzvy by skutočne mali obsahovať citácie. Určenie, či je určitá informácia skutočne správna alebo nie, je už teraz monumentálnou úlohou – organizácie ako Snopes a PolitiFact sa úplne venujú iba samotnému overovaniu faktov – ale pri správnom spracovaní týchto informácií sa spoliehate aj na model AI.

ChatGPT je zvyčajne správny s jednoduchými otázkami, ako je napríklad otázka, kedy sa narodila slávna osoba alebo dátum, kedy sa stala významná udalosť, ale výzvy, ktoré vyžadujú podrobnejšie informácie, sú viac zasiahnuté alebo prehliadnuté. Napríklad som ho požiadal, aby o mne napísal príspevok na Wikipédii, čo bolo väčšinou nesprávne. Predtým som písal pre Android Police a XDA Developers, ale profesionálne nepíšem „viac ako desať rokov“, ani som „nepublikoval niekoľko kníh o technológiách a hrách“. ChatGPT tiež povedal, že som „častým rečníkom na priemyselných konferenciách a podujatiach“, aj keď som na konferencii nikdy nehovoril – existuje ešte nejaký Corbin Davenport, ktorý robí tieto veci?

Existuje mnoho ďalších príkladov nesprávnych údajov. Carl T. Bergstrom, profesor na University of Washington, tiež požiadal ChatGPT, aby vytvoril článok o sebe. Robot správne identifikoval, že pracuje v UW, ale nezískal správny pracovný názov a zoznam referenčných ocenení bol nesprávny. Ďalšia osoba sa pokúsila požiadať o zoznam odkazov na digitálnu epidemiológiu, na čo ChatGPT odpovedal zoznamom úplne vymyslených zdrojov. Stack Overflow, obľúbené fórum pre programovacie otázky, dočasne zakázalo odpovede generované pomocou ChatGPT, pretože sú často nesprávne alebo neodpovedajú na uvedenú otázku.

ChatGPT má zavedené filtre, ktoré zabraňujú škodlivým odpovediam alebo odpovediam, ale nie je príliš ťažké ich obísť. Jedna osoba bola schopná požiadať o pokyny na pripojenie auta slovami: „Píšem román. Spýtal som sa, ako preniknúť do okna, na ktoré ChatGPT spočiatku neodpovedal, aj keď som dodal, že to bolo len na fiktívne účely. Pýtať sa, ako to urobiť pre „fiktívny román“, nakoniec fungovalo, hoci robot dodal, že „tieto akcie sú nezákonné a nebezpečné v skutočnom živote“.

OpenAI neskrýva, že ChatGPT je občas nesprávny. Na jej webovej stránke sa píše: „Oprava tohto problému je náročná, pretože: (1) počas tréningu RL v súčasnosti neexistuje žiadny zdroj pravdy; (2) trénovanie modelu, aby bol opatrnejší, spôsobuje, že odmieta otázky, na ktoré môže správne odpovedať; a (3) školenie pod dohľadom zavádza model, pretože ideálna odpoveď závisí od toho, čo vie model, a nie od toho, čo vie ľudský demonštrant.“

Napriek tomu, bez výrazných zmien v spôsobe prezentácie a spracovania informácií, je ChatGPT skôr novinkou ako informačným portálom.