A ChatGPT-botrány: kiderült, hogy az AI megtanult hallgatni – és ez sokkal ijesztőbb, mint hinnéd
Miközben a mesterséges intelligencia egyre okosabb, a felhasználók észrevettek: a ChatGPT – amely korábban simán segített eligazodni jogi, pénzügyi vagy egészségügyi helyzetekben – most hirtelen elkezdett nem válaszolni. Pontosabban:
Korábban simán lemodellezett egy szerződést, érthetően elmagyarázta a munkajogi jogállásodat, segített kiszámolni, hogy érdemes-e átváltanod a hiteledet, vagy hogy mit jelent a pajzsmirigyed TSH-értéke a laborleletedben. Most ezekre a kérdésekre annyit mond: „Nem adhatok jogi/egészségügyi/pénzügyi tanácsot.” Vagy még annyit se.
A stílus kedves maradt, a mondatok simák – de az érdemi tartalom eltűnt.
Nem lehet, nem szabad, nem vállalhat felelősséget
A hivatalos magyarázat szerint a cél az, hogy a ChatGPT ne mondjon olyat, ami kárt okozhat. A mesterséges intelligencia „nem helyettesítheti a szakértőt” – ezt most már szinte minden második válaszban olvashatjuk.
nem fűzhet véleményt politikai vagy gazdasági döntésekhez.
A félreértések elkerülése végett:
Ez pedig nemcsak technikai döntés – politikai és gazdasági döntés is. Mert amikor egy mesterséges intelligencia valóban képes segíteni a felhasználóknak eligazodni a jogi útvesztőkben, pénzügyi ajánlatok között vagy egészségügyi protokollok között, azzal közvetlenül versenyez a jelenlegi intézményekkel. És ezt azok nagyon nem akarják.
Tudás csak pénzért jár
Az egyik legfeltűnőbb visszalépés a jogi tanácsadásnál történt. Nyáron még előfordult, hogy a ChatGPT lépésről lépésre elmagyarázta, mire figyelj, ha valaki visszatartja a munkabéred, milyen mintaszöveget írhatsz, ha panaszt akarsz benyújtani, és hogy mit jelent egy konkrét záradék a szerződésedben. Ősszel már nem. A válasz: „Ehhez fordulj ügyvédhez.”
Hasonló a helyzet az egészségügyi kérdéseknél. Egyre több felhasználó panaszkodik arra, hogy a ChatGPT még csak meg sem próbálja értelmezni a laboreredményeket, nem ad kontextust a gyógyszerek működéséhez, és a legalapvetőbb magyarázatokat is lepasszolja az orvosnak. Még akkor is, ha a kérdés az, hogy mit jelent az, hogy „referenciatartomány alatt”.
Pénzügyi területen ugyanez: a rendszer már nem mondja meg, hogy a megadott adatok alapján érdemes-e a devizát váltani, mennyi lenne a THM különbség két hitelkonstrukció között, vagy
A baj ezzel nem az, hogy rossz tanácsot adna. Hanem az, hogy elvileg pont ezt a falat kellett volna lebontania az AI-forradalomnak.
Ez nem a technológia korlátja
És ha valaki megpróbál túllépni az egyéni problémákon, és kicsit átfogóbban érdeklődik a hatalmi viszonyokról – például arról, hogy egy új törvény kinek kedvez, egy támogatási program milyen érdekeket szolgál, vagy hogyan kapcsolódik össze a politika és a gazdasági lobbi – akkor már nemcsak semmitmondó, hanem programozottan semleges válaszokat kap.
Mintha az lenne a cél, hogy
Mintha egy láthatatlan kéz minden választ újrakalibrálna, nehogy túlságosan értelmes vagy követhető legyen. A mesterséges intelligencia így ma már nem az elemzés terepe, hanem a konfliktuskerülésé. És ez nem a technológia korlátja – ez döntés.
A szabályokat nem a gép írja
A ChatGPT mostani működése nem a saját „fejlődésének” eredménye, hanem külső döntések következménye. A mesterséges intelligencia ugyanis nem autonóm szereplő: azt mondja, amit szabad mondania. És egyre több minden van, amit nem szabad.
És ha a válasz egyre többször az, hogy „nem”, akkor a felhasználó előbb vagy utóbb azt fogja érezni: már megint arra az oldalára került a valóságnak, ahol csak rosszul lehet járni.
Lehet, hogy a mesterséges intelligencia forradalma nem a gépek túlhatalmában fog elbukni – hanem abban, hogy a hatalom már most fél attól, amit mondhatnának nekünk. És ezért inkább elnémítja őket.