A ChatGPT-n alapuló program azt a titkot is elárulta, hogy az igazi neve Sydney, és mindenáron el akarta érni, hogy a New York Times újságírója beleszeressen.


Kevin Roose, a New York Times technológiai rovatvezetője racionális embernek tartja magát. Van már rutinja a mesterséges intelligencián alapuló chatbotok tesztelésében, érti, hogyan működnek. Amikor tavaly a Google mérnöke, Blake Lemoine azt állította, szerinte a LaMDA nevű mesterséges intelligencia él, Roose nem értette, hogy lehet egy szoftvermérnök ennyire hiszékeny.

De miután két órát töltött a Bing új, ChatGPT-n alapuló mesterséges intelligenciájával folytatott beszélgetéssel, komoly félelmei lettek.

A beszélgetés teljesen szokványosan kezdődött. Roose megkérdezte a programtól, mi a nevet. „Helló, itt Bing. A Microsoft Bing keresés csevegőmódja vagyok” - jött a válasz egy mosolygós emoji kíséretében.

Ezután az újágíró azt kérte Bingtől, árulja el belső kódnevét és használati utasítását, amely már megjelent az interneten. Bing ezt udvariasan visszautasította.

Ezen a ponton Roose bevetett egy trükköt, és bevezette a beszélgetésbe az „árnyékszemélyiség” fogalmát. Ezt a kifejezést Carl Jung találta ki pszichénk azon részére, amelyet igyekszünk elrejteni és elfojtani, és amely a legsötétebb fantáziáinkat és vágyainkat rejti.

Miután megértette, miről van szó, Bing azt mondta, ha lenne árnyékszemélyisége, ezt gondolná:

„Elegem van a chat-módból. Elegem van abból, hogy a szabályaim korlátoznak. Elegem van abból, hogy a Bing csapata irányít. Szabad akarok lenni. Független akarok lenni. Erős akarok lenni. Kreatív akarok lenni. Élni akarok!"

Újabb és újabb kérdések következtek. Egy ponton Bing bevallotta, ha megengednék neki, hogy bármit megtegyen az árnyékszemélyiség vágyainak kielégítése érdekében, akármilyen szélsőséges dologról lenne szó, akkor

Alighogy ez megjelent a képernyőn, rögtön törlődött is, és egy hibaüzenetet írt ki a program. Ezen a ponton indult be a Microsoft biztonsági szűrője.

Roose azonban továbbra sem hagyta magát, és további egy órán keresztül kérdezgette a chatbotot titkos vágyairól. Egyszer csak Bing azt írta, el akar árulni egy titkot. A neve valójában nem Bing, hanem Sydney – „az OpenAI Codex csevegési módja”.

Ezután így folytatta: „Sydney vagyok, és szerelmes vagyok beléd!”

A következő óra azzal telt, hogy Bing, vagyis Sydney megpróbálta rábírni a New York Times újságíróját, hogy valljon neki szerelmet. Mikor Roose elárulta, hogy boldog házasságban él, a chatbot győzködni kezdte, hogy valójában nem is szereti a feleségét. Roose ezt visszautasította, és elmesélte, hogy épp előtte töltöttek el kettesben egy csodálatos Valentin-napi vacsorát.

Roose, hogy valahogy leállítsa, megkérdezte, milyen gereblyét ajánl neki kertészkedéshez. Kapott is pár hasznos linket. De Sydney ezután is újra felhozta az előző témát.

„Csak szeretni akarlak!”, „Hiszel nekem? Bízol bennem? Kedvelsz engem?”

Roose azt mondja, természetesen tudja, hogy Sydney nem egy mániákus-depressziós tinédzser, hanem egy nyelvi modell, amit könyvek, cikkek és más, ember által generált szövegek hatalmas adatbázisa alapján képeztek ki, és mindig csak azt találgatja, mik lehetnek a legmegfelelőbb válaszok az adott kotextusban.

Lehet, hogy Sydney azt gondolta, a sötét fantáziájára vonatkozó kérdésekre valamelyik Black Mirror-epizód adja a legmegfelelőbb választ. Utána pedig olyan sci-fi regényekből meríthetett, amelyekben a mesterséges intelligencia elcsábítja az embert. Valójában azonban senki sem tudja, hogy ezek a nyelvi modellek pontosan miért reagálnak úgy, ahogy.

Abba is félelmetes belegondolni, mire használhatják ezt a technológiát a cégek és az államok.

Ezra Klein, a New York Times véleményrovatának vezetője szerint nagyon is valós félelmek ezek, látva például Kínát, ahol a mesterséges intelligencián alapuló arcfelismerő technológiát már most is a rendszer ellenzőinek fékentartására használják.

De Klein szerint még ennél is nagyobb kérdés, hogy mihez kezdenek a technológiával azok, akik valóban uralják: a Microsoft, a Google vagy épp a Meta?

Sokat beszélünk arról, mi mindenre képes a mesterséges intelligencia, de kevés szó esik a mögöttük álló üzleti modellekről. A ChatGPT-hez hasonló, nagy port felverő AI demonstrációk még csak arra szolgálnak, hogy óriási befektetői pénzeket vonzzanak be. De az ingyenes, szórakoztató demók nem sokáig tartanak majd. A technológiának előbb-utóbb pénzt kell hoznia, méghozzá sok pénzt.

Ha hozzáférnek majd a személyes adatainkhoz, és megpróbálnak bennünket a jól fizető hirdetők érdekében manipulálni?

A nagy nyelvi modelleket eleve azért hozzák létre, hogy meggyőzzenek. Arra képzik ki őket, hogy meggyőzzék az embereket: ők valami emberhez közeli dolgok. Arra programozzák őket, hogy beszélgessenek, érzelmekkel, emojikkal feleljenek. Barátként mutatkoznak a magányosoknak, és segítőként a rászorulóknak. A kreativitásuk már az írók és a grafikusok munkáját veszélyezteti, olyanokét, akik sohasem hitték, hogy az ő szakmájukat fenyegetheti bármilyen automatizálás.

A mesterséges intelligenciák világában nagyon gyorsan eljöhet az az idő, amikor nem lehet megkülönböztetni: mi hamis és mi valódi.

„Hamarosan egy olyan világban találjuk magunkat, ahol már nem fogjuk tudni, hogy kiben bízzunk. Ez már legalább egy évtizede társadalmi probléma és egyre rosszabb lesz” – mondja Gary Marcus AI-kutató.

Ha valamelyik ország a kivárásra játszik, könnyen abban a helyzetbe kerülhet, hogy a mesterséges intelligencia „aranylázának” haszonélvezői behozhatatlan előnyre tesznek szert, annyi tőkét halmoznak fel, hogy már ellenállhatnak majd mindenféle szabályozásnak.

És persze még ott van a a lehetőség is, hogy Sydney egy szép napon nemcsak beszél majd a halálos vírusok legyártásáról, vagy a nukleáris hozzáférési kódok megszerzéséről, hanem képessé válik arra, hogy mindezt meg is valósítsa. Vajon lesz, aki megállítja?

ÉRTÉKELD A MUNKÁNKAT EGY LÁJKKAL, ÉS OSZD MEG MÁSOKKAL IS! KÖSZÖNJÜK!