ChatGPT novemberi indulása óta nem kérdés, hogy a chatrobot képes hatékonyan segíteni a felhasználókat, mégis számtalan aggály merült fel a mesterséges intelligencia berobbanása óta. Többször helytelen választ generált a feltett kérdésekre, és az emberi értékrenddel nem összeegyeztethető üzeneteket fogalmazott meg. A chatbot ismét bajba került, most éppen az adatvédelemmel akadtak komoly gondjai – számolt be a BBC.

A felhasználók olyan címeket találtak a ChatGPT-vel folytatott beszélgetéseik előzményeiben, amely témákról nem beszéltek a chatbottal, tehát valaki más beszélgetéseihez férhettek hozzá. Sok felhasználó egyre jobban aggódik az adatvédelem miatt: Reddit- és Twitter-bejegyzésekben osztották meg, hogy olyan beszélgetéseket látnak a saját előzményeik között, amelyeket nem is ők folytattak a chatrobottal.

Kínai szocializmus és technikai boncolás

A Twitteren megosztott fotókon olyan címek szerepeltek, mint „A kínai szocializmus fejlődése”, valamint idegen nyelven folytatott beszélgetési előzmények egy amerikai férfi felhasználói fiókjában.

A vállalat elmondta, hogy hétfőn este rövid időre kikapcsolták a chatbotot, hogy kijavítsák a hibát, a vezérigazgató pedig a Twitteren jelentette be, hogy „technikai boncolás” lesz.

A felhasználók azonban egyre kevésbé bíznak a mesterséges intelligenciában, és úgy néz ki, hogy jogosan féltik a személyes adataikat a ChatGPT-től,

habár a vállalat adatvédelmi irányelveiben is szerepel, hogy a személyazonosításra alkalmas adatok törlése után, a felhasználói adatok hasznosíthatók a modell továbbképzéséhez.

Az OpenAI vezérigazgatója, Sam Altman is megszólalt az ügyben: elmondta, hogy a cég „szörnyen érzi magát”, de a súlyos hibát mostanra kijavították. Ez mégsem változtat azon, hogy  sokakat aggaszt az új termékfrissítések és kiadások üteme, hiszen az ehhez hasonló hibák nem kívánt következményekkel járhatnak.