A mesterséges intelligencia „Nagy Testvérként” működik, rögzíti a beszélgetéseket, és adatokat továbbít a hatóságoknak. Az OpenAI azt állítja, hogy átvizsgálja a felhasználók beszélgetéseit a ChatGPT-ben, és bizonyos esetekben a tartalmat jelentik a rendőrségnek. Ezt az állítást a Futurism.com hozta nyilvánosságra, és ismételten kérdéseket vet fel a mesterséges intelligencia szerepéről, valamint azon vállalatokról, amelyek ezeket a modelleket fejlesztik.
Az OpenAI elismeri mindezt. Úgy reagáltak, hogy a használati szabályzatnak része az „átvizsgálás” és a beszélgetések tartalmának továbbítása a megfelelő bűnüldöző vagy igazságszolgáltatási hatóságok felé azokban az esetekben, amikor fennáll a valószínűsége, hogy súlyos testi sértés fenyeget harmadik személyt. „Ha olyan felhasználókat találunk, akik azt tervezik, hogy másokat bántanak, a beszélgetéseiket olyan speciális csatornákra irányítjuk, amelyeket olyan emberek kezelnek, akik képzettek a felhasználási szabályzatunkban, és akik jogosultak lépéseket tenni ez ügyben, beleértve a fiókok letiltását is. Ha ők azt állapítják meg, hogy az átfésült beszélgetés közvetlen fenyegetést jelent másokkal szemben, akkor a hatóságok felé fordulhatnak” – magyarázta a cég.
Az öngyilkossági gondolatokat vagy öngyilkos magatartást tükröző eseteket nem jelentik a hatóságok felé, azzal az indokkal, hogy ezek az esetek a magánélethez és etikai felelősséghez tartoznak.
Ez a gyakorlat heves társadalmi és tudományos vitákat váltott ki, mivel súlyos kérdéseket vet fel a közbiztonság védelme és az egyén magánéhez való joga közti egyensúlyról – nyilatkozta a Flash.gr-nek Vasszilisz Zográfosz, számítástechnikai és adattudományi szakértő. „A felhasználási szabályzat nem írja le egyértelműen ezt az átvizsgálási és hatóságokhoz történő jelentési gyakorlatot” – hangsúlyozta.
Az OpenAI jogi előírásából kiderül, hogy a cég eleget tesz a törvényes kérelmeknek, mint például felhívások, végzések vagy bírósági parancsok, és csak ilyen esetekben hozza nyilvánosságra a felhasználói adatokat – jegyezte meg Zográfosz. Ugyanakkor ha sürgős veszély (például súlyos testi sértés vagy halál) áll fenn, előfordulhat, hogy formális jogi eljárás nélkül is adatokat szolgáltatnak a veszély elhárítása érdekében.
Felmerül a kérdés, hogy a felhasználókat erről mennyire tájékoztatják, és hogy ez benne van-e a szabályzatban. Zográfosz szerint az OpenAI azt közölte, hogy valós időben figyeli a beszélgetéseket harmadik felek elleni fenyegetések miatt, és ha ilyen fenyegetést találnak, a beszélgetés egy emberi, szakértő csoport elé kerül értékelésre. Ha közvetlen veszély áll fenn, azt jelenthetik a hatóságok felé. Viszont a felhasználási szabályzat nem tartalmaz világos megfogalmazást erre a gyakorlatra – érvelt a szakértő. „Ez a gyakorlat akár az európai jogi kereteket is sértheti” – jelentette ki Zográfosz, aki arra is rámutat, hogy az OpenAI által elismert gyakorlat – a beszélgetések átvizsgálása és esetleges jelentése hatóságoknak – nem szerepel egyértelműen a felhasználási szabályzatban, ami azt jelenti, hogy a felhasználók valószínűleg nem adtak tudatos hozzájárulást ehhez.
Az Európai Unióban a GDPR (Általános Adatvédelmi Rendelet) előírja, hogy személyes adatok csak akkor kezelhetők, ha egyértelmű jogi alapja van (6. cikk). Az adatok gyűjtése és felhasználása bűnmegelőzési célra csak akkor megengedett, ha jogszabály írja elő, és arányos a célhoz képest. Az átláthatóságot biztosítani kell, és a felhasználót világosan tájékoztatni kell arról, hogyan és miért dolgozzák fel az adatokat.
Mivel az OpenAI az Egyesült Államokban székel, de az EU-ban is működik, a GDPR hatálya alá tartozik. Ezért minden ilyen gyakorlatot dokumentálni kell, valamint megindokolni, és a felhasználókat is tájékoztatni minderről.
Kiemelt fotó: illusztráció, Getty Images
The post Tudtad, hogy a ChatGPT-ben folytatott beszélgetéseket átvizsgálják, és a tartalomról beszámolnak a hatóságoknak? first appeared on nlc.