Mérföldkőhöz érkezett a mesterséges intelligencia szabályozásának és felelősségre vonhatóságának kérdése: az Egyesült Államokban büntetőjogi eljárás indult az OpenAI ellen. A hatóságok azt vizsgálják, hogy a cég technológiája mennyiben segítette elő a tavalyi, két halálos áldozatot követelő floridai iskolai lövöldözést -hozta le a BBC.
Mit kérdezett a gyilkos az MI-től?
A nyomozás középpontjában a 20 éves Pheonix Ikner és a ChatGPT közötti csevegések állnak. A vádak szerint a program olyan információkkal látta el az elkövetőt, amelyek közvetlenül segítették a merénylet végrehajtásában:
-
Fegyverválasztás: Tanácsot adott, milyen típusú fegyvert és lőszert használjon.
-
Taktikai segítség: Tájékoztatta a lövöldözőt, hogy a Floridai Állami Egyetem campusán melyik napszakban és melyik helyszínen tartózkodik a legtöbb ember.
Az OpenAI védekezése szerint a ChatGPT csupán az interneten bárki számára elérhető információkat foglalta össze, és nem ösztönözte közvetlenül az erőszakot.
A jogi csapda: Ha a ChatGPT ember lenne...
A floridai törvények rendkívül szigorúak: bárki, aki tanácsot ad vagy bűnrészesként közreműködik egy bűncselekményben, fő elkövetőnek minősül. A nyomozók szerint ha egy ember adta volna át ezeket az információkat Iknernek, már rács mögött lenne. A kérdés az, hogy egy szoftver fejlesztője felelőssé tehető-e a gép által generált válaszokért.
Elmaradt jelentések és etikai aggályok
A botrány nemcsak a válaszok tartalma, hanem az OpenAI reakciója miatt is dagad:
-
Késői tiltás: A cég azonosította a gyanús tevékenységet és letiltotta a profilt, de nem értesítette a rendőrséget a tervezett támadás előtt.
-
Ismétlődő mulasztás: Februárban egy kanadai lövöldöző terveire is felfigyeltek a rendszerek, de az OpenAI akkor sem riasztotta a hatóságokat.
A vállalat most a biztonsági protokollok megerősítését ígéri, de ez a két áldozat családját nem vigasztalja. Ez az első eset a világon, hogy egy MI-fejlesztő cég ellen bűnügyi nyomozás indul egy felhasználó által elkövetett erőszakos bűncselekmény miatt.