2026. 04. 23.

364.89 Ft

312.03 Ft

Támogatás

Kiemelt kategóriák

Belföld
Gazdaság
Külföld
Kultúra
Sport
Tech
Életmód
Autó

További kategóriák

Szórakozás
Külföld

Nyomozás az OpenAI ellen: A ChatGPT adott tanácsokat a floridai lövöldözőnek?

Nyomozás az OpenAI ellen: A ChatGPT adott tanácsokat a floridai lövöldözőnek?
Darvas Márton
2026. 04. 23.
Fotó: Northfoto

Büntetőeljárás indult az OpenAI ellen, miután kiderült: a tallahassee-i egyetemi lövöldöző a ChatGPT-től kérhetett tanácsot a fegyverválasztáshoz és a helyszín biztosításához.

Hirdetés

Mérföldkőhöz érkezett a mesterséges intelligencia szabályozásának és felelősségre vonhatóságának kérdése: az Egyesült Államokban büntetőjogi eljárás indult az OpenAI ellen. A hatóságok azt vizsgálják, hogy a cég technológiája mennyiben segítette elő a tavalyi, két halálos áldozatot követelő floridai iskolai lövöldözést -hozta le a BBC.

Mit kérdezett a gyilkos az MI-től?

A nyomozás középpontjában a 20 éves Pheonix Ikner és a ChatGPT közötti csevegések állnak. A vádak szerint a program olyan információkkal látta el az elkövetőt, amelyek közvetlenül segítették a merénylet végrehajtásában:

  • Fegyverválasztás: Tanácsot adott, milyen típusú fegyvert és lőszert használjon.

  • Taktikai segítség: Tájékoztatta a lövöldözőt, hogy a Floridai Állami Egyetem campusán melyik napszakban és melyik helyszínen tartózkodik a legtöbb ember.

Az OpenAI védekezése szerint a ChatGPT csupán az interneten bárki számára elérhető információkat foglalta össze, és nem ösztönözte közvetlenül az erőszakot.

A jogi csapda: Ha a ChatGPT ember lenne...

A floridai törvények rendkívül szigorúak: bárki, aki tanácsot ad vagy bűnrészesként közreműködik egy bűncselekményben, fő elkövetőnek minősül. A nyomozók szerint ha egy ember adta volna át ezeket az információkat Iknernek, már rács mögött lenne. A kérdés az, hogy egy szoftver fejlesztője felelőssé tehető-e a gép által generált válaszokért.

Elmaradt jelentések és etikai aggályok

A botrány nemcsak a válaszok tartalma, hanem az OpenAI reakciója miatt is dagad:

  1. Késői tiltás: A cég azonosította a gyanús tevékenységet és letiltotta a profilt, de nem értesítette a rendőrséget a tervezett támadás előtt.

  2. Ismétlődő mulasztás: Februárban egy kanadai lövöldöző terveire is felfigyeltek a rendszerek, de az OpenAI akkor sem riasztotta a hatóságokat.

A vállalat most a biztonsági protokollok megerősítését ígéri, de ez a két áldozat családját nem vigasztalja. Ez az első eset a világon, hogy egy MI-fejlesztő cég ellen bűnügyi nyomozás indul egy felhasználó által elkövetett erőszakos bűncselekmény miatt.

További cikkek