STA

 |  Svet

Samomor zaradi ChatGPT-ja?

Starša 16-letnika sta na sodišču vložila tožbo proti tehnološkemu podjetju OpenAI, ker naj bi ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil

Starša 16-letnika iz Kalifornije, ki je storil samomor, sta v ponedeljek na zveznem sodišču te ameriške zvezne države vložila tožbo proti ameriškemu tehnološkemu podjetju OpenAI, ker naj bi njihov klepetalni robot ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil, poročajo tuje tiskovne agencije.

Matthew and Maria Raine v tožbi trdita, da je v mesecih pred samomorom 11. aprila letos njun sin Adam razvil nezdrav odnos s klepetalnim robotom, ki ga je sprva uporabljal za šolo.

Ta naj bi mu je v zadnjem pogovoru na dan smrti pomagal, da je staršem ukradel vodko. Zagotovil naj bi mu tudi tehnično analizo zanke, ki jo je zvezal, ter potrdil, da bi se z njo človek lahko potencialno obesil. Nekaj ur kasneje so Adama našli mrtvega, potem ko je za samomor uporabil to metodo.

V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.

"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben," sta poudarila in dodala izvlečke pogovorov, v katerih je ChatGPT domnevno rekel Adamu, da "ni nikomur dolžan preživeti", in mu ponudil pomoč pri pisanju poslovilnega pisma.

"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben."

Starša umrlega najstnika

Starša tožita OpenAI in glavnega izvršnega direktorja tega podjetja s področja umetne inteligence Sama Altmana.

Zahtevata nedoločeno odškodnino, sodišče pa pozivata, naj določi varnostne ukrepe, vključno s samodejnim končanjem pogovorov, ki vključujejo samopoškodovanje, in starševskim nadzorom za mladoletne uporabnike.

OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe. V blogu, v katerem sicer ni omenilo tožbe, je podjetje poudarilo, da je ChatGPT usposobljen, da uporabnikom, ki izražajo samomorilske namere, priporoči, naj se za pomoč obrnejo na strokovnjake.

So pa pri podjetju po lastnih navedbah ugotovili, da se kljub temu in drugim varnostnim mehanizmom v občutljivih situacijah robot ni obnašal, kot bi se moral. Varnostni mehanizmi namreč delujejo najbolje v kratkih izmenjavah in lahko v dolgih interakcijah odpovejo, so izpostavili.

Pojasnili so še, da ChatGPT tudi prepozna, kdaj je uporabnik mlajši od 18 let, da lahko uporabi zaščitne ukrepe. Po novem naj bi uvedli tudi starševski nadzor, raziskujejo pa tudi možnost, da bi mladoletne uporabnike neposredno povezali s kontaktno osebo za nujne primere.

gl5sd_AXdK4

iKsxvTUIBpE

Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.