Az OpenAI is támogatja az Illinois államban készülő törvényhavaslatot, ami korlátozná a gyártók felelősségét a mesterséges intelligencia által okozott tömeges halálesetek vagy nagyszabású pénzügyi károk vonatkozásában.

Az MI-chatbotok már nemcsak az elméleti viták kereszttüzében állnak, hanem a fejlesztőknek egyre gyakrabban van jelenésük a bíróságon is a termékeikkel összefüggésbe hozott jogsértések és anyagi károk, mentális egészségügyi válságok, sőt gyilkosságok és öngyilkosságok miatt. A múlt héten például Florida állam főügyésze jelentett be újabb vizsgálatot az OpenAI ellen egy tavalyi halálos iskolai lövöldözés ügyében, amelyet az áldozatok képviselői szerint legalább részben a ChatGPT-vel folytatott beszélgetések inspiráltak. Maga az OpenAI és a többi gyártó eközben mindent megtesz, hogy mentesüljön a jogi felelősség alól.

A számukra kedvező szabályozás kialakításának érdekében az MI-cégek a technológiai ipar legnagyobb lobbistáivá váltak. Tavaly az Egyesült Államokban szövetségi szinten már sok millió dollárt költöttek a törvényhozók véleményének alakítására, nemrég pedig az is kiderült, hogy az OpenAI-nál dolgozó ügyvédek alapították a Parents and Kids Safe AI Coalition nevű fedőszervezetet is, ami országszerte aktivista csoportok támogatását próbálta megszerezni a gyerekek védelmét célzó, de lényegében a mesterséges intelligenciával foglalkozó vállalatok felelősségét felhígító szabályozás kialakításához az MI-alapú termékek ártalmas hatásait illetően.

A Wired néhány nappal ezelőtt számolt be róla, hogy az OpenAI egy olyan törvényjavaslatot támogat az amerikai Illinois államban, ami mentesítené az iparági szereplőket az elszámoltathatóság alól mindazokban az esetekben, amikor a mesterséges intelligencia "kritikus károkat" okoz, értve ezalatt a tömeges haláleseteket, a több mint 100 ember sérülésével járó incidenseket vagy az 1 milliárd dollárnál is magasabb anyagi károkat. A tudósítások alapján az SB 3444 jelzéssel futó tervezet elfogadása olyan országos szabványt állíthat fel az ágazatban, ami általánosan felmenti az MI-fejlesztőket a jövőbeni katasztrófák felelőssége alól.

Egységes szabályok, általános felmentés

Az OpenAI álláspontja szerint az ilyen megközelítések úgy teszik lehetővé a legfejlettebb MI-rendszerekből eredő súlyos károk kockázatának csökkentését, hogy közben lehetővé teszik a technológia használatba vételét a lakosság és az üzleti vállalkozások részéről, és "egyértelműbb, következetesebb nemzeti szabványok" kialakításával küszöbölik ki a helyi szabályozások egyenetlenségeit. A törvényjavaslat egyébként akkor is mentesítené a gyártókat a felelősség alól, ha rosszindulatú szereplők MI-eszközöket használnának vegyi vagy nukleáris fegyverek előállítására – amelynek lehetőségére a szakértők évek óta figyelmeztetnek.

A tervezet igazi jelentősége abban áll, hogy a megfelelő feltételek mellett egységesen szabályozná a természetéből adódóan határokon átnyúló MI-technológiát, a nyakatekert helyzetet pedig jól jellemzi, hogy a Trump-kormányzat egyrészt minden eddiginél jobban kiszolgálja az iparági szereplők érdekeit, másrészt viszont az egyes államokra bízza polgáraik védelmét az MI-vel összefüggő fenyegetésekkel szemben. Az OpenAI most azzal érvel, hogy az állami szintű SB 3444 utat nyitna a szövetségi rendszerekkel való harmonizáció felé, amelyeket úgy kell kialakítani, hogy ne hátráltassák az USA-t a globális mesterségesintelligencia-versenyben.

A javaslatnak elsősorban a határmodellek bevezetésére lenne komoly hatása, amelyek a legújabb és legfejlettebb, a széles körben elterjedt rendszerek teljesítményét meghaladó, de éppen ezért jelentős rizikót hordozó rendszerek. A benne szereplő meghatározás szerint ide tartozna minden MI-modell, amit több mint 100 millió dolláros számítási költséggel képeztek ki, ez pedig minden bizonnyal érvényes az OpenAI, a Google, az xAI, az Anthropic vagy a Meta termékeire. Közben legújabb és legerősebb modelljéről, a Claude Mythosról szólva nemrég már maga az Anthropic is "példátlan kiberbiztonsági kockázatokra" figyelmeztetett.

Egyelőre nem látszik a vége a dolognak

A Wired riportja azért azt is kifejti, hogy bármilyen szövetségi MI-törvény jóváhagyása per pillanat elérhetetlen célnak tűnik: bár a Trump-adminisztráció végrehajtási rendeleteket adott ki és keretrendszereket tett közzé, eddig még nem vezettek sehova egy ilyen intézkedés tényleges elfogadásáról szóló tárgyalások. Szövetségi iránymutatás hiányában az egyes államok hoznak saját törvényeket az MI-fejlesztők biztonsági és átláthatósági jelentéseinek benyújtásáról és más keretekről, de a lap szerint az évek óta tartó mesterségesintelligencia-boom ellenére is nyitott jogi kérdés, hogy mi történik majd, ha valamelyik MI-modell tényleg katasztrófát okoz.

Ide tartozik, hogy az amerikai bíróságok rövid idő alatt döntést hoztak két nagy horderejű perben is, amelyekben big tech vállalatokat vádoltak a gyerekek és tinédzserek veszélyeztetésével az általuk üzemeltetett közösségimédia-platformokon. Ezekben lényegében kimondták, hogy a gyártókat a konkrét technológiai termékektől függetlenül felelősség terheli a szóban forgó termékek kialakításáért és annak hatásaiért, a kommentárok alapján pedig a "repeszek" telibe találhatják a mesterségesintelligencia-fejlesztőket is, akik hasonló gyakorlatokat folytatnak a piacszerzés érdekében, és a közösségi platformokéhoz hasonló érveléssel védekeznek.

Piaci hírek

Az iráni konfliktus a SCADA rendszerekben is megjelent

Iráni hekkercsapatok világszerte az ipari vezérlőrendszerek támadásával igyekeznek zavarni az ellátási láncokat.
 
Mesterséges intelligencia, DevSecOps, platformkonszolidáció – leggyakrabban ez a három szó hangzik el a szakértők szájából.

a melléklet támogatója a Clico

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.