Az Anthropic vezérigazgatója szerint az mesterségesintelligencia-rendszerek gyorsan fejlődnek ugyan, és ezzel felgyorsítják a tudományos felfedezéseket, de a technológiát a bűnözők is munkába állíthatják, akik már két-három éven belül képesek lehetnek biofegyvereket és veszélyes vírusokat létrehozni. A ChatGPT-hez hasonló MI-chatbotot fejlesztő társaság, ahol egy biztonságos és etikus nagy nyelvi modellen (LLM) dolgoznak, biológiai biztonsági szakértőkkel közösen tanulmányozta, hogy a jövőben hogyan használhatók fel a neurális hálózatok fegyverek létrehozására, és a megállapításaik nem kifejezetten biztatóak.
A korábbi OpenAI-alkalmazottak által alapított Anthropic vezetője, Dario Amodei az amerikai szenátus technológiai albizottsága előtt fejtette ki, hogy mekkora szükség lenne a nagy teljesítményű modellek szabályozására a tudományos és mérnöki területeken, így a kiberbiztonságban, a nukleáris technológiában, a kémiában és a biológiában is. Ezen belül az emberek figyelmét is a biológiai kockázatokra irányítaná, és legkésőbb 2026-ot célozná meg a cselekvéssel: szerinte ha nem állnak fel sürgősen azok a korlátok, amelyek visszafogják az MI-rendszerekkel végrehajtható dolgokat, akkor "nagyon rossz idők jönnek".
Az információs részt kipipálhatják
Az ülésen Amodei felvázolta, hogy a biológiai károkozásnak ma még vannak olyan elemei, amelyek magas szintű, speciális szakértelmet igényelnek, és nem férhetők hozzá egyszerűen a Google-keresésekben vagy a tankönyvekben. Az Anthropic viszont megvizsgálta, hogy a jelenlegi MI-rendszerek képesek-e megoldani ezeknek a folyamatoknak a bonyolultabb lépéseit, és azt találtuk, hogy részben már igen. A teljesítményük egyelőre hiányos és megbízhatatlan, de a valós kockázat kialakulásának jeleit mutatja, és ezt extrapolálva már két-három év múlva képesek lehetnek pótolni a hiányzó részleteket a korlátozások hiányában.
A beszámolók mindezek alapján kiemelik, hogy a mesterséges intelligencia fejlődése rövid időn belül látványosan kiszélesítheti azoknak a szereplőknek a körét, akik technikailag képesek lehetnek egy-egy nagyszabású biológiai támadás végrehajtására. A biológiai fegyverek a modern nukleáris fegyverekhez hasonlóan ismertek és dokumentáltak, de tényleges megtervezésük nehéz, és annak kulcsfontosságú részeit titokban tartják. A gépi tanuló modellek azonban képessé válhatnak pótolni ezeket a hiányosságokat, és a kiberbiztonsághoz hasonlóan az ilyen fegyverekhez bevetéséhez sem kell majd különösebb hozzáértés.
Az ülésen felszólalt Yoshua Bengio, a neurális hálózatok úttörő kutatója is, aki mindennek kapcsán olyan jogszabályok elfogadását sürgette, amelyek mérsékelnék a szélesebb nyilvánosság által hozzáférhető MI-modellek képességeit. Szerinte már kiderült, hogy nem hatékony, amikor az ellenőrizetlen modellek kiadói megpróbálják elejét venni a kártékony felhasználásnak, és alapvető probléma, hogy ilyenkor a felelősség kérdése sem tisztázott.
A több mint két és fél órás ülés felvételeit itt lehet megtekinteni, a The Register összefoglalója ezen az oldalon olvasható.
Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében
"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak