Az Anthropic vezérigazgatója szerint az mesterségesintelligencia-rendszerek gyorsan fejlődnek ugyan, és ezzel felgyorsítják a tudományos felfedezéseket, de a technológiát a bűnözők is munkába állíthatják, akik már két-három éven belül képesek lehetnek biofegyvereket és veszélyes vírusokat létrehozni. A ChatGPT-hez hasonló MI-chatbotot fejlesztő társaság, ahol egy biztonságos és etikus nagy nyelvi modellen (LLM) dolgoznak, biológiai biztonsági szakértőkkel közösen tanulmányozta, hogy a jövőben hogyan használhatók fel a neurális hálózatok fegyverek létrehozására, és a megállapításaik nem kifejezetten biztatóak.
A korábbi OpenAI-alkalmazottak által alapított Anthropic vezetője, Dario Amodei az amerikai szenátus technológiai albizottsága előtt fejtette ki, hogy mekkora szükség lenne a nagy teljesítményű modellek szabályozására a tudományos és mérnöki területeken, így a kiberbiztonságban, a nukleáris technológiában, a kémiában és a biológiában is. Ezen belül az emberek figyelmét is a biológiai kockázatokra irányítaná, és legkésőbb 2026-ot célozná meg a cselekvéssel: szerinte ha nem állnak fel sürgősen azok a korlátok, amelyek visszafogják az MI-rendszerekkel végrehajtható dolgokat, akkor "nagyon rossz idők jönnek".
Az információs részt kipipálhatják
Az ülésen Amodei felvázolta, hogy a biológiai károkozásnak ma még vannak olyan elemei, amelyek magas szintű, speciális szakértelmet igényelnek, és nem férhetők hozzá egyszerűen a Google-keresésekben vagy a tankönyvekben. Az Anthropic viszont megvizsgálta, hogy a jelenlegi MI-rendszerek képesek-e megoldani ezeknek a folyamatoknak a bonyolultabb lépéseit, és azt találtuk, hogy részben már igen. A teljesítményük egyelőre hiányos és megbízhatatlan, de a valós kockázat kialakulásának jeleit mutatja, és ezt extrapolálva már két-három év múlva képesek lehetnek pótolni a hiányzó részleteket a korlátozások hiányában.
A beszámolók mindezek alapján kiemelik, hogy a mesterséges intelligencia fejlődése rövid időn belül látványosan kiszélesítheti azoknak a szereplőknek a körét, akik technikailag képesek lehetnek egy-egy nagyszabású biológiai támadás végrehajtására. A biológiai fegyverek a modern nukleáris fegyverekhez hasonlóan ismertek és dokumentáltak, de tényleges megtervezésük nehéz, és annak kulcsfontosságú részeit titokban tartják. A gépi tanuló modellek azonban képessé válhatnak pótolni ezeket a hiányosságokat, és a kiberbiztonsághoz hasonlóan az ilyen fegyverekhez bevetéséhez sem kell majd különösebb hozzáértés.
Az ülésen felszólalt Yoshua Bengio, a neurális hálózatok úttörő kutatója is, aki mindennek kapcsán olyan jogszabályok elfogadását sürgette, amelyek mérsékelnék a szélesebb nyilvánosság által hozzáférhető MI-modellek képességeit. Szerinte már kiderült, hogy nem hatékony, amikor az ellenőrizetlen modellek kiadói megpróbálják elejét venni a kártékony felhasználásnak, és alapvető probléma, hogy ilyenkor a felelősség kérdése sem tisztázott.
A több mint két és fél órás ülés felvételeit itt lehet megtekinteni, a The Register összefoglalója ezen az oldalon olvasható.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Három fájdalompont, amire az IT szolgáltatásmenedzsment gyors válaszokat adhat.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak