A Claude chatbot fejlesztője szerint már tapasztalhatók a jelei a kockázat kialakulásának, és bajban leszünk, ha egy-két éven belül nem szabályozzuk a szélesebb nyilvánosság által hozzáférhető modelleket.
Hirdetés
 

Az Anthropic vezérigazgatója szerint az mesterségesintelligencia-rendszerek gyorsan fejlődnek ugyan, és ezzel felgyorsítják a tudományos felfedezéseket, de a technológiát a bűnözők is munkába állíthatják, akik már két-három éven belül képesek lehetnek biofegyvereket és veszélyes vírusokat létrehozni. A ChatGPT-hez hasonló MI-chatbotot fejlesztő társaság, ahol egy biztonságos és etikus nagy nyelvi modellen (LLM) dolgoznak, biológiai biztonsági szakértőkkel közösen tanulmányozta, hogy a jövőben hogyan használhatók fel a neurális hálózatok fegyverek létrehozására, és a megállapításaik nem kifejezetten biztatóak.

A korábbi OpenAI-alkalmazottak által alapított Anthropic vezetője, Dario Amodei az amerikai szenátus technológiai albizottsága előtt fejtette ki, hogy mekkora szükség lenne a nagy teljesítményű modellek szabályozására a tudományos és mérnöki területeken, így a kiberbiztonságban, a nukleáris technológiában, a kémiában és a biológiában is. Ezen belül az emberek figyelmét is a biológiai kockázatokra irányítaná, és legkésőbb 2026-ot célozná meg a cselekvéssel: szerinte ha nem állnak fel sürgősen azok a korlátok, amelyek visszafogják az MI-rendszerekkel végrehajtható dolgokat, akkor "nagyon rossz idők jönnek".

Az információs részt kipipálhatják

Az ülésen Amodei felvázolta, hogy a biológiai károkozásnak ma még vannak olyan elemei, amelyek magas szintű, speciális szakértelmet igényelnek, és nem férhetők hozzá egyszerűen a Google-keresésekben vagy a tankönyvekben. Az Anthropic viszont megvizsgálta, hogy a jelenlegi MI-rendszerek képesek-e megoldani ezeknek a folyamatoknak a bonyolultabb lépéseit, és azt találtuk, hogy részben már igen. A teljesítményük egyelőre hiányos és megbízhatatlan, de a valós kockázat kialakulásának jeleit mutatja, és ezt extrapolálva már két-három év múlva képesek lehetnek pótolni a hiányzó részleteket a korlátozások hiányában.

A beszámolók mindezek alapján kiemelik, hogy a mesterséges intelligencia fejlődése rövid időn belül látványosan kiszélesítheti azoknak a szereplőknek a körét, akik technikailag képesek lehetnek egy-egy nagyszabású biológiai támadás végrehajtására. A biológiai fegyverek a modern nukleáris fegyverekhez hasonlóan ismertek és dokumentáltak, de tényleges megtervezésük nehéz, és annak kulcsfontosságú részeit titokban tartják. A gépi tanuló modellek azonban képessé válhatnak pótolni ezeket a hiányosságokat, és a kiberbiztonsághoz hasonlóan az ilyen fegyverekhez bevetéséhez sem kell majd különösebb hozzáértés.

Az ülésen felszólalt Yoshua Bengio, a neurális hálózatok úttörő kutatója is, aki mindennek kapcsán olyan jogszabályok elfogadását sürgette, amelyek mérsékelnék a szélesebb nyilvánosság által hozzáférhető MI-modellek képességeit. Szerinte már kiderült, hogy nem hatékony, amikor az ellenőrizetlen modellek kiadói megpróbálják elejét venni a kártékony felhasználásnak, és alapvető probléma, hogy ilyenkor a felelősség kérdése sem tisztázott.

A több mint két és fél órás ülés felvételeit itt lehet megtekinteni, a The Register összefoglalója ezen az oldalon olvasható.

Piaci hírek

Hasznos trükköt tanult a Gemini

A Google generatív MI-asszisztense mostantól a felhasználói kívánalmak alapján egy sor népszerű fájlformátumban is képes prezentálni válaszát már magában a beszélgetési ablakban.
 
Hirdetés

A jövőálló digitális megoldások sikere az üzleti értékteremtésben mérhető

Az informatikai fejlesztések gyakran technológiai kérdésként jelennek meg, pedig egy kódsor vagy digitális megoldás önmagában soha nem lehet végcél. A 4D Soft több mint 35 éve ennek szellemében fókuszál a projektek negyedik dimenziójára: az üzleti értékteremtésre.

A biztonság ’balra tolódása’ az alkalmazásfejlesztésben nem csak technikai kérdés. A DevSecOps-elvek érvényesüléséhez az IT-szervezet működését és más területekhez való viszonyát is újra kell szabni.

a melléklet támogatója a Clico

Hirdetés

A hibakeresés nem egyenlő az alkalmazásbiztonsággal

Építsünk olyan AppSec környezetet, amely csökkenti az alkalmazásfejlesztés kockázatait, de nem válik a gyors leszállítás akadályává!

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.