Jelentős előrelépés történt a múlt héten a mesterségesintelligencia-fejlesztésekben. Ahogy a Bitport is megírta, az OpenAI bemutatta a korábban Strawberry projektként emlegetett modellsorozatának első tagját, az o1-et. A cég ígérete szerint bár a modell lassabban dolgozik, mint pl. a ChatGPT, bizonyos tudományterületeken sikeresen megbirkózik összetett problémákkal is. Képes megoldani például bonyolult matematikai feladványokat, és jól kódol.
A korai tesztelők aztán gyorsan leszedték keresztvizet a szupermodellről, mondván: drágább, erőforrás-igényesebb, ám sokszor az egyszerű kérdésektől is lefagynak a tekervényei.
Mások szerint azonban összességében jelentősen növelte annak kockázatát, hogy segítségével világszerte vegyi, biológiai vagy nukleáris fegyvert állítsanak elő. A kockázatot ráadásul az OpenAI szintén elismerte, igaz a független kutatóknál óvatosabban fogalmazott: a technológiát közepes kockázatúnak minősítette a Financial Timesnak.
A brit lap ugyanakkor megjegyzi: ez a legmagasabb kockázati besorolás, amit az OpenAI valaha is elismert modelljeivel kapcsolatban.
Szakértői félelmek
Az üzleti lapnak nyilatkozó szakértők szerint viszont óriási veszélyt jelenthet, ha a technológia rossz kezekbe kerül. A világ egyik vezető MI-tudósa, a Montreali Egyetem Turing-díjas professzora, Yoshua Bengio például azt hangsúlyozta, hogy sürgető lenne szigorúan szabályozni a területet. És valahogy úgy, ami az OpenAI-nak nagyon nem tetszik.
Az MI-cég is kritizálta azt az "SB 1047" néven emlegetett kaliforniai törvényjavaslatot, amely a nyár végén ért célegyenesbe, amikor megkapta a közgyűlési előirányzatokkal foglalkozó bizottság jóváhagyását. A törvényjavaslat a technológia által okozott károk megelőzésére "a józan ész alapján" kijelölt szabványokat határozna meg, ezen felül olyan rendelkezéseket tartalmaz, amelyek alapján polgári peres eljárásokban magukat a gyártókat is felelősségre vonhatnák az általuk kiadott mesterségesintelligencia-modellek kimenetei miatt.
A javaslat kifejezetten megköveteli a modellek gyártóitól, hogy minimalizálják annak a kockázatát, hogy MI-jüket például biológiai fegyverek fejlesztéséhez használhassák. A szabályok azonban a cég szerint jelentős hatást gyakorolna az USA versenyképességére és nemzetbiztonságára.
OpenAI: szigorúan tesztelünk mindent
Az OpenAI technológiai igazgatója, Mira Murati azt hangsúlyozta a Financial Timesnak, hogy épp különleges képességei miatt rendkívül körültekintően vizsgálták az o1 működését, mielőtt preview állapotban elérhetővé tették. Különböző tudományterületek szakértőiből összeállított red teameket bíztak meg azzal, hogy próbálják meg áttörni a modell korlátait. A red teamek munkája alapján is állították a modell bejelentéskor: az o1 sokkal jobban teljesít az általános biztonsági mutatók tekintetében, mint a korábbi modellek.
A közepes kockázati besorolást az OpenAI azzal indokolja, hogy az új modell nem növeli érdemben azokat a veszélyeket, melyeket a meglévő erőforrások jelentenek. Ezért összességében a cég szerint az o1 biztonságosan használható.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak