A robotok nem megfelelő működése etikai kérdéseket is felvet, mint ahogy abban sem érdemes bízni, hogy a technológia alkalmazói közül mindenki a közös boldogulásunkat tartja szem előtt.

A világháló és a TCP/IP protokollkészlet megalkotásában kulcsszerepet játszó Vinton Cerf, akit széles körben emlegetnek az internet (egyik) atyjaként, óvatosságra int a ChatGPT körüli hisztéria és az ennek kapcsán kialakult aranyláz közepette. Szerinte vigyázni kellene az elhamarkodott befektetésekkel az MI-chatbotokba, amelyek lényegében csak arra épülnek, hogy az új technológia mennyire menő – írja Cerf felszólalásáról a CNBC a kaliforniai Mountain View-ban tartott konferencián. Az online pionír egyébként számtalan megbízása és elismerése mellett majdnem két évtizede egyengeti a "globális szabályozás kialakítását és az internethasználat folyamatos terjedését" a Google színeiben.

A hasonló kérdésekben rendszeresen nyilatkozó szakember most a mesterséges intelligenciára épülő csevegőrobotok etikai problémáit vette elő, amelyekre tekintettel azt reméli, hogy mindenki átgondolja majd a technológiába való befektetéseit. Szerinte a ChatGPT, a Google Bard és más megoldások kapcsán is nyilvánvaló, hogy a rendszerek nem mindig működnek úgy, ahogy azt szeretnénk, és azt sem szabad elfelejteni, hogy az új technológia alkalmazói közül sem mindenki őszinte, vagyis a saját hasznukat keresik mások boldogulása helyett. Eközben olyan forró témáról van szó, amiről sokan gondolják, hogy elég meglobogtatni, és rögtön dőlni fog hozzájuk a befektetők pénze.

Most fordul majd komolyra

A dolog egyelőre tényleg így néz ki: Kínában például már az állami média figyelmeztet rá, hogy a hype miatt az ottani MI-fejlesztő cégek árfolyama annyira kilőtt, hogy az már nem feltétlenül áll arányban a későbbi termékeikben rejlő kockázatokkal. Cerf szerint érdemes figyelembe venni, hogy nem lehet mindig megjósolni az ilyen technológiák útját, a legtöbb probléma pedig hagyományosan az emberi természetből fakad, ami nem igazán változott az elmúlt 400, vagy akár 4000 évben. A mérnököknek viszont felelősséget kellene vállalniuk a hibák kijavításáért, és azt is nagyon fontos lenne megtanulni, hogyan lehet minimalizálni a legrosszabb forgatókönyvek esélyeit.

Az biztos, hogy egyelőre látványos hézag tátong a technológival kapcsolatos remények és annak tényleges teljesítménye között, ugyanakkor nagyon nehezen lehet különbséget tenni a meggyőzően tálalt válaszok és a pontos válaszok között. Cerf erre felhozott egy olyan példát, amikor megkért egy chatbotot, hogy készítsen róla magáról egy életrajzot, és a robot tényszerűnek mutatta be az általa összeállított anyagot annak ellenére, hogy az pontatlanságokat tartalmazott. Mindez az alkalmazástól függő következményekkel jár: a fiktív életrajzoknak nincsenek konkrét egészségügyi kockázatai, szemben azzal, ha a hasonló modellek elkezdenek orvosi tanácsokat adni a felhasználóknak.

Közösség & HR

Lebuktatták a Grammarly MI-funkcióját

A The Verge kiderítette, hogy a szövegírást támogató szolgáltatás egy új funkciója valós szakértők nevében terjeszt kétes eredetű információkat – természetesen az érintettek engedélye nélkül.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.