A Microsoft AI vezérigazgatója szerint nem az öntudatra ébredő mesterséges intelligenciával lesz probléma, hanem azokkal a tömegekkel, akik alaptalanul tekintenek tudatos entitásként egy szoftverrobotra.

Bár a befektetői forrásokból élő MI-cégek már hosszú ideje hakniznak az emberi képességekkel rendelkező, sőt azokat meg is haladó mesterséges általános intelligencia (AGI) ígéretével, egyelőre nem sok jelét mutatták annak, hogy tényleg küszöbön állna egy ilyen technológia kifejlesztése. Az emberi viselkedés és nyelvhasználat imitációja valóban látványos, de ugyanilyen feltűnő az intelligencia hiányából fakadó erkölcsi közömbösség és az MI maguk alá temetik a részletek, az időben változó valószínűségek pedig önmagukban csak felszínes és kétséges előrejelzésekhez vezetnek.

Az MI még a kritikusai szerint is nagyon hasznos eszköz lehet a megfelelő feladatok támogatására, de az AGI küszöbön álló megjelenését azért nehéz komolyan venni, ha a legfejlettebbnek mondott modelleken is kifognak az olyan kérdések, mint hogy hány r betű van a raspberry (málna) szóban. A mesterséges intelligenciával hajtott, emberszerű viselkedésre tanított chatbotok azonban arra már képesek, hogy mentális problémákat okozzanak a felhasználóiknak, és sokan akkor is hinni kezdenek az MI tudatossá válásában, ha attól még egy macska értelmi képességei is elérhetetlen távolságban vannak. A vita már nemcsak arról folyik, hogy az MI felruházható-e szerzői jogokkal, hanem arról is, hogy általában milyen jogok illethetik meg.

Konszenzus természetesen nincs a tudatossággal és cselekvőképességgel összefüggő számítási jellemzőket, vagy általában az öntudat mérhetőségéilletően, de az Anthropica például már tavaly október végén bejelentette egy olyan kutató alkalmazását, akinek a feladata "az MI jólétére" vonatkozó kérdések vizsgálata. Annak mérlegelése, hogy mitől lehet egy MI-rendszer "méltó az erkölcsi megfontolásokra", vagy milyen gyakorlati lépések képzelhetők el "az MI-rendszerek érdekeinek védelmében". Ahogy akkor írtuk, Kyle Fish szerint már érdemes gondolkodni rajta, hogy egy új fajnak vagy lénynek milyen erkölcsileg értelmezhető érdekei lehetnek, és jó befektetés-e ezeket figyelembe venni, hogy adott esetben viszonozza majd a szívességet.

Ezt a problémát saját magunknak csináljuk

Mások szerint azonban egyáltalán nem jó ötlet ráerősíteni arra az emberi hajlamra, hogy személyiséggel ruházzunk fel tárgyakat, vagy egyenrangú partnerként tekintsünk az emberi viselkedést statisztikai alapon utánzó algoritmusokra. Az MI-eszközök erőltetett antropomorfizálása ellen már több technológiai vezető is állást foglalt, legújabban pedig Mustafa Suleyman, a Microsoft AI vezetője osztotta meg aggályait egy bejegyzésben az MI használatából eredő mentális egészségügyi válságról és a szuperintelligencia kifejlesztéséhez felé vezető út buktatóiról. Mondanivalója nem a mesterséges intelligencia tudatossá válásáról szól (ami sokak szerint nem is reális fenyegetés), hanem annak a meggyőződésnek a veszélyeiről, hogy ez már megtörtént.

Suleyman szerint valós veszélyt jelent, hogy egyre többen kezdenek tudatos entitásként tekinteni a mesterséges intelligenciával működtetett chatbotokra, ami oda vezethet, hogy hamarosan kiállnak majd az MI jogaiért. Ezt a fejleményt pedig veszélyes fordulatnak nevezi a mesterséges intelligencia fejlődésében, ami azonnali figyelmet érdemel. A tudatos MI mítoszát egyébként az iparág vezető személyiségei is erősítik, egyes gyártók pedig virtuális társként pozicionálják a termékeiket, amelyek érzelmi kapcsolatra törekednek a felhasználókkal. Suleyman ehhez képest védőkorlátok felállítását sürgeti az emberek megóvására és annak biztosítására, hogy az MI "elvégezhesse feladatát, és hatalmas értéket teremthessen az egész világnak".

Ahogy a bejegyzés címében is összefoglalja, a mesterséges intelligenciát az embereknek kellene építeni, nem pedig azért, hogy maga is valós személy legyen. Szerinte első lépésben az MI-cégeknek sürgősen le kellene állniuk azzal a direkt vagy sugalmazott marketinggel, hogy a rendszereik bármennyire is tudatosak, ezzel összefüggésben pedig szükség lenne egy konszenzusos definícióra és nyilatkozatra is a részükről, amiben meghatározzák, hogy az MI micsoda és mi nem (ahogy ő látja, emberi vagy morálisan értelmezhető lény biztosan nem). Az ellentmondást persze már a "mesterséges intelligencia" elnevezés is magában hordozza, ami a fentiek alapján valós tartalom nélküli marketing, de egyelőre rengeteg pénzt hoz a konyhára.

Részletek Mustafa Suleyman oldalán arról, hogy az MI személyiséggel való felruházása miért válik egyaránt a társadalom és a fejlesztők kárára »

Közösség & HR

Díjazzák a hazai informatikushallgatók jó ötleteit

A technológiai pályára készülő hazai diákok november végéig adhatják be dolgozataikat a K&H által idén is meghirdetett pályázatra.
 
A kompromittált rendszerek, a dark weben felbukkanó ügyféladatok vagy a zsarolóvírus-kampányok következményei már a vezérigazgatói és pénzügyi igazgatói irodában csapódnak le – jogi, reputációs és üzleti szinten is. Lehet és kell is védekezni ellene.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.