A skót másodosztályban játszó Inverness Caledonian Thistle FC október közepén jelentette be, hogy a járvány okozta korlátozásokra válaszul streaming közvetítésekkel jelentkezik a hazai meccsekről, ezzel összefüggésben pedig egy mesterséges intelligenciára épülő megoldást telepített a pályáján működő kamerák irányítására. Az MI alapú automatizált kamerarendszer meghatározó funkciója a labdakövető technológia, ami biztosítja, hogy a képernyő előtt ülő bérletes nézők HD minőségben és mindig a lehető legjobb rálátással élvezhessék az éppen zajló akciókat.
Legalábbis elvben ez lenne a fejlesztés lényege, de a hétvégén streamelt közvetítésben a kamerát kezelő MI rendre összekeverte a közelebb álló partjelző (újabban asszisztens) tarkopasz fejét a labdával, és a mesterséges intelligenciára jellemző állhatatossággal és hatékonysággal tért vissza rá újra és újra, hogy a labda helyett hosszbb-rövidebb ideig azt kövesse a kamerával. Mindennek nyilván az lett az eredménye, hogy a meccs lényegi része csak a kép sarkában vagy még úgy sem látszódott, ahogy a rendszer a labda helyett a partjelzőre közelített:
A dolog állítólag annyira feltűnő volt, hogy a kommentátor kénytelen volt elnézést kérni a kellemetlenségért, és a fenti videó is lassan már másfélmillió megtekintésnél jár. A fiaskóról beszámoló lapok, így az elsőként tudósító IFLScience a klub és a technológiát forgalmazó Pixellot véleményére is kíváncsiak voltak, bár a dolog elég egyértelmű. A rendszer nem volt képes megkülönböztetni a nagyjából focilabda méretű és a napfényben ugyanúgy csillogó fejet magától a labdától, kiváló példát adva az MI alkalmazások korlátaira és meglepő törékenységére.
Amikor buta, akkor nagyon buta
Bár a mostani eset inkább csak mulatságos a mesterséges intelligencia (és azon belül a képfelismerő megoldások) más területeken is képesek hasonlóan banális tévedésekre: az önvezető autók tesztjeinél ebből már halálos ütközések is következtek, a The Verge beszámolója pedig azt az esetet idézi fel, amikor az egyik Tesla önvezető rendszere egy kamion fehér oldalát volt képtelen megkülönböztetni az éppen különösen fényes égbolttól. A gyártó természetesen a sofőr felelősségét hangoztatta, aki a figyelmeztetések ellenére is teljesen rábízta magát a robotpilótára.
Ahogy korábban az Algorithmic Justice League képviselőjét idéztük, a valódi izgalmakat még jó ideig nem a szuper okos, hanem a szuper buta MI-rendszerek jelentik majd, többek között a nem megfelelő betanítás miatt. A közlekedésnél maradva, a gyalogosok azonosítására felkészített computer vision modellek gyakran alacsonyabb hatásfokkal ismeri fel a gyerekeket, mint a felnőtteket, de a labdás eset még jobban mutatja, hogy ha a mesterséges intelligencia hibázik, akkor azt látványos és megmagyarázhatatlannak tűnő módon teszi.
Más szóval az MI nem csak hatékonyabb az embereknél egy-egy részfeladat elvégzésében, de tévedni is úgy téved, ahogy azt egy ember sohasem tenné. Ez pedig ismét rámutat a gépi intelligencia alkalmazásának egyik nyugtalanító vetületére: mivel a működésüket nem értjük pontosan, nem árt kifejleszteni a használatukhoz valamilyen hatodik érzéket, hogy idejében észleljük, amikor az MI valamilyen extrém buta döntést készül meghozni. Ehhez az embereknek nyilván felül kell emelkedniük az addig nyilvánvalónak tartott dolgokon – jó hír, hogy a témával foglalkozó kutatók szerint erre képesek is lehetnek majd.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak