A Teslának több mint 360 ezer autóját kellett visszahívnia, mert azok teljes önvezető szoftvere (Full Self-Driving, FSD) balesetet okozhat – közölte csütörtökön az amerikai közlekedésbiztonsági hivatal (NHTSA). A visszahívás kifejezés ebben az esetben természetesen csak a megszokott terminológia, hiszen a szövetségi ügynökség szerint a járműgyártó egy vezeték nélküli, automatikus szoftverfrissítést fog kiadni a probléma megoldására. A dolog olyan Tesla modelleket érint, amelyeket az FSD béta kiadásával rendelkeznek, köztük a 2016 és 2023 között gyártott Model S, a 2020 és 2023 között gyártott Model 3, illetve a 2017 és 2023 között gyártott Model X típusokat. A tulajdonosok állítólag április 15-ig kapnak értesítést a frissítésről.
Az ügynökség szerint a szoftverprobléma növeli az ütközések kockázatát, lehetővé teszi, hogy az autó túllépje a megengedett sebességet, emellett pedig "törvénytelen vagy kiszámíthatatlan módon" haladjon át a kereszteződéseken. Ebbe az NHTSA beletartozik a kanyarodósávból való egyenes áthaladás, illetve a stoptáblák vagy a sárga lámpák figyelmen kívül hagyása. A Business Insider riportjából kiderül, hogy a Tesla nem válaszolt azonnal a megkeresésekre, a vállalat vezérigazgatója, Elon Musk viszont szükségesnek tartotta megjegyezni a szintén általa irányított Twitteren, hogy mennyire anakronisztikusnak és hibásnak tartja a visszahívás szót egy távoli szoftverfrissítésre alkalmazva.
A marketingeseknél már működik az önvezetés
A szóban forgó programot először 2020-ban adták ki a kiválasztott Tesla-tulajoknak, és azóta legalább 400 ezer telepítésről számoltak be az Egyesült Államokban. Az FSD hivatalosan a mai napig béta verzióban működik, és használatához egy érvényes jogosítvánnyal rendelkező sofőr állandó felügyelete szükséges, vagyis a gyakorlatban egy fejlett vezetéstámogató rendszerről van szó – igaz, a sofőrök a figyelmeztetések ellenére is hajlamosak rá, hogy úgy kezeljék járműveiket, mintha azok teljes önvezető képességekkel rendelkeznének. Egy tavaly ősszel kiadott tanulmány szerint ez nem is csoda, mivel a Full Self-Driving vagy az Autopilot márkanevek hozzájárulnak a technológia koráltainak hibás értékeléséhez.
A George Mason University professzora, Missy Cummings, aki korábban az NHTSA-nél is megfordult, éppen néhány napja beszélt a The New York Timesnak a szigorúbb szabályozói fellépés szükségességéről. A szakember (aki mellesleg az amerikai haditengerészet egyik első női vadászpilótája volt) arra a több száz balesetre hivatkozik, amit a Tesla vagy akár a General Motors megoldásainak felelőtlen használata okozott, egyben bírálta a járműgyártó cégeket, amiért agyonreklámozzák az autók "hands-free" vezetési képességeit. Musk korábban extrém elfogultnak nevezte Cummingst a Teslával szemben, aki ennek nyomán a rendőrség által vizsgált halálos fenyegetéseket is kapott, és a Tesla-fanatikusok petíciót indítottak az NHTSA-től való visszahívásáért.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak