Az OpenAI ChatGPT-je ellen harcba induló Bardot népszerűsítő rövid videóba pont olyasmi került, ami miatt egyelőre érdemes fokozott óvatossággal kezelni az algoritmusok generálta szövegeket.

A technológiai szektor egyik nagy aktuális bejelentését tette a hét elején a Google azzal, hogy lerántotta a leplet Bardról, amelynek egyértelmű feladata, hogy lenyomja az OpenAI tavaly év végén elstartolt, és rögtön óriási hullámokat kavaró csetbotját, a ChatGPT-t.

Mindkét nyelvfeldolgozó algoritmus lényege, hogy a korábban megszokott kereteket kitágítva prezentáljon értelmes, koherens és használható válaszokat. Ez potenciálisan lehetővé teszi egyfajta szuperkereső megalkotását, ami nem csupán a Google-nek jönne jól alapvető üzletének erősítésében, de a rivális Microsoft is igyekszik addig ütni a vasat a témában, amíg forró.

Ooops!

A nagy csetbotversenyben azonban kínosan rossz rajtot vett a Bard, mivel a Google Twitteren közzétett promóciós bejegyzésébe egy olyan kisfilmet ágyaztak, amelyben az algoritmus konkrétan hibás választ ad a példaként feltett kérdésre.

 

 

Ahogy a Reuters beszámolójában is olvasható, a kedvcsinálónak szánt anyagban az algoritmus azt a feladatot kapja, hogy a James Webb űrtávcső (JWST) felfedezéseiről készítsen rövid beszámolót egy 9 éves kisfiú számára. A pontokba szedett válaszok egyike azt állítja, hogy az eszközzel készültek a legelső képek egy Naprendszeren kívüli bolygóról, vagyis exobolygóról.

Az igazság azonban az, hogy az első exobolygókról készült képeket a Chilében működő, az Európai Déli Obszervatórium által üzemeltetett, tréfás elnevezésű Very Large Telescope (nagyon nagy távcső) készítette még 2004-ben.

A gép is ember

A tévedés miatt szerencsére emberéletben nem esett kár, de arra egy újabb példát szolgáltat a baki, hogy érdemes kellő fenntartásokkal és óvatossággal kezelni azokat az anyagokat, amelyeket az egyre több helyen felbukkanó algoritmusok raknak össze számunkra.

Így volt ez a CNET csendben végrehajtott, ám végül a lapot kínos magyarázkodásra kényszerítő MI-újságírói kísérletével. Mint ahogy egyelőre az OpenAI-hoz köthető Copilot is több problémát generál kódalkotás közben, mint amennyi időt munkájával megtakarít a humán programozóknak.

Cloud & big data

Tesz a politikára az X

Egy félmilliárdos közösségi platform esetében aggasztó, ha nem erősíti, hanem éppen ellenkezőleg, gyengíti a politikai tartalmú álhírek elleni védőhálót. Az EU fenyeget, a népszavazásra készülő ausztrálok aggódnak.
 
A világ a "cloud first" stratégiát követi. Nem kérdés, hogy a IT-biztonságnak is azzal kell tartania a tempót, de nem felejtheti, hogy honnan startolt.

a melléklet támogatója a Clico Hungary

Hirdetés

Jön a Clico formabontó cloud meetupja, ahol eloszlatják a viharfelhőket

Merre mennek a bitek a felhőben, ledobja-e szemellenzőjét az IT-biztonságért felelős kolléga, ha felhőt lát, lesz-e két év múlva fejlesztés cloud nélkül? A Clico novemberben fesztelen szakmázásra hívja a szoftverfejlesztőket a müncheni sörkertek vibrálását idéző KEG sörművházba.

Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.