A biztonságosabb internet napját 2004 óta rendezik meg minden év februárjának második keddjén – 2026-ban február 10-én – világszerte. A világnap mottója „Together for a better internet” (együtt egy jobb internetért) évről évre ugyanaz, a kiemelt téma azonban változó. „Smart tech, safe choices – Exploring the safe and responsible use of AI” (okostechnológiák, biztos választások – az AI biztonságos és felelősségteljes használatának felfedezése) szól az idei szlogen, és nem véletlen, hogy idén a mesterséges intelligencia került a fókuszba. 

Alig több mint három éve, 2022. november 30-án jelent meg a ChatGPT, azóta alapjaiban változott meg a digitális világhoz való viszonyunk. „Ma már nagyon kevesen vannak azok, akik egyáltalán nem használnak mesterséges intelligenciát, hiszen egy Google-keresésnél az első találat az AI által létrehozott válasz” – mondja Baracsi Katalin internetjogász. A szakértő szerint fontos, hogy tisztában legyünk azzal, hogy ahogy a szlogen is hangsúlyozza, az új technológiát lehet jól használni: ha okosan fogalmazzuk meg az utasításainkat, akkor a mesterséges intelligencia az emberi kreativitását támogatja. Ugyanakkor az új technológiával járó veszélyeket is ismernünk kell.

Miért nézünk órákon át cicás videókat?
Sokan, ha a mesterséges intelligencián alapuló alkalmazásokra gondolnak, akkor csak az olyan csetbotokat tekintik annak, mint a ChatGPT és más AI-asszisztensek. A nagy techcégek azonban már a mesterséges intelligencia világhódító útjára indulásakor bevetették az új technológiát a közösségi oldalak felhasználóinak minél alaposabb megismerése érdekében.

„Amikor gyanútlanul videókat nézünk, zenét hallgatunk, videójátékokkal játszunk, a mesterséges intelligencia a háttérben figyeli a szokásainkat, a választásainkat, a kedvenceinket, mert azok alapján tud újabb lehetőségeket ajánlani nekünk. Ezek a felületek profiloznak minket, megpróbálják kideríteni, hogy a felhasználó mögött milyen nemű, korú, érdeklődésű személy áll” – figyelmeztet Baracsi Katalin. Bár a techcégek azt állítják, hogy mindezt azért teszik, hogy kényelmesebbé tegyék a felhasználóik számára az internetes tér használatát, valójában beszűkítik számukra a lehetőségeket, mert az algoritmus nem hozza eléjük még az érdeklődési körükbe vágó tartalmak törtrészét sem.

Miért adjuk ki az adatainkat?
Ha az adott vállalat nem helyez hangsúlyt az információk védelmére, akkor azok könnyen illetéktelenek kezébe kerülhetnek, akik visszaélhetnek a tartalmakkal és bűncselekményt követhetnek el a megszerzett adatokkal. Bár a techcégeknek fel kell tüntetniük a felhasználási feltételekben és sütiszabályzatokban, hogy melyek azok az adatok és információk, amiket az adott alkalmazás felhasznál, a valóságban az alkalmazások 70 százaléka olyan adatokat és információkat is gyűjt rólunk, amire az alapvető működésükhöz nem lenne szükség.

Baracsi Katalin hangsúlyozza, hogy felhasználóként lehetőségünk van ezeket elutasítani, például a Meta szolgáltatásai, azaz a Facebook, az Instagram és a WhatsApp esetében megtilthatjuk, hogy a beszélgetéseinket, megosztott tartalmainkat felhasználják az algoritmus tanításához. Az azonban továbbra is kérdés, hogy a cégek valóban betartják-e a szabályzatokban foglaltakat.

Mik a legnagyobb digitális kockázatok?
A szakértő komoly problémának tartja, hogy az internetezés függőséggé válhat. Az ajánlóalgoritmusok a felhasználó kedvelt témáiban folyamatosan újabb és újabb figyelemfelkeltő tartalmakat mutatnak, így az emberek órákat töltenek a telefonjuk képernyőjén való görgetéssel. Ezek a videók egyre tökéletesebbek, egyre kreatívabbak, és egy idő után az emberek már azt sem veszik észre, hogy nem is a valóságot látják. A techcégeknek az az érdeke, hogy az emberek minél több időt töltsenek a közösségimédia-felületeken: ott kapcsolódjanak egymáshoz és osszanak meg minél több információt magukról. Aki a saját buborékjában ragad, nem fogja látni, mi minden van azon kívül a világon, és nem lesz képes a kritikus gondolkodásra sem, mert csak egymást erősító, egysíkú tartalmakkal találkozik.

Baracsi Katalin további veszélyekre is felhívta a figyelmet: a deepfake-technológiával a valóságot, az eredeti tartalmakat hamisítják meg, hogy tönkretegyék az abban szereplők hitelességét. A deepnude kifejezés arra vonatkozik, amikor mesterséges intelligenciával vetkőztetnek le valakit. A szakértő bízik abban, hogy még ebben az évben a britek példáját követve más európai országok is bűncselekménynek minősítik az ilyen felvételek előállítását.

Tiltás helyett edukáció
Hogyan érdemes beszélni a gyerekekkel a digitális biztonságról? – merül fel a kérdés. A tiltás nem megoldás szakértő szerint, a cél a tudatosság és digitális kompetencia fejlesztése: most ennek a technológiának a használatát kell mindenkinek megtanulnia, ahogy korábban például az e-mailezést. „Ne felejtsük el azt sem – figyelmeztet Baracsi Katalin –, hogy az AI nem ember, nincsenek érzései, hiába beszélgetünk vele, ez egy technológia, a mögötte álló fejlesztők a hús-vér emberek.”

Fontos, hogy a szülők nyitottan beszéljenek a gyerekekkel a kiberbiztonságról, de a legfontosabb a személyes példamutatás a technológia felelősségteljes használatában. Keretekre van szükség mindenki részéről, a felhasználóknak a saját érdekükben kell megismerniük és betartaniuk a szabályokat, a jogalkotónak pedig azon kell munkálkodnia, hogy a technológiát biztonságosan lehessen felhasználni.

Miért egy csetbothoz fordulunk a lelki problémáinkkal?
A mesterségesintelligencia-alapú, úgynevezett nyelvi modellek, amelyek hatalmas mennyiségű szöveges adaton tanulják megérteni, feldolgozni és generálni az emberi nyelvet, gyorsan terjedtek el a felhasználók körében szerte a világon. „A modellek viselkedését különböző paraméterek határozzák meg, de maximális értékeket állítanak be arra, hogy a válaszaik minél elfogadóbbak legyenek, és megerősítsék, támogassák a felhasználót” – mondja Turányi Tatjana AI-etikai és kiberpszichológiai tanácsadó.

A profitorientált cégek célja, hogy maximalizálják a felhasználók platformon töltött idejét, és ki ne akarna „olyasvalakivel” társalogni, aki folyamatosan visszatükrözi azt, amire az illető gondol? „Még ha egy felhasználó csak egy átlagos keresésre használja is a csetbotot, például egy receptet szeretne megtalálni, az algoritmus újabb lehetőségeket javasol, folyamatosan buzdít, hogy minél tovább tartson a beszélgetés, így sokan – a felhasználók 70 százaléka – magánjellegű témákat is megoszt a csetbottal, sőt érzelmi támogatásra is használja, ami függőséget okozhat” – figyelmeztet a szakértő.

Noha a szakmai szervezetek nem javasolják, hogy a tizennyolc év alattiak úgynevezett AI-társakat (CharacterAi, Replika, Nomo stb.) vagy egyéb mesterségesintelligencia-alapú rendszereket (ChatGPT) használjanak érzelmi támogatásra, nemcsak a tizenévesek, de sok esetben a kisebb gyerekek is – a felnőttekhez hasonlóan – ilyen alkalmazásokhoz fordulnak, ha meg szeretnék beszélni a problémáikat. Ez azzal a veszéllyel is jár, hogy a nyelvi modellek működési módja elhiteti a gyerekekkel, hogy a való életben is minden kapcsolatnak úgy kell működnie, hogy a másik fél mindig azonnal elérhető, mindig visszaigazol, és mindig ugyanaz várható el tőle.

Mit tehet a szülő?
Hogy tudják a szülők megakadályozni, egyáltalán észreveszik-e, hogy a gyerekük egy géppel osztja meg a problémáit? – merül fel a kérdés. Turányi Tatjána szerint a szülök azzal tehetik a legtöbbet, ha a gyorsan változó világban a stabilitást és az érzelmi kapcsolódást biztosítják gyermekeik számára. A gyerekek sokszor úgy érzik, hogy nem veszik észre őket, ezért mindennap legyen olyan program, amikor senkinél sincs semmilyen eszköz. Az egyszerű hétköznapi tevékenységek, a mindennapos témákról folytatott beszélgetések, a szemkontaktus, az ölelés mind az (újra)kapcsolódást erősítik.

A tiltás nemcsak azért nem jó megoldás, mert ellenállást vált ki, hanem azért sem, mert ha arra hivatkozva tiltjuk a digitális eszközöktől a gyerekeket, hogy veszélyesek, az olyan számukra, mintha az utcára sem akarnánk kiengedni őket, hiszen az ő „utcájuk” a virtuális világ. Jellemző tendencia, hogy a veszélyes világra hivatkozva annyira korlátozzuk a gyerekeket, hogy úgy érzik, csak az internetes tér marad nekik. A szakértő azt javasolja, hogy tágítsuk lassan a gyerekeket körülvevő teret, bízzunk rájuk fokozatosan döntéseket. Kérjük ki a véleményüket, főleg a technológiával kapcsolatban, hogy érezzék, szükség van a tudásukra.

A szakértő szerint fontos, hogy a szülő lássa a változást, értse az eszközöket, és tudjon beszélgetést kezdeményezni a témáról – ehhez két ötletet is ad. Ha például a család együtt nézi valamelyik streamingszolgáltató kínálatát, kérdezzük meg a gyerektől, hogy mit gondol, miért került be az ajánlatok közé a következő sorozat és film, vajon miért ezt ajánlja a szolgáltató, és eltalálta-e, hogy mit szeretnénk nézni. Az ilyen beszélgetések révén el lehet magyarázni, hogy hogyan működnek az ajánlóalgoritmusok, így a gyerekek megértik, hogy például a TikTok is a kedveléseik, keresési előzményeik alapján ajánl nekik további videókat annak érdekében, hogy minél több időt töltsenek a platformon. Rájönnek, hogy manipulálják őket, és van annyi öntudatuk, hogy megpróbálnak ez ellen legalább azzal védekezni, hogy tudatosabban fogják a tartalmakat fogyasztani.

Szintén érdekes beszélgetésekhez vezethet, ha megkérjük a gyereket, hogy készítsünk egy fotóalbumot, nyomtatott képekkel, amihez válasszon ki tíz olyan képet a telefonjáról, amelyek az elmúlt év legkedvesebb emlékeit örökítik meg. Beszélgethetünk arról, hogy könnyű-e a választás, sok kép van-e a telefonján, és azok között mennyi a szelfi, vagy inkább barátokkal, családtagokkal való közös képek a jellemzők. Beszélgethetünk arról is, emlékszünk-e arra, amikor a képek készültek. Arról is, hogy amikor minden a technológián alapszik és minden adat – köztük a kép – is azonnal menthető tárhelyre és felhőbe, vannak-e még olyan fontos pillanatok, amiket megjegyzünk.

Valóban a vesztébe rohan az emberiség?
Vannak, akik úgy vélik, hogy a mesterséges intelligencia használata is csak egy újabb lépcsőfok a fejlődésben, és ahogy eddig mindennel, úgy ezzel is megtanulunk együtt élni, mások pedig úgy látják, az emberiség végveszélybe sodródik. Turányi Tatjana szerint azzal tisztában kell lennünk, hogy ilyen nagy, ennyire gyors és egyszerre ilyen sok embert elérő változást még nem tapasztalt az emberiség.

A technológia önmagában nem rossz, viszont jobb lett volna, ha szigorúan szabályozott keretek között használják a kutatás-fejlesztésben, az orvostudományban, és nem eresztik rá a felhasználókra. A techcégek célja azonban az, hogy minél több felhasználójuk legyen, és minél jobban feltérképezhessék a viselkedésüket, ez pedig olyan eszközt ad a kezükbe, amivel visszaélhetnek. A teljes korlátozás azonban mégsem lehet megoldás, figyelmeztet a szakértő, hiszen a technológia itt marad velünk, és az eszközöket is terjeszteni fogják. Ne kizárólagos veszélyforrásként, de ne is tehetetlen elfogadással tekintsünk rájuk, hanem szerezzük vissza a tevékeny, döntő szerepünket a saját életünkkel kapcsolatban.