A titokban használt mesterséges intelligencia káros hatásai
A legfrissebb felmérések döbbentő eredményeket tártak fel: a munkavállalók közel fele engedély nélküli mesterséges intelligencia (AI) eszközöket használ. Az adatok alapján a válaszadók 60%-a beismerte, hogy titokban él AI-megoldásokkal, sőt, sokan közülük bizalmas céges adatokat is feltöltöttek ezekre a platformokra. Ilyen hozzáállás nem csupán technológiai kihívásokat jelent, hanem súlyos jogi és üzleti kockázatokkal is járhat, akár több tízmillió eurós bírságot is vonva maga után, amennyiben a GDPR vagy más szabályozások megsértéséről van szó.
Mi az a „Shadow AI”?
A „Shadow AI” kifejezés azokat a mesterséges intelligencia eszközöket jelöli, amelyeket a vállalat hivatalos jóváhagyás nélkül alkalmaznak. A helyzet komolyságát mutatja, hogy a nem engedélyezett AI-felhasználás során a cégen belüli munkafolyamatok teljesen megkerülhetők. Például, ha egy marketinges egy nyilvános AI-chatbotot használ kampány szövegírásra, vagy egy fejlesztő generatív AI-t alkalmaz kódrészletek előállítására, róvására megy a cég belső biztonságának.
A jogi következmények és a vállalatok felelőssége
Az ilyen gyakorlatok rendre nem kerülnek nyilvántartásra, így ha adatszivárgás vagy hatósági vizsgálat történik, a vállalat nem tudja igazolni a feldolgozások jogszerűségét és az AI-eszközök megfelelőségét az uniós előírásoknak. A drámai helyzetért a vállalatok és vezetőik a felelősek, hiszen a jogi előírások és IT-biztonsági protokollok betartása alapvető fontosságú lenne.
Biztonsági és kiberfenyegetések
A biztonsági kockázatok túlmutatnak az adatvédelmen. A céges információk megosztása nyilvános AI-platformokkal ellenőrizetlen garanciák mellett komoly kibervédelmi kockázatokkal járhat. Az ellenőrizetlen AI-használat új támadási lehetőségeket teremt, melyek során akár adatszivárgás, rosszindulatú kódok bejuttatása vagy phishing-támadások is előfordulhatnak.
Megoldás: Szabályozott integráció
A megoldás nem a tiltás, hanem a szabályozott integráció lenne, amely átlátható és biztonságos AI-használatot tesz lehetővé. Ehhez szükség van világos AI-használati szabályzatok kidolgozására, amelyek nemcsak a tilalmakat tartalmazzák, hanem konkrét példákat is, amelyek segítségével a munkavállalók megérthetik a biztonságos és jogszerű gyakorlatokat.
A belső adatok védelme és képzés
A belső adatfolyamok feltérképezése és a beszállítói szerződések frissítése szintén elengedhetetlen, hogy az AI-használat szerződéses szinten is megfeleljen az adatbiztonsági elvárásoknak. Ezen kívül a célzott AI-képzés nemcsak elengedhetetlen, hanem 2025 februárjától kötelezővé válik a tervek szerint. A dolgozók megfelelő AI-jártasságának biztosítása nem csupán best practice, hanem alapfeltétel a növekvő kockázatok kezelésére.
Következtetés: Az AI jövője a felelősségteljes használaton múlik
Az AI-technológiák használata már most itt van, és sürgős intézkedések szükségesek. Ahhoz, hogy az AI valódi üzleti erőforrássá válhasson, elengedhetetlen, hogy szabályozott és átlátható környezetben alkalmazzuk. Az AI Act fokozatos hatályba lépése ellenére nem szabad szem elől téveszteni a felelősséget és a vállalati kultúra megváltoztatásának fontosságát.
Forrás: 24.hu/fn/gazdasag/2025/08/19/huzos-birsag-euro-titokban-ai-dolgozok/

