2025 a mesterséges intelligencia robbanásának éve volt – és ez a munkajog világát is alapjaiban formálja. Az AI Act már hatályos, a „nagy megfelelési dátum” pedig közeleg: 2026. augusztus 2.
Munkáltatói szempontból nem csupán egy újabb technológia bevezetéséről beszélünk: az MI‑jártasság, az átlátható szabályok, az emberi felügyelet és a nagy kockázatú rendszerek kontrollja alapvető jelentőséggel bír – a meg nem felelés a hatékonyságvesztés mellett a Shadow AI kockázatával, illetve adott esetben jelentős bírságokkal járhat.
2025 egyik legnagyobb hozadéka a mesterséges intelligencia alapú rendszerek tömeges elterjedése volt.
„Nem a legerősebb marad fenn, és nem is a legokosabb, hanem az, aki a legfogékonyabb a változásra.”
(Charles Darwin)
A magyar jog – jelenleg – nem alkot önálló definíciót a mesterséges intelligencia alapú eszköz fogalmára, hanem közvetlenül a 2024/1689 EU rendelet („AI Act” vagy „Rendelet”) meghatározását veszi át. Az AI Act-hez kapcsolódó magyar végrehajtási törvény (a 2025. évi LXXV. törvény) ugyanis kimondja, hogy a hazai szabályozás az AI Act fogalomrendszerét alkalmazza.
Az AI Act 3. cikk (1) pontja szerint lényegét tekintve a mesterséges intelligencia alapú rendszer (AI rendszer) olyan gépi alapú rendszer, amelyet úgy terveztek, hogy különböző autonómiaszintekkel működjön, és amely a bevezetést követően adaptivitást mutathat, továbbá explicit vagy implicit célok érdekében az általa kapott bemenetből következteti ki, hogyan generáljon kimeneteket – például előrejelzéseket, tartalmat, ajánlásokat vagy döntéseket –, amelyek fizikai vagy virtuális környezetekre hatást gyakorolhatnak.
A Rendelet – amely 2024. augusztus 1. óta hatályos, azonban több lépcsőben válik kötelezően alkalmazandóvá – személyi hatálya a mesterséges intelligencia alapú rendszereket szolgáltató vagy forgalmazó, illetve importáló vállalkozásokra (és egyéb szervezetekre) vonatkozik, azonban jelentős kötelezettségeket ró a rendszerek alkalmazóira is.
Alkalmazónak olyan az olyan természetes vagy jogi személy, közjogi szerv, ügynökség vagy más szervezet minősül, amely a felügyelete alatt álló mesterséges intelligencia alapú rendszert használ, kivéve, ha a rendszert személyes, nem szakmai tevékenység keretében használják. A fentiekből következik, hogy Rendelet személyi hatálya kiterjed minden olyan alkalmazóra (munkáltatóra), amely a rendszereket szakmai / szervezeti keretei között használja. Ezen munkáltatók felelősséggel tartoznak a jogszerű és tudatos használatért, a rendszer kockázati besorolásától függően a rendszer humán felügyeletéért és bizonyos esetekben a kockázatkezeléséért is.
A gyakorlatban minden olyan munkáltató mesterséges intelligencia alapú rendszer alkalmazójának minősül, amely lehetővé, vagy kötelezővé teszi munkavállalói számára, hogy szakmai környezetben, munkafeladataik teljesítéséhez pl. olyan chatbotokat, képfeldolgozó rendszereket (pl. MI-kamera), dokumentumelemző rendszereket, prediktív modelleket vagy MI alapú döntéshozatal támogató rendszereket használjanak, amelyek a munkáltató felügyelete alatt állnak. Ebből az is következik, hogy amennyiben a mesterséges intelligencia alapú rendszerek használatára nem szakmai környezetben, illetve nem az egyes munkafolyamatokhoz kapcsolódóan kerül sor (pl. a munkavállaló egy bárki számára elérhető – azaz nem a munkáltató felügyelete alatt álló – mesterséges intelligencia alapú rendszernek feltesz egy, a munkafolyamattal össze nem függő kérdést) úgy a Rendelet többletkövetelményei nem alkalmazandóak az adott munkaszervezetre.
A fentiekből következik az a szükségszerűség is, hogy az egyébként nem a munkaviszonyra írt Rendelet egyes kötelezettségeit a munkajog rendszerén belül értelmezni kell és be kell azonosítani azokat a többletkövetelményeket, amelyeket a jogalkotó a mesterséges intelligencia alapú rendszereket használó munkáltatók számára meghatároz.
A mesterséges intelligencia alapú rendszer – a munkajog rendszerét tekintve – egy munkaeszköz, melyet a munkavállaló a munkafeladatai ellátásához felhasznál.
A munkaeszköz használatával kapcsolatosan a munka törvénykönyvéről szóló 2012 évi I. törvény („Mt.”) részletszabályokat nem ír elő, a munkavállaló munkavégzésével kapcsolatosan az 52. § (1) bekezdés c) pontja azonban előírja, hogy köteles „a munkavállaló a munkáját személyesen, az általában elvárható szakértelemmel és gondossággal, a munkájára vonatkozó szabályok, előírások, utasítások és szokások szerint végezni”.
A munkáltatónak tehát az adott munkakörre irányadó szakmai szabályok, előírások és utasítások rendszerében kell nevesíteni a Rendeletben szabályozott kötelezettségeket annak érdekében, hogy a munkavállalók munkafolyamataikban ezt a speciális munkaeszközt használni tudják.
Szintén ide kapcsolódik, hogy a mesterséges intelligencia alapú rendszer az Mt. 11/A. § tekintetében technológiai eszköznek minősül. Ennek megfelelően minden olyan kötelezés és korlátozás, amelyet a hivatkozott jogszabályi rendelkezés tartalmaz, irányadó a mesterséges intelligencia alapú rendszerek használatakor.
2026. augusztus 2. az a „nagy megfelelési dátum”, ameddig teljes körben be kell vezetni minden olyan szabályozást, amelyet a Rendelet az alkalmazókra vonatkozóan meghatároz. Ekkorra az érintett munkaszervezeteknek meg kell felelni a Rendeletben meghatározott általános kötelezettségeknek, valamint további különös kötelezettségeknek is, amennyiben a munkavállalók nagy kockázatú rendszereket is használnak. Ugyanakkor fontos, hogy egyes kötelezettségek, így a munkáltatók szempontjából különösen lényeges, MI-jártasság biztosítására, valamint az egyes tiltott MI-felhasználási módokra (pl. a munkavállalók érzelmeiből következtetést levonó rendszerek) vonatkozó szabályok már 2025. február 2. napja óta kötelezően alkalmazandók.
A Rendelet szabályozási logikájában sok múlik azon, hogy az adott rendszer milyen kockázati kategóriába esik. Ez a munkaviszony szempontjából azért kulcskérdés, mert az ilyen jogviszonyok keretében használt rendszereknek egy jelentős része nagy kockázati kategóriájúnak minősülhet, és mint ilyen, számos többletkötelezettséget eredményezhet. Ennek megállapítása esetről-esetre történő vizsgálatot igényel. Nagy kockázatú rendszereknek minősülnek például a jelöltszűrő és önéletrajz-elemző rendszerek, az MI-alapú teljesítményértékelő és munkavállaló-monitorozó rendszerek, az előléptetési, feladatkiosztási vagy munkafeltétel módosítási döntéseket támogató rendszerek.
Általános, minden alkalmazónak minősülő munkáltatóra kiterjedő kötelezettség a már említett, megfelelő és munkaszervezetre szabott MI-jártasság (AI literacy) biztosítása. Ennek keretében a munkáltatóknak gondoskodniuk kell arról, hogy a munkavállalóik megfelelő ismeretekkel rendelkezzenek az általuk használt mesterséges intelligencia alapú rendszerek működéséről és kockázatairól. E kötelezettség teljesítése történhet szabályzat bevezetésével, utasítás adással, oktatás megtartásával, e-learning útján, illetve a hivatkozott eszközök kombinációjával is. Függetlenül a választott módszertől, jelentőséggel bír, hogy az MI-jártasság biztosítása és folyamatos fenntartása/növelése utólag is igazolható legyen a munkáltató által, jogi megfelelési célból.
A mesterséges intelligencia alapú rendszerek használatának sikeressége, ennek megfelelően a munkavállalói hatékonyság növelése alapvetően attól függ, hogy a munkavállalók az MI jártasság keretében milyen tájékoztatást kapnak és az általuk e körben betartandó szabályok konzisztensen számonkérhetők-e. Célszerű minél részletesebben, pragmatikus megközelítéssel bemutatni, hogy melyek azok a munkafolyamatok, amelyekhez a mesterséges intelligencia alapú rendszer hozzárendelhető, a használatot megelőzően és annak során a munkavállalónak milyen kötelezettségei vannak, továbbá milyen kockázatai és jogkövetkezményei vannak az esetleges kötelezettségszegésnek. A transzparens szabályok létrehozása azért is fontos, mert ezek hiányában fennáll a veszély, hogy a munkavállalók saját maguk kezdenek el különféle MI eszközöket használni munkavégzési célokra, amely adott esetben súlyos kárt okozhat a munkáltatónak, gondoljunk csak pl. bizalmas információk, üzleti titkok, szellemi tulajdon által védett tartalmak feltöltésére ilyen eszközökbe. Ezt a fajta ellenőrizetlen MI használatot nevezzük „Shadow AI”-nak.
A következőkben – elsődlegesen munkajogi szempontokat alapul véve és a teljesség igénye nélkül – bemutatunk néhány olyan kötelmet, amelyre az általános, minden érintett munkavállalóra kiterjedő MI jártassági oktatásnak és kapcsolódó szabályozásnak célszerű kitérnie:
a) Az alapvető munkavállalói kötelezettségek körében célszerű rögzíteni, hogy a munkáltató által rendszeresített mesterséges intelligencia alapú rendszereket az érintett munkavállalók kizárólag a munkáltató belső szabályzatai és a munkaviszonyra vonatkozó egyéb szabályok szerint használhatják. Ehhez kapcsolódóan ki kell térni arra, hogy a munkáltató által nem rendszeresített (azaz a bárki számára elérhető) mesterséges intelligencia alapú rendszerek a munkaviszonnyal összefüggésben használhatóak-e, illetve milyen körben és milyen adattartalommal. Ennél a kérdésnél a munkáltatónak elsődlegesen azt kell mérlegelnie, hogy a rendszerbe feltöltött információk, adatok más számára is hozzáférhetővé válhatnak és ez a körülmény az adott munkáltató jogos érdekeit mennyiben veszélyezteti. Ez persze feltételezi, hogy a munkáltató rendelkezik egy kellően részletes adatvagyon-nyilvántartással és megfelelő adatvagyon-gazdálkodási gyakorlattal, amely jellemzően a sikeres MI-implementáció egyik előfeltétele.
b) Dönteni kell arról, hogy a rendszerhasználattal kapcsolatosan mi minősül tiltott tartalomnak (azaz olyan információnak, amelyet a munkavállaló nem oszthat meg (nem tölthet fel) a mesterséges intelligencia alapú rendszerbe). A Rendelet alapján tiltott tartalom kategóriájába tartozik minden olyan adat, amely a tiltott MI-gyakorlatok valamelyikét aktiválhatja (pl. biometrikus vagy érzelmi állapotra utaló adatok). Nincsen azonban annak akadálya, hogy a munkáltató a tiltott tartalom kategóriáját továbbá bővítse és további olyan tartalmakat határozzon meg (pl: munkavállalókról készült felvételek, technológiai folyamatok leírása), melyek részben, vagy egészben történő felhasználása a mesterséges intelligencia alapú rendszerekben tiltott. A kategória meghatározása során a Rendeleten túl indokolt figyelembe venni az adatvédelemre, üzleti titokra, kiberbiztonságra és szellemi tulajdonra vonatkozó jogszabályi környezetet.
c) A munkavállalói személyes adatok felhasználására vonatkozóan a Rendelet számos korlátozást ír elő. Munkavállalói személyes adat felhasználására csak megfelelő adatminőség, jogalap és célhoz kötöttség esetén van lehetőség, továbbá személyes adatok csak a GDPR szabályrendszerével összhangban továbbíthatók harmadik felek – így pl. az adott MI-rendszer üzemeltetője – felé. A munkáltató köteles korlátozni – lényegében megakadályozni – az olyan munkavállalói személyes adatok bevitelét, amelyek nem felelnek meg a Rendelet adatkezelési és fairness-követelményeinek, ellenkező esetben maga a munkáltató, mint adatkezelő valósíthat meg jogsértő adatkezelést. A hivatkozott kötelezettség teljesítése a gyakorlatban úgy valósulhat meg, hogy a személyes adatokkal dolgozó és mesterséges intelligenciát használó munkavállalók (jellemzően HR-es munkatársak, bérszámfejtéssel foglalkozó munkavállalók) külön utasítást és oktatást kapnak arról, hogy milyen jellegű személyes adatok, milyen körben használhatóak fel.
d) Célszerű arról is döntést hozni, hogy a bevezetésre kerülő mesterséges intelligencia alapú rendszerek magáncélra milyen mértékben használhatóak fel. Ha a magáncélú használat engedélyezett, úgy további kezelendő kérdéskör, hogy ez miként választható el a munkavégzési célú használattól, hiszen pl. a munkáltató az utóbbi ellenőrzésére az Mt. alapján jogosult, míg az előbbiére semmilyen esetben sem, hiszen a munkavállaló magánélete nem ellenőrizhető. E körben hasonló logika érvényesül, mint pl. a céges email fiókok, mappák és telefon híváslisták esetében. Ha a magáncélú használat nem megengedett, úgy ezt célszerű kifejezetten rögzíteni, annak ellenére, hogy az Mt. ezt az esetet határozza meg főszabályként.
e) Munkajogi szempontból elengedhetetlen annak a körülménynek az egyértelmű rögzítése, hogy a mesterséges intelligencia alapú rendszerek által generált válaszok és eredmények kizárólag az érintett munkavállaló ellenőrzése, értelmezése és validálása után használhatóak fel (ellenkező esetben fennáll az ún. „over-reliance”, azaz az MI-re való túlzott, kritikátlan támaszkodás kockázata). Amennyiben a rendszer hibás/valótlan adatot/körülményt/következtetést kommunikál és a munkavállaló azt ellenőrzés, értelmezés és értékelés elmulasztásával felhasználja, úgy a munkavállaló – az általános munkavállalói felelősségi szabályok figyelembevételével – felelős az okozott károk vonatkozásában. Ez az általános elvárhatósági zsinórmérték olyan rögzítendő kötelezettség, amely előfeltétele a munkavállalói felelősség megállapításának.
f) A munkavállalókat arról is tájékoztatni kell, hogy a mesterséges intelligencia alapú rendszerek az esetek döntő többségében minden kérdést, választ, bevitt információt naplóznak. A naplózott adatokat a munkáltató – a fentebb említett korlátok között – ellenőrizheti, megtekintheti és felhasználhatja. Az ellenőrzésnek természetesen az áltatalános munkajogi és adatvédelmi szabályokkal összhangban, a fokozatosság és szükségesség-arányosság elveinek betartásával, a munkavállalók magánszférájának teljeskörű tiszteletben tartása mellett kell történnie.
Azon munkavállalók esetén, akik munkaköri feladataikhoz kapcsolódóan nagy kockázatú rendszereket használnak (így különösen kiválasztással, toborzással, HR stratégiával és teljesítményértékeléssel foglalkozó munkavállalók) az MI jártassági oktatásnak, illetve kapcsolódó szabályozásnak a következő kérdésekre is ki kell terjednie 2026. augusztus 2-át követően:
a) A munkáltató köteles a munkavállalókat és az üzemi tanácsot tájékoztatni arról, hogy nagy kockázatú MI-t alkalmaz a munkavállalókkal kapcsolatosan. A tájékoztatásnak ki kell terjednie a használat céljára, a felhasznált adatokra, továbbá arra, hogy a munkavállalók számára milyen jellegű biztosítékok, jogorvoslat állnak rendelkezésre a nagy kockázatú rendszerek által generált döntésekkel kapcsolatosan.
b) A nagy kockázatú rendszert használó munkavállalók kötelesek betartani a rendszert szolgáltató vállalkozás által előírt feltételeket is (azaz a rendszer csak az engedélyezett esetekben és az engedélyezett célra használható). A szolgáltató által meghatározott feltételeket a munkavállalónak a használat megkezdését megelőzően – igazolható módon – meg kell ismernie és erről a munkáltatónak kell gondoskodnia.
c) A nagy kockázatú rendszer használatához szükséges technikai és szervezeti hátteret, biztosítékokat, garanciákat és megfelelő belső (audit) jellegű eljárásokat a munkáltatónak kell megteremtenie és azok elvégzését igazolható módon dokumentálnia a munkavállalók megfelelő tájékoztatása mellett. Ide értendők különösen a jogszerű adatkezelés, valamint a kiberbiztonság szervezeti keretei, eljárásrendjei, utóbbiak kiváltképpen akkor, ha a munkáltató egyben NIS2 kötelezett szervezet is.
d) A munkáltató köteles biztosítani, hogy a nagy kockázatú rendszert kizárólag megfelelő kompetenciával rendelkező, képzett munkavállalók használják. Megfelelő kompetenciával az a munkavállaló bír, aki képes a rendszer döntéseit értékelni és szükség esetén megállítani – vagy legalábbis jelezni, ha emberi beavatkozás szükséges – vagy felülbírálni. Ebből a kötelezettségből az is következik, hogy nagy kockázatú rendszerekhez a hozzáférést kizárólag azon munkavállalók számára lehet biztosítani, akinél a munkaköri feladatok ellátásához szükséges a nagy kockázatú rendszer használata.
e) A munkáltató köteles eljárásrendi szabályokat alkotni annak érdekében, hogy a szintetikus kép-hang vagy videótartalom („deepfake”) létrehozatalát lehetővé tévő MI rendszerek – így pl. egy marketing, employer branding vagy toborzási célú vizuális anyagot készítő rendszer – esetében minden esetben közlésre kerüljön, hogy mesterségesen létrehozott, vagy módosított tartalomról van szó. Ez a rendszer használatát munkaköri kötelezettségei keretében végző munkavállaló oldalán is jelenthet új feladatokat.
f) A munkáltató köteles biztosítani, hogy a nagy kockázatú rendszerbe bevitt adatok (pl. munkavállalói teljesítményadatok, önéletrajzok) relevánsak, pontosak, és kellően reprezentatívak legyenek. A munkáltató ezt a kötelezettséget úgy tudja teljesíteni, ha a hivatkozott adat-megfelelősségi ismérv ellenőrzését és biztosítását az érintett munkavállalók számára előírja.
g) Szintén kötelezettség a nagy kockázatú rendszer működésének folyamatos nyomon követése. A hivatkozott kötelezettség azt is magában foglalja, hogy eltérések vagy kockázatok esetén azonnal értesíteni kell a szolgáltatót (azaz azt a vállalkozást, aki az rendszert a munkáltató rendelkezésére bocsátja), a rendszer használatát pedig fel kell függeszteni, amíg a hiba fennáll. A jelen pontban meghatározott kötelezettség teljesítető technológiai eszközökkel is, azonban a nagy kockázatú rendszert kezelő munkavállalónak tisztában kell lennie azzal, hogy miről ismerhető fel a hiba, illetve egy ilyen helyzetben konkrétan kit és miről kell értesíteni.
h) A nyomonkövetés magában foglalja azt a kötelezettséget is, hogy a munkáltató a nagy kockázatú rendszer által automatikusan generált naplókat – amennyiben azok az ellenőrzése alatt állnak – legalább 6 hónapig köteles megőrizni és erről a körülményről a rendszert használó munkavállalókat előzetesen tájékoztatni kell.
A fenti, nem teljes körű felsorolás alapján is látjuk, hogy a mesterséges intelligencia alapú rendszerek magas kockázatú munkaeszköznek minősülnek, amelyek használata kizárólag számos, garanciális jellegű előfeltétel teljesülését követően megengedett.
A hivatkozott kötelezettségek teljesítése, valamint a Rendelet egyéb vonatkozó szabályainak történő megfelelés azért is elengedhetetlen, mert a munkavállaló felelőssége – a mesterséges intelligencia használathoz kötődő munkafolyamattal kapcsolatosan – csak akkor állapítható meg ha a munkavállaló teljes körűen megismerte és elsajátította a használattal összefüggő szabályokat. Ehhez a megismeréshez kapcsolódó előfeltételeket azonban minden esetben a munkáltatónak kell megteremtenie, ami a gyakorlatban több hónapos előkészítő munkát jelent. Ez az írás arra is rá kívánt világítani, hogy a kötelezettségek rendszere nem pusztán a Rendelet alapján vizsgálandó, hiszen az MI-rendszerek szervezeti bevezetése során figyelembe kell venni többek között a munkajogi, adatvédelmi, kiberbiztonsági, üzleti titok, személyiségi jogi, szerzői jogi, sőt adott esetben fogyasztóvédelmi és versenyjogi szempontokat is. Az implementáció tehát komplex jogi, szervezeti és operatív feladat, amely az informatikai területtel való szoros együttműködést is szükségessé teszi.
A jogkövetést elősegítő, nem elhanyagolható további körülmény a megfelelőséget az MI piaci felügyeleti hatóság, illetve – pénzügyi szektor esetén – a Magyar Nemzeti Bank is ellenőrizheti és jogsértés esetén bírságot határozhat meg. A jogsértés súlyától függően az AI Act bírságai 7,5 millió eurótól egészen 35 millió euróig, illetve a munkáltatót magába foglaló cégcsoport globális árbevételének 1–7%-áig terjedhetnek. A legsúlyosabb szankciók a tiltott MI-gyakorlatok alkalmazása esetén érvényesek (maximum 35 M € vagy 7%). Más kötelezettségek – például nagy kockázatú rendszerek hibás használata (maximum 15 M € vagy 3%), míg félrevezető információ szolgáltatása (maximum 7,5 M € vagy 1%) szintén bírságot vonhat maga után.
A cikk szerzői: dr. Szűcs László ügyvéd, a PwC Legal munkajogi praxisának vezetője és dr. Csenterics András LL.M ügyvéd, technológiai jogi szakjogász – Réti, Várszegi és Társai Ügyvédi Iroda | PwC Legal




