A mesterséges intelligencia (MI) óriási üzleti és technológiai lehetőségeket kínál – ugyanakkor új típusú kockázatokat is teremt: jogi, etikai, adatvédelmi, biztonsági és működési kihívásokat.
Az AI Risk Specialista képzés célja, hogy a résztvevők szabványos, gyakorlatias módszertant sajátítsanak el az MI rendszerek kockázatainak azonosítására, értékelésére és kezelésére, különös tekintettel az ISO/IEC 23894:2023 ajánlásaira.
A képzés során megismered a kapcsolódó nemzetközi kockázatkezelési és irányítási megközelítéseket (pl. ISO 31000, ISO/IEC 42005), valamint azt is, hogyan biztosítható a jogi és etikai megfelelés olyan kulcsterületeken, mint a GDPR vagy az AI Act.
A programot esettanulmányok, közös gyakorlatok és szimulációk teszik igazán hasznossá: olyan tudást kapsz, amit azonnal át tudsz ültetni a saját szervezeti környezetedbe.
A képzés célja
Az AI Risk Specialista képzés célja, hogy átfogó és gyakorlatközpontú ismereteket adjon a mesterséges intelligencia rendszerek kockázatkezeléséről, különös tekintettel:
- a nemzetközi szabványokra (ISO/IEC 23894:2023, ISO 31000, ISO/IEC 42005),
- a jogi megfelelőségre (pl. GDPR, AI Act),
- valamint az etikus és felelős MI használatra.
A képzés végére a résztvevők képessé válnak:
✅ MI kockázatok azonosítására és értékelésére
✅ kockázatkezelési intézkedések tervezésére és dokumentálására
✅ szabványosított hatásvizsgálati és megfelelőségi eljárások alkalmazására
✅ AI rendszerek szervezeti integrációjára (auditálható, átlátható működés mellett)
✅ interdiszciplináris szemlélet kialakítására, amely ötvözi a technológiai, üzleti és szabályozási szempontokat
✅ gyakorlati eszközök és sablonok használatára, konkrét akciótervek kidolgozásához
Kinek ajánljuk az AI Risk Specialista képzést?
A képzés azoknak a szakembereknek szól, akik MI rendszerek fejlesztésében, bevezetésében vagy felügyeletében vesznek részt, és szeretnének biztos alapokra épített, szabványos megközelítést alkalmazni a kockázatok kezelésében.
Különösen ajánljuk:
- MI-fejlesztőknek és AI mérnököknek
- adattudósoknak (Data Scientist)
- kockázatkezelési és megfelelőségi szakértőknek
- adatvédelmi felelősöknek (GDPR)
- IT-biztonsági és információbiztonsági szakembereknek
- audit- és minőségirányítási szerepkörben dolgozóknak
- vezetőknek, döntéshozóknak a verseny- és közszférában
Képzési információk
- Képzés hossza: 5 nap
Vizsga: írásbeli
Megszerezhető dokumentum: AI Risk Specialist Euzertifikat
Miért érdemes jelentkezni?
Az MI rendszerek kockázatainak kezelése ma már nem opcionális – a szervezetek számára egyre fontosabb a biztonságos, átlátható és jogszabályoknak megfelelő működés.
Ez a képzés segít abban, hogy:
- magabiztosan alkalmazd az ISO/IEC 23894:2023 szemléletét,
- megfelelési és kockázati oldalról is értsd az MI rendszereket,
- valódi, gyakorlatban használható eszközöket kapj,
- és olyan tudással rendelkezz, amire a szervezeteknek egyre nagyobb szüksége van.
A képzés tartalmazza a vizsga és a Bureau Veritas Certificate árát is. Sikeres vizsga esetén a tanúsítvány magyar, vagy angol nyelven kérhető. A tanúsítvány elkészítése hozzávetőleg 4 hetet vesz igénybe.
1. nap – Bevezetés az AI kockázatkezelésbe és a szabványos alapokba
Az első nap célja, hogy egységes alapokra helyezzük az AI kockázatkezelés fogalmait és a legfontosabb nemzetközi szabványokat.
Témakörök:
- Miért kulcskérdés ma az MI rendszerek kockázatainak tudatos kezelése?
- Az ISO/IEC 23894:2023, ISO 31000 és ISO/IEC 42005 áttekintése
- Az ISO 31000 kockázatkezelési alapelvei és folyamata (keretrendszer és működés)
- MI rendszerek működési alapjai: gépi tanulás, neurális hálók, adatfüggőség, modell-viselkedés
- Tipikus MI-kockázatok a gyakorlatban: torzítás (bias), átláthatóság hiánya, adatvédelem, megbízhatóság
Közös gyakorlat:
Egyszerű MI-projekt kockázati és hatástérképe – az első szabványos gondolkodási modell kialakítása
2. nap – Kockázatkezelési folyamat MI környezetben
A második napon a résztvevők megtanulják, hogyan történik a kockázatok azonosítása és elemzése az MI rendszerek teljes életciklusa mentén.
Témakörök:
- Kockázatok azonosítása az MI életciklus különböző pontjain (adatgyűjtés, tanítás, tesztelés, bevezetés, üzemeltetés)
- Kockázatelemzés: valószínűség, hatás, bizonytalanság kezelése
- Hatásvizsgálati szempontok az ISO/IEC 42005 alapján
- Gyakorlati példák: adatforrások, tanító adatok, modellek és döntési logikák kockázatai
- Jogi megfelelőség kockázati nézőpontból: GDPR, valamint az EU AI Act követelményeihez való illeszkedés
Közös gyakorlat:
Kockázati mátrix összeállítása egy konkrét MI-rendszerre – priorizálás és döntéstámogatás
3. nap – Intézkedések, kontrollok és dokumentáció
A harmadik nap fókuszában a kockázatkezelési intézkedések kiválasztása, valamint a megfelelő, szabványos AI dokumentáció kialakítása áll.
Témakörök:
- Kockázatkezelési stratégiák: elkerülés, csökkentés, átruházás, elfogadás
- Hatáscsökkentő intézkedések típusa: technikai, szervezeti és jogi kontrollok
- Dokumentációs követelmények az ISO/IEC 23894 és ISO/IEC 42005 alapján
- AI rendszerek dokumentálása a gyakorlatban: modellkártyák, adatlapok, döntési logika és korlátok rögzítése
- Adatminőség és algoritmus-transzparencia dokumentálása, auditálható formában
Kollektív gyakorlat (minta szervezet):
Hatásvizsgálat + kockázatkezelési terv elkészítése sablonokkal és strukturált módszertannal
4. nap – Szervezeti integráció, megfelelőség és audit
A negyedik nap célja, hogy a résztvevők képesek legyenek az AI risk management folyamatot szervezeti szintre emelni, és megfelelőségi szempontból is működtethető rendszerben gondolkodni.
Témakörök:
- Integráció vállalati folyamatokba: minőségirányítás, információbiztonság, IT governance
- Monitoring és rendszeres felülvizsgálat: mit, hogyan és milyen gyakorisággal érdemes mérni?
- Auditálási szempontok: dokumentáció, nyomon követhetőség, felelősségi körök
- Jogszabályi megfelelőség: EU AI Act, valamint szektor-specifikus előírások (pl. pénzügy, egészségügy, közigazgatás)
Kollektív gyakorlat (minta szervezet):
Megfelelőségi és audit szimuláció – ellenőrzési pontok, hiányosságok és javítási javaslatok
5. nap – Összegzés, akciótervek és zárás
Az utolsó nap a tanultak gyakorlati összeépítésére és a résztvevők saját szervezeti környezetére készített konkrét akciótervek kidolgozására fókuszál.
Témakörök:
- Kommunikáció és transzparencia: mit várnak el a szabványok és a megfelelőségi keretek?
- Stakeholder-elemzés és érintetti bevonás szabványos keretrendszerben
- Interaktív megbeszélés: tanulságok, iparági példák, jó gyakorlatok
- Záró bemutatók: a közös és kollektív feladatok eredményeinek összegzése
- Akcióterv készítése a résztvevők saját szervezetére: következő lépések, felelősök, dokumentációs csomag, ütemezés
- Tudásfelmérő kvíz és visszajelzés
Eredmény a képzés végére
A résztvevők a képzés végére képesek lesznek egy szabványos, dokumentált és auditálható AI kockázatkezelési megközelítés felépítésére, amely illeszkedik:
- az ISO/IEC 23894:2023 ajánlásaihoz,
- a szervezeti működéshez,
- valamint a GDPR és EU AI Act megfelelőségi elvárásaihoz.