Események betöltése

AI Risk Specialista képzés – ISO/IEC 23894:2023 alapján

Időtartam: 5 nap

2026. jún. 01. 09:00 - 2026. jún. 05. 17:00
341.000 Ft + ÁFA / Fő

341000 Ft + ÁFA

AI Risk Specialista képzés vizuál ISO/IEC 23894:2023 alapú mesterséges intelligencia kockázatkezeléshez

A mesterséges intelligencia (MI) óriási üzleti és technológiai lehetőségeket kínál – ugyanakkor új típusú kockázatokat is teremt: jogi, etikai, adatvédelmi, biztonsági és működési kihívásokat.

Az AI Risk Specialista képzés célja, hogy a résztvevők szabványos, gyakorlatias módszertant sajátítsanak el az MI rendszerek kockázatainak azonosítására, értékelésére és kezelésére, különös tekintettel az ISO/IEC 23894:2023 ajánlásaira.

A képzés során megismered a kapcsolódó nemzetközi kockázatkezelési és irányítási megközelítéseket (pl. ISO 31000, ISO/IEC 42005), valamint azt is, hogyan biztosítható a jogi és etikai megfelelés olyan kulcsterületeken, mint a GDPR vagy az AI Act.

A programot esettanulmányok, közös gyakorlatok és szimulációk teszik igazán hasznossá: olyan tudást kapsz, amit azonnal át tudsz ültetni a saját szervezeti környezetedbe.

A képzés célja

Az AI Risk Specialista képzés célja, hogy átfogó és gyakorlatközpontú ismereteket adjon a mesterséges intelligencia rendszerek kockázatkezeléséről, különös tekintettel:

  • a nemzetközi szabványokra (ISO/IEC 23894:2023, ISO 31000, ISO/IEC 42005),
  • a jogi megfelelőségre (pl. GDPR, AI Act),
  • valamint az etikus és felelős MI használatra.

A képzés végére a résztvevők képessé válnak:

MI kockázatok azonosítására és értékelésére
kockázatkezelési intézkedések tervezésére és dokumentálására
szabványosított hatásvizsgálati és megfelelőségi eljárások alkalmazására
AI rendszerek szervezeti integrációjára (auditálható, átlátható működés mellett)
interdiszciplináris szemlélet kialakítására, amely ötvözi a technológiai, üzleti és szabályozási szempontokat
gyakorlati eszközök és sablonok használatára, konkrét akciótervek kidolgozásához

Kinek ajánljuk az AI Risk Specialista képzést?

A képzés azoknak a szakembereknek szól, akik MI rendszerek fejlesztésében, bevezetésében vagy felügyeletében vesznek részt, és szeretnének biztos alapokra épített, szabványos megközelítést alkalmazni a kockázatok kezelésében.

Különösen ajánljuk:

  • MI-fejlesztőknek és AI mérnököknek
  • adattudósoknak (Data Scientist)
  • kockázatkezelési és megfelelőségi szakértőknek
  • adatvédelmi felelősöknek (GDPR)
  • IT-biztonsági és információbiztonsági szakembereknek
  • audit- és minőségirányítási szerepkörben dolgozóknak
  • vezetőknek, döntéshozóknak a verseny- és közszférában

Képzési információk

  • Képzés hossza: 5 nap
    Vizsga: írásbeli
    Megszerezhető dokumentum: AI Risk Specialist Euzertifikat

Miért érdemes jelentkezni?

Az MI rendszerek kockázatainak kezelése ma már nem opcionális – a szervezetek számára egyre fontosabb a biztonságos, átlátható és jogszabályoknak megfelelő működés.

Ez a képzés segít abban, hogy:

  • magabiztosan alkalmazd az ISO/IEC 23894:2023 szemléletét,
  • megfelelési és kockázati oldalról is értsd az MI rendszereket,
  • valódi, gyakorlatban használható eszközöket kapj,
  • és olyan tudással rendelkezz, amire a szervezeteknek egyre nagyobb szüksége van.

A képzés tartalmazza a vizsga és a Bureau Veritas Certificate árát is. Sikeres vizsga esetén a tanúsítvány magyar, vagy angol nyelven kérhető. A tanúsítvány elkészítése hozzávetőleg 4 hetet vesz igénybe.

Tematika:

1. nap – Bevezetés az AI kockázatkezelésbe és a szabványos alapokba

Az első nap célja, hogy egységes alapokra helyezzük az AI kockázatkezelés fogalmait és a legfontosabb nemzetközi szabványokat.

Témakörök:

  • Miért kulcskérdés ma az MI rendszerek kockázatainak tudatos kezelése?
  • Az ISO/IEC 23894:2023, ISO 31000 és ISO/IEC 42005 áttekintése
  • Az ISO 31000 kockázatkezelési alapelvei és folyamata (keretrendszer és működés)
  • MI rendszerek működési alapjai: gépi tanulás, neurális hálók, adatfüggőség, modell-viselkedés
  • Tipikus MI-kockázatok a gyakorlatban: torzítás (bias), átláthatóság hiánya, adatvédelem, megbízhatóság

Közös gyakorlat:
Egyszerű MI-projekt kockázati és hatástérképe – az első szabványos gondolkodási modell kialakítása

2. nap – Kockázatkezelési folyamat MI környezetben

A második napon a résztvevők megtanulják, hogyan történik a kockázatok azonosítása és elemzése az MI rendszerek teljes életciklusa mentén.

Témakörök:

  • Kockázatok azonosítása az MI életciklus különböző pontjain (adatgyűjtés, tanítás, tesztelés, bevezetés, üzemeltetés)
  • Kockázatelemzés: valószínűség, hatás, bizonytalanság kezelése
  • Hatásvizsgálati szempontok az ISO/IEC 42005 alapján
  • Gyakorlati példák: adatforrások, tanító adatok, modellek és döntési logikák kockázatai
  • Jogi megfelelőség kockázati nézőpontból: GDPR, valamint az EU AI Act követelményeihez való illeszkedés

Közös gyakorlat:
Kockázati mátrix összeállítása egy konkrét MI-rendszerre – priorizálás és döntéstámogatás

3. nap – Intézkedések, kontrollok és dokumentáció

A harmadik nap fókuszában a kockázatkezelési intézkedések kiválasztása, valamint a megfelelő, szabványos AI dokumentáció kialakítása áll.

Témakörök:

  • Kockázatkezelési stratégiák: elkerülés, csökkentés, átruházás, elfogadás
  • Hatáscsökkentő intézkedések típusa: technikai, szervezeti és jogi kontrollok
  • Dokumentációs követelmények az ISO/IEC 23894 és ISO/IEC 42005 alapján
  • AI rendszerek dokumentálása a gyakorlatban: modellkártyák, adatlapok, döntési logika és korlátok rögzítése
  • Adatminőség és algoritmus-transzparencia dokumentálása, auditálható formában

Kollektív gyakorlat (minta szervezet):
Hatásvizsgálat + kockázatkezelési terv elkészítése sablonokkal és strukturált módszertannal

4. nap – Szervezeti integráció, megfelelőség és audit

A negyedik nap célja, hogy a résztvevők képesek legyenek az AI risk management folyamatot szervezeti szintre emelni, és megfelelőségi szempontból is működtethető rendszerben gondolkodni.

Témakörök:

  • Integráció vállalati folyamatokba: minőségirányítás, információbiztonság, IT governance
  • Monitoring és rendszeres felülvizsgálat: mit, hogyan és milyen gyakorisággal érdemes mérni?
  • Auditálási szempontok: dokumentáció, nyomon követhetőség, felelősségi körök
  • Jogszabályi megfelelőség: EU AI Act, valamint szektor-specifikus előírások (pl. pénzügy, egészségügy, közigazgatás)

Kollektív gyakorlat (minta szervezet):
Megfelelőségi és audit szimuláció – ellenőrzési pontok, hiányosságok és javítási javaslatok

5. nap – Összegzés, akciótervek és zárás

Az utolsó nap a tanultak gyakorlati összeépítésére és a résztvevők saját szervezeti környezetére készített konkrét akciótervek kidolgozására fókuszál.

Témakörök:

  • Kommunikáció és transzparencia: mit várnak el a szabványok és a megfelelőségi keretek?
  • Stakeholder-elemzés és érintetti bevonás szabványos keretrendszerben
  • Interaktív megbeszélés: tanulságok, iparági példák, jó gyakorlatok
  • Záró bemutatók: a közös és kollektív feladatok eredményeinek összegzése
  • Akcióterv készítése a résztvevők saját szervezetére: következő lépések, felelősök, dokumentációs csomag, ütemezés
  • Tudásfelmérő kvíz és visszajelzés

Eredmény a képzés végére

A résztvevők a képzés végére képesek lesznek egy szabványos, dokumentált és auditálható AI kockázatkezelési megközelítés felépítésére, amely illeszkedik:

  • az ISO/IEC 23894:2023 ajánlásaihoz,
  • a szervezeti működéshez,
  • valamint a GDPR és EU AI Act megfelelőségi elvárásaihoz.

További időpontok:

A mesterséges intelligencia (MI) óriási üzleti és technológiai lehetőségeket kínál – ugyanakkor új típusú kockázatokat…

341.000 Ft + ÁFA / Fő
AIRS
márc. 2. - márc. 6.