A modern szoftver szolgáltatásokat már natív módon felhőalapú környezetbe (cloud native) tervezik. Jellemző módon a felhő rendszerbe egy konténer alapú disztribúció van telepítve (deployment), emiatt Docker képfájlként (image) történik a terjesztés. Amennyiben a felhő rendszer bonyolultabb kiszolgálást/üzemeltetést nyújt (pl. terheléselosztás, microservices függőségek kezelése, terhelés függő skálázódás, terheléselosztás, stb), akkor a futtatási környezet már egy Docker host helyett egy Kubernetes klaszter lesz. Ebben az esetben a Kubernetes klaszterbe történő telepítés többlet figyelmet igényel, a DevOps elv szerint a telepítési folyamatot meghatározó deklaratív YAML fájlokat szintén a szoftver készítőjének (és nem a Kubernetes klasztert, azaz az infrastruktúrát üzemeltető) kell megírnia. Ugyanakkor az elmúlt néhány évben a mesterséges intelligencia (MI) rohamos térhódításával felmerül a kérdés, hogy ezt a telepítést, valamint az üzemeltetés szempontjából optimalizálást nem-e lehet MI technológiákkal kiváltani. Erre már vannak korai próbálkozások, de tapasztalatok alapján a friss startupok "túlígérik" szolgáltatásaik képességeit. Az önlab téma célja megismerni ("beleásni") a Kubernetes szolgáltatások MI alapú kialakításába, értékelni a meglévő fontosabb startup technológiákat, megpróbálni megérteni és javítani azok várható hiányosságait, alternatív megoldás kísérletezése, valamint új, eddig le nem fedett kérdések feltárása. A munkához három eltérő környezet áll rendelkezésre. - Egyrészt van egy "bare metal" csomópontokból álló, natív Kubernetes klaszter + a kiterjesztése az AWS felhő rendszer nyújtotta K8s szolgáltatása (EKS). - Másrészt a tanszéken, az Ericssonnal közösen van egy 5G hálózat, központi és helyi hálózat (central cloud, edge cloud) is rendelkezik, ebbe telepített Kubernetes klaszterek egységes kezelése. - Harmadrészt egy IoT-specifikus Kubernetes környezetet akarunk kialakítani (rPi4 eszközökön).