Kas atsako už dirbtinio intelekto sprendimus versle?
„Naudojame AI per SaaS – vadinasi, atsako tiekėjas.“
Tai viena pavojingiausių prielaidų, kurią šiandien daro verslai.
Vis daugiau verslų dirbtinį intelektą naudoja praktiškai: darbuotojų atrankai, klientų aptarnavimui, sukčiavimo prevencijai, kainodarai ar rizikos vertinimui. Tačiau ES Dirbtinio intelekto aktas aiškiai pasako – atsakomybė tenka ir tam verslui, kuris AI sprendimą naudoja.
Daugelis verslų net neidentifikuoja, kad jų naudojamas AI gali būti laikomas didelės rizikos. AI aktas tiesiogiai nurodo, kad darbuotojų atrankos ir vertinimo sistemos, kreditingumo ar rizikos vertinimas, prieigos prie paslaugų suteikimas ar kainodaros sprendimai gali patekti į didelės rizikos kategoriją (AI Act III priedas). Tokiais atvejais taikomi privalomi reikalavimai: rizikos valdymo procesai (9 str.), tinkamas duomenų valdymas (10 str.), sistemos veikimo dokumentavimas ir atsekamumas (11–12 str.), žmogaus priežiūra (14 str.) bei pakankamas tikslumas, patikimumas ir kibernetinis saugumas (15 str.).
Svarbu pabrėžti, kad ne kiekvienas AI naudojimas automatiškai tampa didelės rizikos. Jei AI naudojamas vidiniams tekstams, marketingui, klientų užklausų nukreipimui ar analitinei pagalbai be sprendimų dėl žmonių, sudėtingų atitikties procesų nereikia. Tačiau net ir tokiais atvejais būtina žinoti, kur AI naudojamas, neperduoti sprendimų su teisiniu ar finansiniu poveikiu vien algoritmui ir informuoti klientus, kai jie sąveikauja su AI(AI Act 50 str.).
Ši atsakomybės logika egzistavo ir iki AI akto. „Amazon“ atsisakė CV atrankos algoritmo, kai paaiškėjo, kad jo taikymas lemia diskriminacinius sprendimus. Tuo tarpu Nyderlandų socialinių išmokų byloje atsakomybė teko institucijoms, kurios rėmėsi algoritminiu vertinimu.
Dauguma verslų AI naudoja per trečiųjų šalių SaaS sprendimus, tačiau tai nepanaikina naudotojo atsakomybės (29 str.). Tiekėjui pagal AI aktą tenka pareiga užtikrinti technologijos atitiktį – rizikos valdymą (9 str.), duomenų valdymą (10 str.), dokumentaciją ir atsekamumą (11–12 str.), tikslumą, patikimumą ir saugumą (15 str.) bei atitikties vertinimą prieš pateikiant didelės rizikos sistemą rinkai (43 str.). Jei tiekėjas šių pareigų realiai nevykdo, reguliatorius pažeidimą vis tiek vertins per naudotojo veiksmus, nes būtent verslas pasirinko ir naudojo sprendimą.
Todėl SaaS sutartyse būtina turėti tiekėjo garantijas dėl atitikties AI aktui, pareigą bendradarbiauti incidentų atveju ir aiškius nuostolių kompensavimo mechanizmus.
Jei jūsų verslas naudoja ar kuria technologinius sprendimus ir norite įsitikinti, kad sutartys realiai atspindi AI akto reikalavimus ir paskirsto riziką ne „popieriuje“, o praktikoje – susisiekime.
📩 info@prevence.legal 📞 +370 664 42822