Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
GerardMotak
SzkołaGłównaHandlowa
Aspektyetycznestosowaniasztucznejinteligencji
wperspektywieXAI
Słowakluczowe:XAI,etykasztucznejinteligencji
Streszczenie
Badaniananoworozważająaspektyetycznestosowaniasztucznejinteligencjiwper-
spektywietechnikXAI(ExplainableAI).Wramachbadańzostająporównanekodeksy
etyczneorganizacjimiędzynarodowychorazorganizacjikomercyjnych.Wspólnymmianow-
nikiemjestwytłumaczalnośćmodeli.Autorbadańwskazujenato,żepopularnemetody:
czylimetodaShapleyaoraztłumaczeniesiecineuronowychprzezdrzewadecyzyjnenie
spełniająkryteriumwytłumaczalnościmodeli.Jedynąmetodą,którapozwalanawyko-
rzystaniesiecineuronowychwzgodziezkodeksemetykijesttransformacjaekwiwalentna
siecineuronowychnadrzewadecyzyjne.Cozatymidziesiecineuronoweimetody
sztucznejinteligencjitypu„black-box”mogąbyćwykorzystywanewzgodziezfilarami
etykisztucznejinteligencji.
1.Wstęp
WrazzpandemiąCOVID-19organizacjezaczęłykierowaćsiękuBigData
isztucznejinteligencjijakosposobienazwiększenieproduktywnościiporadzeniu
sobiewcyfrowejrzeczywistości.Sztucznainteligencjaoferujemożliwośćpodej-
mowanialepszychdecyzjiopartychodaneatakżeautomatyzacjioperacji
biznesowych.Wrazzewzrostemzłożonościproblemówalgorytmutypu„black
box”zyskałypopularność.Algorytmy„blackbox”totakie,któreniemożliwe
dowytłumaczenia,inżynierowiesztucznejinteligencjiczydatascientiścinie
wstaniepowiedziećwjakidokładniesposóbalgorytmdziała,liczbarównańoraz
transformacjidanychjestnieinterpretowalnadlaczłowieka.Wtakimprzypadku
wykorzystujesięXAIczylitechniki„explainableartificiallintelligence”:to
algorytmy,któresłużąaproksymacjiwpływuposzczególnychzmiennychna
wynikorazwizualizacjiważnościkażdejzezmiennej.Jakotechniki„explainable
artificiallintelligence”możnawykazaćSHapleyAdditiveexPlanations21czy
21Y.Ning,M.E.H.Ong,B.Chakraborty,B.A.Goldstein,D.S.W.Ting,R.Vaughan,N.Liu,Shapley
variableimportancecloudforinterpretablemachinelearning,Patterns,3(4),2022.
19