ABSTRAKT

Ky dokument kërkimor heton konceptin e transparencës në inteligjencën artificiale (AI). Me rritjen e inteligjencës artificiale në industritë me aksione të larta si kujdesi shëndetësor, financa, telekomunikacioni, energjia dhe aviacioni, rëndësia e transparencës në inteligjencën artificiale të shpjegueshme (XAI) bëhet gjithnjë e më e rëndësishme për të kuptuar proceset vendimmarrëse të AI. Ky studim do të eksplorojë teknikat e kaluara dhe aktuale të AI dhe do të vlerësojë efektet e aftësive të tyre përkatëse të interpretueshmërisë dhe shpjegueshmërisë. Hulumtimi do të trajtojë gjithashtu konsideratat kryesore të paragjykimit, drejtësisë dhe besimit në lidhje me ndikimin e tyre në saktësinë, besueshmërinë dhe pranueshmërinë. Gjetjet e këtij studimi do të ndihmojnë në kuptimin e mëtejshëm të rolit të XAI-t në sigurimin e përdorimit të përgjegjshëm dhe etik të AI.

1 HYRJE

Transparenca është shfaqur si një çështje kritike në fushën e inteligjencës artificiale (AI) pasi shqetësimet rreth interpretueshmërisë, shpjegueshmërisë dhe llogaridhënies së këtyre sistemeve bëhen më të përhapura.

Një nga shqetësimet kryesore rreth sistemeve të AI është se mund të jetë e vështirë për njerëzit të kuptojnë se si merren vendimet. Kjo mungesë transparence mund të ketë implikime të rëndësishme etike kur këto sisteme përdoren në kontekste vendimmarrëse me rrezikshmëri të lartë, siç është kujdesi shëndetësor. Ne do të ofrojmë një përmbledhje të shkurtër të historisë së AI dhe se si ajo ka evoluar, duke përfshirë faktorët që kontribuan në natyrën aktuale të kutisë së zezë të shumë sistemeve të AI. Më pas, ne do të shqyrtojmë përdorimin e AI në industri të ndryshme duke përfshirë kujdesin shëndetësor dhe kompani si Amazon dhe Twitter. Ne do të theksojmë rreziqet etike dhe pasojat e mundshme dhe aktuale të mungesës së transparencës. Ne do të shqyrtojmë gjithashtu literaturën dhe teknologjitë ekzistuese që rrotullohen rreth sfidave dhe zgjidhjeve të transparencës së AI, duke përfshirë metoda dhe mjete të ndryshme të interpretimit të modeleve që janë zhvilluar për të adresuar interpretueshmërinë dhe shpjegueshmërinë e sistemeve të AI. Për më tepër, ne do të diskutojmë efektet që ka në privatësi.

Shpresojmë të ofrojmë njohuri të vlefshme për përdoruesit individualë, kompanitë dhe studiuesit e AI në lidhje me rëndësinë e transparencës në sistemet e AI.

2 HISTORIA

Në vitet 1950, koncepti i AI u frymëzua nga romanet fantastiko-shkencore dhe idetë e paraqitura nga studiues të tillë si Turing. Në atë kohë, kompjuterët ishin të shtrenjtë dhe mund të ekzekutonin vetëm komanda pa mundur t'i ruanin ato. Megjithatë, me përparimet në teknologji, fillimet e kompjuterëve modernë dhe AI ​​lulëzuan nga 1957-1974 pasi kompjuterët u bënë më të aksesueshëm, më të shpejtë dhe më të lirë. Gjatë kësaj kohe, dolën përkufizime të ndryshme për AI, duke filluar nga aftësia e saj për të kryer detyra specifike përmes përshtatjes fleksibël ndaj të mësuarit dhe përgjithësimit si njerëzit.

Në ditët e para të inteligjencës artificiale, fokusi ishte në zhvillimin e sistemeve që mund të kryenin detyra specifike, të tilla si luajtja e lojërave ose njohja e modeleve në të dhëna. Funksionet e brendshme të këtyre sistemeve nuk konsideroheshin të rëndësishme, për sa kohë që ato prodhonin rezultate të sakta. Sot, AI shpesh përmendet si një teknologji e "kutisë së zezë", ku funksionimi i saj i brendshëm dhe proceset e vendimmarrjes janë të errëta për të kuptuarit njerëzor. Kjo mungesë transparence është për shkak të kompleksitetit të algoritmeve dhe vëllimit të madh të të dhënave të përdorura nga këto sisteme. Kjo e bën shumë të vështirë interpretimin dhe kuptimin se si ata arrijnë në vendimet e tyre.

3 TRANSPARENCA

3.1 MOTIVIMI

Pavarësisht nëse e dimë apo jo, AI është kudo rreth nesh. "Tregu global i inteligjencës artificiale u vlerësua në 136.55 miliardë dollarë në 2022." Inteligjenca artificiale ka treguar të jetë një revolucion i rëndësishëm. 36.4 miliardë dollarë nga pjesa e përmendur më parë iu atribuuan mësimit të thellë. [1] Ndërsa mësimi i thellë është provuar të jetë një teknologji jashtëzakonisht e dobishme, që kursen kosto dhe nxit të ardhura, ajo konsiderohet një kuti e zezë. Ndërveprimi i tyre kompleks midis neuroneve dhe peshave e bën të pamundur gjurmimin ose interpretimin e vendimeve të tij që çojnë në një rezultat. Në industri, besimi në mirëkuptim dhe besim është jashtëzakonisht i rëndësishëm. Ne duhet të jemi në gjendje të shohim pse një AI po vendos sepse mund të japë një rezultat të keq bazuar në arsyet e gabuara dhe paragjykimet e paparashikuara.

Për përdoruesin fundor, është e rëndësishme të kuptojmë pse një AI po merr një vendim ose parashikim të veçantë. Duke ofruar një sistem të shpjegueshëm dhe të interpretueshëm, përdoruesit mund të kenë më shumë besim. Kjo çon në rritjen e adoptimit dhe përdorimit.

Për industri të tilla si kujdesi shëndetësor, financa dhe teknologjia, AI është e rëndësishme për të siguruar që vendimet e marra nga këto algoritme janë të sakta, të drejta dhe etike. Mungesa e transparencës e bën të vështirë zbulimin e paragjykimeve, gabimeve ose çështjeve të tjera që mund të çojnë në rezultate negative.

Për studiuesit, zhvillimi i AI transparente mund të çojë në njohuri të reja se si funksionojnë këto sisteme dhe si të përmirësohen në to. Kjo do të çojë në AI më të besueshme dhe të përgjegjshme.

3.2 PËRKUFIZIM

Nuk ka një përkufizim standard dhe përgjithësisht të pranuar të AI të shpjegueshme. Megjithatë, për të bërë disa sqarime rreth konceptit, XAI synon “të prodhojë modele më të shpjegueshme, duke ruajtur një nivel të lartë të performancës mësimore (saktësia e parashikimit); dhe u mundëson përdoruesve njerëzorë të kuptojnë, në mënyrë të përshtatshme, të besojnë dhe të menaxhojnë në mënyrë efektive gjeneratën në zhvillim të partnerëve artificialisht inteligjentë.” [2] Mund ta zbërthejmë këtë me disa terma kyç:

  • Shpjegueshmëria: Aftësia e një sistemi AI për t'u ofruar njerëzve shpjegime të kuptueshme të procesit të vendimmarrjes dhe se si ai arriti në një rezultat të caktuar.
  • Interpretueshmëria: Aftësia e një sistemi AI për t'u kuptuar dhe interpretuar nga njerëzit. Ekspertët në këtë fushë duhet të jenë në gjendje të sigurojnë që sistemi të funksionojë siç është menduar.
  • Llogaridhënia: Aftësia e palëve të interesuara, si përdoruesit, auditorët dhe rregullatorët, për të hyrë dhe rishikuar të dhënat dhe algoritmet pas një sistemi AI për të siguruar që sistemi po ofron rezultate të besueshme dhe etike.

3.3 Paragjykimet dhe BESIMI

Udhëzimet e projektimit për modelet e AI kanë pasur tradicionalisht prioritet maksimizimin e saktësisë. Megjithatë, hulumtimet e fundit kanë treguar se neglizhimi i çështjeve të diskriminimit dhe padrejtësisë mund të rezultojë në skenarë që janë ekonomikisht të varfër dhe shoqërorë të papranueshëm. Ekziston një njohje në rritje se këto çështje duhet të adresohen në mënyrë eksplicite në hartimin e modeleve të AI. IA duhet të jetë e përgjegjshme nga pikëpamja etike. [3] Zhvillimi dhe vendimmarrja e AI mund të përfaqësohet përafërsisht si një tubacion: Paragjykimi njerëzor → Të dhënat → Algoritmi → Sistemi i AI → Vendimmarrja. [4] Ka disa mënyra se si sjellja mund të shfaqet nga secili prej hapave përpara vendimmarrjes. Për shembull, modelet e AI janë po aq të mira sa të dhënat mbi të cilat janë trajnuar. Nëse të dhënat e trajnimit janë të njëanshme, atëherë sistemi i AI do të jetë i njëanshëm. Algoritmet e përdorura për të trajnuar dhe drejtuar sistemet e AI gjithashtu mund të paraqesin paragjykim nëse një algoritëm mbështetet shumë në një veçori të veçantë që lidhet me një karakteristikë të mbrojtur - racën, gjininë, moshën, fenë, orientimin seksual, aftësinë e kufizuar dhe origjinën kombëtare - duke çuar në diskriminim rezultatet.

3.4 APLIKIMET DHE NDIKIMI

Shkencëtarët socialë kanë zbuluar se gjykimet njerëzore shpesh shtrembërohen nga gabimet e arsyetimit të pavetëdijshëm më shpesh sesa njerëzit janë të vetëdijshëm. [5] Arsyeja pse intervistat e punësimit ende trajtohen nga njerëzit me paragjykime është për shkak të iluzionit të vlefshmërisë. Sipas Kahneman dhe Tversky, të cilët futën idenë e paragjykimit njohës në epokën moderne, paragjykimi i konfirmimit i bën njerëzit të mbivlerësojnë saktësinë e tyre në bërjen e parashikimeve, duke çuar në një iluzion kompetence. [6] Kjo është arsyeja pse përdorimi i AI për të hequr detaje të parëndësishme është kaq tërheqës. Megjithatë, nëse zbulohet se një AI sillet i njëanshëm ose i padrejtë kur bëhet fjalë për gjininë, racën, statusin ekonomik ose ndonjë grup të caktuar, kjo jo vetëm që mund të çojë në humbjen e besimit me klientët ekzistues, por gjithashtu mund t'i nënshtrojë një organizate " shqyrtim publik dhe rregullator», ose të dëmtojë ata që preken nga rezultatet.

Një shqetësim që organizatat mund të kenë në lidhje me transparencën është se nëse përballen me reagimin e publikut për shkak të njëanshmërisë ose diskriminimit të pretenduar, atyre mund t'u duhet të ndalojnë përdorimin e sistemeve të tyre të ML ose të vonojnë vendosjen, duke rezultuar në ndërprerje në operacionet e tyre të biznesit. Amazon u përpoq të zbatonte një mjet eksperimental të rekrutimit të AI. Megjithatë, ata vendosën ta mbyllin pasi zbuluan se ishte diskriminuar ndaj grave. Mjeti do të gërvishtte ueb-in për të dalluar kandidatët e mundshëm dhe për t'i vlerësuar ata. Algoritmi mësoi të zvogëlojë CV-të e grave për punë teknike si zhvillimi i softuerit. Në këtë rast, algoritmi është trajnuar në të gjitha CV-të e dorëzuara në kompani gjatë dhjetë viteve. Duke pasur parasysh përqindjen e ulët të grave që punojnë në kompani, algoritmi i lidhi meshkujt me sukses. [7]

AI po fiton tërheqje në industrinë e kujdesit shëndetësor. Sidomos në analizimin e imazheve mjekësore si skanimet MRI ose rrezet X. Sipas një studimi të botuar në PNAS në vitin 2020, grupet e të dhënave të trajnimit me pabarazitë gjinore në sistemet e diagnostikimit me ndihmën e kompjuterit (CAD) rezultuan në saktësi të reduktuar për grupin e nënpërfaqësuar. [8] Rrjeti i dermatologjisë JAMA zbuloi pabarazi në diagnostikimin e kancerit të lëkurës në ngjyra të ndryshme të lëkurës. Modelet e trajnuara për subjekte me lëkurë të çelur ishin më pak të sakta në identifikimin e kancerit të lëkurës në pacientët me lëkurë të errët. Megjithëse individët me lëkurë të errët janë përgjithësisht në rrezik më të ulët për kancer të lëkurës, ai shpesh diagnostikohet në një fazë më të avancuar tek njerëzit me ngjyrë, gjë që e bën më të vështirë trajtimin. Mungesa e diversitetit në të dhënat e trajnimit të AI rezulton në modele që luftojnë për të diagnostikuar kancerin e lëkurës te pacientët me lëkurë më të errët. [9]

Në vitin 2021, funksioni i prerjes së fotografive të Twitter u vu nën shqyrtimin publik për gjoja se ishte diskriminues ndaj zezakëve dhe femrave pasi favorizonte fytyrat e bardha dhe meshkuj kur prenin imazhe. Fillimi fillestar që ndezi këtë çështje përdori një imazh të Mitch McConnell dhe Barack Obama. [10] Kritikët akuzuan gjithashtu algoritmin e prerjes së fotografive të Twitter se theksonte gjoksin dhe këmbët e grave si tipare më të rëndësishme se fytyrat e tyre. Në përgjigje të reagimit dhe kritikave, Twitter hetoi për të përcaktuar saktësinë e akuzave dhe publikoi raporte teknike që detajojnë se si funksionojnë algoritmet për të ofruar më shumë transparencë për këtë çështje. Twitter gjithashtu njoftoi në një postim në blog se po modifikonte mjetin për të eliminuar paragjykimet e modelit që u identifikuan. [11] Megjithatë, ka polemika rreth faktorëve të saktë që ndikuan në algoritmin e prerjes së fotografive të Twitter. Ndërsa disa raporte fillestare sugjeruan se algoritmi ishte diskriminues ndaj zezakëve dhe grave, debatet dhe eksperimentet e mëtejshme në seksionin e komenteve zbuluan informacione kontradiktore. Disa burime pohuan se algoritmi bazohej kryesisht në zbulimin e buzëqeshjes, pasi një imazh i ngjashëm i Barack Obamës me një buzëqeshje më të madhe u zgjodh për pamjen paraprake mbi foton origjinale të Mitch McConnell. Të tjerë zbuluan se më shumë faktorë të tillë si kontrasti i përgjithshëm mund të kenë luajtur një rol. Sidoqoftë, Twitter u përball me reagime të konsiderueshme për shkak të supozimeve fillestare në lidhje me paragjykimin e algoritmit. Kjo nënvizon rëndësinë e transparencës në AI, pasi mund të ndihmojë në adresimin e keqkuptimeve dhe parandalimin e pasojave negative.

Ndërsa shembujt e diskutuar në këtë seksion ilustrojnë sfidat dhe kufizimet e AI aktuale, AI i shpjegueshëm (XAI) ofron një zgjidhje premtuese. XAI mund të ofrojë shpjegime të kuptueshme nga njeriu për procesin e vendimmarrjes së një sistemi AI, duke u mundësuar përdoruesve, kompanive dhe studiuesve të kuptojnë se si sistemi arriti në një rezultat të caktuar. Ky nivel transparence dhe llogaridhënieje mund të ndihmojë në adresimin e çështjeve të paragjykimit dhe diskriminimit, duke e bërë teknologjinë më të saktë, etike dhe më të drejtë në vendimmarrjen e saj.

Megjithëse njohja dhe kërkesa për XAI po rritet në industri të ndryshme, sjellja e interpretueshmërisë në AI është një çështje tepër sfiduese.

3.5 SFIDAT

Për shkak të natyrës komplekse të algoritmeve moderne të mësimit të makinerive, krijimi i AI më të shpjegueshme dhe të interpretueshme paraqet sfida të rëndësishme. Për shembull, rrjetet nervore të thella (DNN) janë modele komplekse të mësimit të makinerive që kanë arritur performancën më të fundit në një gamë të gjerë aplikacionesh, duke përfshirë njohjen e imazhit dhe përpunimin e gjuhës natyrore. Megjithatë, DNN-të kanë struktura jolineare me shumë shtresa të përbëra nga shumë shtresa të fshehura. Çdo shtresë mund të ketë neurone të shumta dhe vetë modeli mund të ketë miliona parametra. Kompensimi për këtë saktësi është mungesa e interpretueshmërisë. Nga ana tjetër, regresionet lineare janë shumë më të thjeshta dhe më të lehta për t'u interpretuar. Ndërsa ata prodhojnë një formulë që mund të kuptohet lehtësisht, pasi supozon një marrëdhënie lineare midis variablave hyrëse dhe daljes, ajo mund të mos kapë ndërveprimet komplekse që mundet një DNN.

Interpretueshmëria ka më shumë sesa thjesht dizajni i modelit. Ofrimi i interpretimit kontekstual dhe shpjegimeve të sakta kërkon që AI të kuptojë kontekstin në të cilin është marrë vendimi. Kjo është sfiduese sepse konteksti është kompleks, i pasigurt dhe dinamik. Pastaj, aftësia për të gjeneruar shpjegime të sakta dhe të lehta për t'u kuptuar nga joekspertët është një sfidë tjetër. Përdorues të ndryshëm mund të kenë nevojë për nivele të ndryshme informacioni dhe intuite nga AI për të qenë të dobishëm. Kjo çon në vlerësimin e XAI. Nga pikëpamja sociologjike, si vlerësohet cilësia e një shpjegimi? Luca Longo tregon se si është përshtatur ky problem si zhvillimi i teknikave të vlerësimit nga fusha e vizualizimit të të dhënave. Ai përdor në mënyrë specifike diagramet e montimit të IKEA-s si shembull pasi ato janë menduar të jenë të interpretueshme nga të gjithë "shpjeguesit", jo vetëm nga një individ.

Nga ana e të dhënave, problemi është cilësia dhe paragjykimi i ngulitur në të. Siç e kemi përmendur më parë me teknologji si mjeti i rekrutimit të Amazon, paragjykimet e të dhënave mund të futen përmes burimeve të ndryshme. Kjo mund të çojë në rezultate dhe shpjegime të pasakta ose jo të plota me XAI.

Përveç sfidave teknike, ka çështje të tjera që duhen marrë parasysh gjatë aplikimit të metodave XAI në fusha të ndryshme; disa prej të cilave mund të kenë implikime të rëndësishme ligjore. Për shembull, nuk është ende e qartë nëse shpjegueshmëria, në kontekste të caktuara, në lidhje me një model mund të përdoret për të nxjerrë informacione rreth individëve. Teknikat janë përdorur në forma të ndryshme të IT-Security, ku të dhënat e ndjeshme të anonimizuara ose pjesërisht të lëshuara analizohen për të fituar inteligjencë rreth personave të përfshirë. [12] Sulme të ngjashme tashmë janë propozuar dhe ekzekutuar kundër modeleve të mësimit të makinerive. [13] Përveç kësaj, ekzistojnë sfida të tjera ligjore si e drejta për t'u harruar. [14]

Ka një problem privatësie. Metodat XAI mund të përdoren për të rindërtuar informacionin personal për individët nga pikat në dukje të sigurta të të dhënave. Për shembull, edhe nëse informacioni nuk shprehet në mënyrë eksplicite, një model XAI mund të përdorë historinë e kërkimit të një individi për të nxjerrë përfundimin e orientimit të tyre seksual ose bindjeve politike. Këtu bëhet e rëndësishme e drejta për t'u harruar.

E drejta për t'u harruar, për sa i përket individit, është një koncept ligjor që u lejon individëve të kërkojnë heqjen e informacionit të tyre personal nga bazat e të dhënave publike, motorët e kërkimit ose platforma të tjera online. Konsiderohet si një masë e rëndësishme për mbrojtjen e privatësisë për individët. Ndërsa "fshirja e të dhënave" mund të duket të jetë një temë e drejtpërdrejtë nga këndvështrimi i shumë rregullatorëve, kjo çështje në dukje e thjeshtë paraqet shumë probleme praktike në mjediset aktuale të ML. Në fakt, kërkesat e "fshirjes së të dhënave" mund të konsiderohen si kufij në kufijtë e pamundësisë.

Rezultatet e sistemeve të AI mund të përmbajnë informacione personale që është e vështirë ose pothuajse e pamundur për t'u hequr. Për shembull, një model që parashikon rrezikun e një individi për të zhvilluar një sëmundje të caktuar mund të përdorë të dhëna personale shëndetësore që individi dëshiron t'i mbajë private. Nëse individi kërkon që të dhënat e tij të hiqen nga modeli, mund të jetë e vështirë ose e pamundur për ta bërë këtë pa ritrajnuar të gjithë modelin. Kjo mund të jetë e kushtueshme dhe kërkon kohë. XAI i shton kompleksitetin kësaj çështjeje siç shihet në një studim ku pjesëmarrësit në grupet e të dhënave të ML mund të kenë pranuar të përfshihen me supozimin e anonimitetit. Vitet e fundit janë shfaqur disa metoda që kanë rezultuar të afta për të de-anonimizuar informacionin personal të identifikueshëm. Studiuesit nga Universiteti Kombëtar i Singaporit kanë arritur në përfundimin se "sa më e shpjegueshme të bëhet AI, aq më e lehtë do të bëhet anashkalimi i veçorive jetike të privatësisë në sistemet e mësimit të makinerive". [14, 22] Ata zbuluan gjithashtu se është e mundur të përdoren shpjegime të modeleve të ngjashme për të 'deshifruar' të dhënat e ndjeshme në modelet e tyre përkatëse të pashpjegueshme.

3.6 TEKNIKA DHE METODAT AKTUALE

3.6.1 Cik

Cyc (/'saɪk'/) është një sistem përfaqësimi i njohurive që synon të ofrojë njohuri me sens të përbashkët për sistemet e inteligjencës artificiale. Ai përbëhet nga një bazë të dhënash e madhe e njohurive të përgjithshme dhe rregullave që lejojnë AI të arsyetojë për botën në një mënyrë më të ngjashme me njeriun.

Një nga avantazhet kryesore të Cyc është transparenca e tij. Për shkak se Cyc bazohet në njohuri dhe rregulla të përcaktuara në mënyrë eksplicite, është e mundur të gjurmohet procesi i arsyetimit të një sistemi AI që bazohet në Cyc. Kjo e bën më të lehtë për të kuptuar se si sistemi i AI arriti në vendimet e tij dhe për të identifikuar çdo gabim ose paragjykim në arsyetimin e tij.

Megjithatë, një nga kufizimet e Cyc është se ai kërkon një sasi të konsiderueshme përpjekjesh manuale për të ruajtur dhe përditësuar bazën e tij të njohurive. Kjo do të thotë se mund të mos jetë i shkallëzueshëm në domene të mëdha dhe komplekse. Për më tepër, Cyc mund të mos kap kompleksitetin dhe nuancën e plotë të situatave të botës reale, gjë që mund të kufizojë dobinë e tij në aplikacione të caktuara. [15]

3.6.2 Mendje e thellë

DeepMind i Google ka zhvilluar disa algoritme që përdoren për aplikacionet e mësimit të makinerive. Megjithatë, këto algoritme janë kritikuar për mungesën e transparencës së tyre.

Për të adresuar këto shqetësime, DeepMind ka zhvilluar disa mjete dhe teknika për të rritur transparencën në algoritmet e saj. DeepLift është një algoritëm që mund të përdoret për t'i atribuar rëndësinë e veçorive të hyrjes në daljen e një rrjeti nervor. Ata kanë zhvilluar gjithashtu një "ndërfaqe shpjeguese"; një paraqitje grafike e procesit të vendimmarrjes. Ai i lejon përdoruesit të kuptojnë se si një algoritëm mori një vendim të caktuar. Kjo mund të jetë e dobishme në identifikimin e gabimeve ose paragjykimeve. [16]

3.6.3 GAN

Rrjetet Generative Adversarial (GAN) përdoren gjerësisht në detyrat e gjenerimit të imazheve dhe videove. Sidoqoftë, funksionet e brendshme të GAN-ve janë shpesh kuti të zeza, gjë që e bën të vështirë të kuptosh se si ata arrijnë në rezultatet e tyre. Për të adresuar këtë sfidë, studiuesit kanë propozuar disa teknika për rritjen e transparencës së GAN-ve.

Një qasje është përdorimi i metodave të atribuimit për të identifikuar tiparet hyrëse që janë më të rëndësishme për gjenerimin e rezultatit. Metodat e atribuimit të tilla si Harta e aktivizimit të klasës me peshë gradienti (Grad-CAM) dhe Gradientët e integruar mund të përdoren për të bërë harta të nxehtësisë dhe për të theksuar rajonet e imazhit të hyrjes që kontribuojnë më shumë në daljen e gjeneruar nga GAN. [17]

Përveç kësaj, studiuesit kanë propozuar gjithashtu përdorimin e sulmeve kundërshtare për të vlerësuar transparencën e GAN-ve. Sulmet kundërshtare përfshijnë shqetësimin e qëllimshëm – duke shtuar shqetësime – hyrjen në një rrjet nervor për të gjeneruar një dalje që është e ndryshme nga dalja e pritur. Duke vlerësuar se sa mirë një GAN mund t'i rezistojë këtyre sulmeve, studiuesit mund të fitojnë njohuri për qëndrueshmërinë dhe transparencën e rrjetit. [18]

Në përgjithësi, këto teknika për rritjen e transparencës së GAN-ve mund t'i ndihmojnë studiuesit të kuptojnë dhe përmirësojnë më mirë performancën e këtyre modeleve duke identifikuar paragjykimet dhe kufizimet e mundshme në rrjet.

3.6.4 METODAT MODEL-AGNOSTIC

Jashtë teknikave dhe teknologjive specifike, disa metoda të rëndësishme të interpretueshmërisë agnostike model mund të ndihmojnë në interpretimin e rezultateve të modeleve AI dhe ML.

Komplotet e varësisë së pjesshme (PDP), e prezantuar nga Leo Breiman dhe Adele Cutler në 1994, është një metodë globale që është një lloj mjeti shpjegimi vizual që përdoret për të kuptuar marrëdhënien midis një veçorie dhe një ndryshoreje objektive. Ato tregojnë se si rezultati i parashikuar i modelit ndryshon ndërsa vlera e një veçorie të vetme ndryshon. PDP është intuitiv, por nuk merr parasysh efektet heterogjene - efekti i një variabli në një rezultat mund të jetë i ndryshëm për grupe të ndryshme. Pritshmëria Individuale e Sjelljes (ICE) e zgjidh këtë problem. ICE është një metodë lokale që siguron efektin e ndryshimit të një veçorie në model për çdo shembull ku PDP është efekti mesatar. [19]

Shpjegimet agnostike të modelit lokal të interpretueshëm (LIME) funksionojnë duke përafruar modelin origjinal me një model të interpretueshëm. Ai krijon shqetësime dhe trajnon modele të interpretueshme mbi to. LIME përpiqet të kuptojë se si ndryshojnë parashikimet kur variacionet u shtohen të dhënave. Për shembull, aplikimi i LIME në një klasifikues imazhi do të ndante një imazh në komponentë dhe peshat më të larta pozitive të caktuara për pjesët paraqiten si shpjegim. [19]

Shpjegimet shtese me forma (SHAP) bazohen në teorinë e lojës. Një parashikim mund të shpjegohet duke supozuar se çdo veçori ose vlerë SHAP e një shembulli është një "lojtar". Çdo vlerë SHAP vlerësohet duke shtuar dhe hequr lojtarin nga nëngrupet me lojtarët e tjerë, gjë që çon në një interpretim të plotë. [19]

Ekzistojnë tre konsiderata të rëndësishme kur vendosni se cilën metodë të përdorni. E para është se sa nga modeli duhet të kuptoni. Kjo do të ndihmojë në përcaktimin nëse duhet përdorur një metodë globale apo lokale. Së dyti, nëse ka një kufizim kohor, një metodë si SHAP është jashtëzakonisht komplekse dhe shteruese dhe mund të mos jetë e përshtatshme. Së fundi, njohja e përvojës së përdoruesit mund të ndihmojë në vendosjen nëse përgjigjet më të sofistikuara apo të thjeshta janë të përshtatshme.

3.6.5 VLERËSIMI I MODELIT

Ndërsa teknikat e interpretimit të modelit mund të tregojnë se si funksionojnë modelet e mësimit të makinerive, vlerësimi i interpretueshmërisë së tyre është gjithashtu i rëndësishëm. Vlerësimi i modelit mund të ndihmojë në përcaktimin nëse rezultatet e një modeli janë të besueshme, të sakta dhe të kuptueshme. Ekzistojnë tri kategori kryesore të teknikave të vlerësimit të modelit: vlerësimi i bazuar në aplikim, vlerësimi me bazë njeriun dhe vlerësimi i bazuar në funksionalitet.

Vlerësimi i bazuar në aplikim përfshin vlerësimin e performancës së një modeli në detyra specifike dhe të kuptuarit se si rezultatet e tij lidhen me aplikacionin e botës reale. Kjo qasje mund të ndihmojë në identifikimin e paragjykimeve ose kufizimeve të mundshme në model dhe të sugjerojë përmirësime për përsëritjet e ardhshme. Për të kryer vlerësimin e bazuar në aplikim, studiuesit zakonisht përcaktojnë një grup detyrash ose aplikacionesh që modeli synon të zgjidhë. Më pas ata vlerësojnë performancën e modelit në këto detyra duke përdorur metrikë standarde si saktësia, saktësia, rikujtimi dhe rezultati F1. Duke analizuar performancën e modelit në këto detyra, studiuesit mund të fitojnë njohuri mbi pikat e forta dhe të dobëta të tij, duke identifikuar fushat për përmirësim. Një avantazh kryesor i vlerësimit të bazuar në aplikacion është se ai ofron një mënyrë të qartë dhe praktike për të vlerësuar dobinë e një modeli të mësimit të makinerive. Duke u fokusuar në aplikacionet e botës reale, kjo qasje ndihmon për të siguruar që modeli po zgjidh një problem funksional dhe se rezultatet e tij janë relevante dhe kuptimplota. Megjithatë, ka edhe disa kufizime. Për shembull, kjo qasje mund të kap vetëm ndonjëherë kompleksitetin e plotë të situatave të botës reale. Kjo mund të kufizojë dobinë e tij në aplikacione specifike. Për më tepër, mund të jetë e vështirë të përcaktohet një grup detyrash që kapin plotësisht shtrirjen e aftësive të një modeli të mësimit të makinës. [19]

Vlerësimi i bazuar në njerëz përfshin përdorimin e ekspertëve njerëzorë për të vlerësuar interpretueshmërinë e një modeli. Ky lloj vlerësimi është veçanërisht i dobishëm kur interpretueshmëria e një modeli është e rëndësishme për vendimmarrje, si për shembull në diagnozën mjekësore ose vendimet e punësimit. Ai mund të marrë forma të ndryshme në varësi të problemit specifik që trajtohet. Një qasje është që ekspertët e fushës të rishikojnë rezultatet e modelit dhe të japin komente mbi interpretueshmërinë e tij. Ky reagim mund të përdoret për të përmirësuar transparencën e tij dhe për të ndihmuar ekspertët të kuptojnë se si po bën parashikimet e tij. Një qasje tjetër është kryerja e eksperimenteve për të testuar se sa mirë njerëzit mund të kuptojnë dhe përdorin rezultatet e modelit. Për shembull, studiuesit mund t'u kërkojnë pjesëmarrësve të studimit të marrin vendime bazuar në parashikimet e modelit dhe të krahasojnë vendimet e tyre me ato të marra duke përdorur burime të tjera informacioni si njohuritë e ekspertëve ose kërkimet bazë të Google. Kjo mund të sigurojë njohuri se sa mirë përputhen rezultatet e modelit me vendimmarrjen njerëzore dhe nëse përmirësimet në interpretueshmërinë e modelit do të ishin të dobishme. [19]

Vlerësimi i bazuar funksionalisht, ndryshe nga vlerësimi me bazë aplikimi ose njeriu, fokusohet në vlerësimin e efektivitetit të një metode të interpretueshmërisë për sa i përket ndikimit të saj në performancën e përgjithshme të modelit. Ky lloj vlerësimi kërkon krahasimin e performancës së modelit origjinal pa ndonjë metodë interpretueshmërie me performancën e modelit me metodën e aplikuar të interpretueshmërisë. Efektiviteti i metodës së interpretueshmërisë matet nga shkalla në të cilën ajo përmirëson performancën e modelit, duke ruajtur ende nivelin e dëshiruar të interpretueshmërisë.

Një qasje e zakonshme për vlerësimin e bazuar funksionalisht është përdorimi i një metrike që merr parasysh performancën dhe interpretueshmërinë, siç është shkëmbimi saktësi-interpretueshmëri. Kjo qasje përfshin matjen e saktësisë së modelit dhe krahasimin e tij me nivelin e tij të interpretueshmërisë. Interpretueshmëria mund të matet duke përdorur një metrikë të tillë si numri i veçorive të përdorura në model ose kompleksiteti i modelit. [20]

Një qasje tjetër për vlerësimin e bazuar funksionalisht është përdorimi i një metode të bazuar në shqetësime, ku metoda e interpretueshmërisë vlerësohet nga shkalla në të cilën ajo ndikon në prodhimin e modelit kur një shqetësim ose shqetësim aplikohet në të dhënat hyrëse. Ndryshimi mund të jetë zhurmë e rastësishme ose heqja ose modifikimi i disa veçorive në hyrje.

Vlerësimi i bazuar funksionalisht është një aspekt i rëndësishëm i vlerësimit të metodave të interpretueshmërisë pasi ofron një pasqyrë se si mund të arrihet interpretueshmëria pa kompromentuar performancën e modelit. [19]

3.6.6 TEKNIKAT E PRIVATËSISË

Teknikat e ruajtjes së privatësisë si privatësia diferenciale, mësimi i federuar dhe kriptimi homomorfik mund të ndihmojnë në mbrojtjen e të dhënave të ndjeshme. Privatësia diferenciale është një kornizë matematikore që siguron që rezultatet e një analize ose modeli të mos zbulojnë asgjë në lidhje me pikat individuale të të dhënave që janë përdorur për ta krijuar atë. Ai funksionon duke shtuar zhurmë të rastësishme në të dhënat përpara se ato të analizohen, gjë që e bën më të vështirë për një sulmues të identifikojë informacionin e ndonjë individi të caktuar. [14]

Mësimi i federuar filloi si një mënyrë për të ndihmuar përdoruesit e Android të zgjidhin problemin e përditësimit të modeleve të tyre në nivel lokal. Mund të aplikohet në fusha të ndryshme të mësimit të makinerive. Fokusi u kthye në problemin e të mësuarit të parametrave të modelit kur të dhënat shpërndahen nëpër nyje të shumta pa pasur nevojë të dërgohen të dhëna të papërpunuara në një nyje qendrore. Mësimi i federuar është përdorur në sistemin Gboard të Google për të parashikuar hyrjen e tastierës për të mbrojtur privatësinë. Është gjithashtu shumë i dobishëm në fushën mjekësore pasi të dhënat mjekësore të pacientëve janë të ndjeshme.

Kriptimi homomorfik është bërë zakonisht i përdorur me ML të shpërndarë pasi u mundëson palëve të shpërndara të llogaritin së bashku një funksionalitet arbitrar pa zbuluar hyrjet dhe daljet e tyre private. Duke i përfshirë këto teknika në modelet e XAI-t, privatësia mund të mbrohet duke lejuar ende krijimin e modeleve dhe njohurive të fuqishme. [21]

4 PËRFUNDIM

Në këtë punim, ne kemi diskutuar rëndësinë e transparencës në AI dhe kemi eksploruar teknika të ndryshme për interpretimin e sistemeve të AI dhe modeleve të ML. Modelet e interpretueshme dhe të shpjegueshme janë thelbësore për ndërtimin e besimit, zbulimin e paragjykimeve dhe sigurimin e përdorimit etik të AI.

Shpresa është që sistemet e ardhshme të AI të dizajnohen me saktësi dhe shpjegueshmëri të lartë në mendje. Të gjitha fazat nga mbledhja e të dhënave deri te zhvillimi i algoritmit duhet të kenë një farë shkalle transparence në varësi të rëndësisë së mjetit në mjedisin e tij. Mjetet, të tilla si ChatGPT, mund të jenë të dobishme për të futur dhe ofruar shpjegime të gjuhës natyrore shumë të interpretueshme për ata të çdo ekspertize. Për të siguruar që shpjegimet janë relevante, është gjithashtu e rëndësishme të përcaktohet fusha e shpjegimeve dhe të përfshihen njerëzit në lak. Hulumtimi për gjenerimin e shpjegimeve duhet gjithashtu të hetojë se si ato ndikojnë dhe ndikojnë në të kuptuarit dhe veprimet e njerëzve.

Shpresojmë që gjetjet e këtij studimi do të ndihmojnë në kuptimin e mëtejshëm të rolit të XAI-t në sigurimin e përdorimit të përgjegjshëm dhe etik të AI.

REFERENCAT

[1] "Raporti i analizës së madhësisë dhe ndarjes së tregut të inteligjencës artificiale 2030." https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-ai-market (qasur më 2 mars 2023).

[2] "Inteligjencë artificiale e shpjegueshme". https://www.darpa.mil/program/explainable-artificial-intelligence (qasur më 02 mars 2023).

[3] J. Greene, F. Rossi, J. Tasioulas, K. Venable dhe B. Williams, "Përfshirja e parimeve etike në sistemet e mbështetjes së vendimeve kolektive", Proceset e Konferencës AAAI mbi Inteligjencën Artificiale , vëll. 30, nr. 1, Art. nr. 1, mars 2016, doi: 10.1609/aaai.v30i1.9804. (qasur më 02 mars 2023).

[4] M. Vasconcelos, C. Cardonha dhe B. Gonçalves, "Modelimi i parimeve epistemologjike për zbutjen e paragjykimeve në sistemet e AI: Një ilustrim në vendimet e punësimit", në Proceedings of 2018 AAAI/ACM Conference on AI, Ethics , dhe Society, dhjetor 2018, f. 323–329. doi: 10.1145/3278721.3278751. (qasur më 02 mars 2023).

[5] K. A. Houser, “A mundet AI të zgjidhë problemin e diversitetit në industrinë e teknologjisë? Zbutja e zhurmës dhe paragjykimeve në vendimmarrjen e punësimit,” 2019. (qasur më 02 mars 2023).

[6] D. Kahneman dhe A. Tversky, “On the Psychology of Prediction”, Psychological Review, vëll. 80, nr. 4, f. 237–251, 1973, doi: 10.1037/h0034747. (qasur më 02 mars 2023).

[7] "Algoritmi seksist i punësimit i Amazonës mund të jetë akoma më i mirë se një njeri," 19 gusht 2022. https://www.imd.org/research-knowledge/articles/amazons-sexist-hiring-algorithm-could- ende-be-better-than-a-human/ (qasur më 02 mars 2023).

[8] A. J. Larrazabal, N. Nieto, V. Peterson, D. H. Milone dhe E. Ferrante, "Mosbalancimi gjinor në grupet e të dhënave të imazheve mjekësore prodhon klasifikues të njëanshëm për diagnozën me ndihmën e kompjuterit," Proceedings of the National Academy of Sciences, vëll. 117, nr. 23, fq. 12592–12594, qershor 2020, doi: 10.1073/pnas.1919012117. (qasur më 02 mars 2023).

[9] “Pabarazitë e mësimit të makinerisë dhe kujdesit shëndetësor në dermatologji | Dermatologji | JAMA Dermatologji | Rrjeti JAMA.” https://jamanetwork.com/journals/jamadermatology/article-abstract/2688587 (qasur më 02 mars 2023).

[10] "Tweet / Twitter", Twitter. https://twitter.com/tamaleaver/status/1307466077861896193 (qasur më 02 mars 2023).

[11] "Të kapërcyer paradoksin e transparencës së AI." https://www.forbes.com/sites/aparnadhinakaran/2021/09/10/overcoming-ais-transparency-paradox/?sh=3cd840204b77 (qasur më 02 mars 2023).

[12] L. Longo, R. Goebel, F. Lecue, P. Kieseberg dhe A. Holzinger, "Inteligjenca Artificiale e Shpjegueshme: Konceptet, Aplikacionet, Sfidat e Kërkimit dhe Vizionet", në Mësimi makinerik dhe Nxjerrja e njohurive, Çam, 2020, fq. 1–16. doi: 10.1007/978–3–030–57321–8_1.

[13] L. Rizzo, L. Majnaric dhe L. Longo, "Një Studim Krahasues i Argumentimit të Zhdukshëm dhe Arsyetimit Fuzzi Jo-monotonik për Parashikimin e Mbijetesës së të Moshuarve duke përdorur Biomarkerët", në AI*IA 2018 — Përparimet në inteligjencën artificiale , Çam, 2018, fq 197–209. doi: 10.1007/978–3–030–03840–3_15. (qasur më 02 mars 2023).

[14] E. F. Villaronga, P. Kieseberg dhe T. Li, "Njerëzit harrojnë, makinat kujtojnë: Inteligjenca artificiale dhe e drejta për t'u harruar", Rishikimi i ligjit dhe sigurisë kompjuterike, vëll. 34, nr. 2, fq. 304–313, prill 2018, doi: 10.1016/j.clsr.2017.08.007. (qasur më 02 mars 2023).

[15] Cik. Cycorp. [Online] E disponueshme: https://www.cyc.com/wp-content/uploads/2019/09/Cyc-Technology-Overview.pdf (qasur më 03 mars 2023).

[16] M. D. Zeiler dhe R. Fergus, "Vizualizimi dhe Kuptimi i Rrjeteve Konvolutional," në Computer Vision — ECCV 2014, vëll. 8689, D. Fleet, T. Pajdla, B. Schiele dhe T. Tuytelaars, Eds. Çam: Springer International Publishing, 2014, fq 818–833. doi: 10.1007/978–3–319–10590–1_53. (qasur më 04 mars 2023).

[17] S.-M. Shih, P.-J. Tien, dhe Z. Karnin, "GANMEX: Atributet Një-Vs-Një duke përdorur Shpjegueshmërinë e Modelit të bazuar në GAN", në Proceset e Konferencës së 38-të Ndërkombëtare mbi Mësimin e Makinerisë, korrik 2021, f. 9592– 9602. Arritur: 02 Mars 2023. [Online]. Në dispozicion: https://proceedings.mlr.press/v139/shih21a.html (qasur më 04 mars 2023).

[18] "Eksplorimi i rrjeteve gjeneruese kundërshtare dhe trajnimi i kundërshtarëve - ScienceDirect." https://www.sciencedirect.com/science/article/pii/S2666307422000080 (qasur më 02 mars 2023).

[19] F. Doshi-Velez dhe B. Kim, "Drejt një Shkence rigoroze të të mësuarit të makinerive të interpretueshme". arXiv, 02 mars 2017. Qasur: 04 mars 2023. [Online]. Në dispozicion: http://arxiv.org/abs/1702.08608

[20] G. Myrianthous, "Understanding The Accuracy-Interpretability Trade-off," Medium, 06 tetor 2021. https://towardsdatascience.com/accuracy-interpretability-trade-off- 8d055ed2e445 (qasur më 04 mars 2023).

[21] H. Fang dhe Q. Qian, “Mësimi i makinerisë për ruajtjen e privatësisë me kriptim homomorfik dhe mësim të federuar”, Interneti i ardhshëm, vëll. 13, nr. 4, Art. nr. 4, prill 2021, doi: 10.3390/fi13040094.

[22] "Inteligjenca artificiale e shpjegueshme mund t'i dorëzojë të dhënat konfidenciale më lehtë - Unite.AI." https://www.unite.ai/explainable-ai-may-surrender-confidential-data-more-easily/ (qasur më 08 mars 2023).