Udhëzuesi i ISC ofron një kornizë gjithëpërfshirëse të krijuar për të kapërcyer hendekun midis parimeve të nivelit të lartë dhe politikës praktike dhe vepruese. Ai i përgjigjet nevojës urgjente për një kuptim të përbashkët të mundësive dhe rreziqeve të paraqitura nga teknologjitë në zhvillim. Ky është një dokument thelbësor për ata që punojnë në lidhjen e politikave në epokën tonë dixhitale që ndryshon me shpejtësi.
Korniza eksploron potencialin e AI dhe derivateve të saj përmes një lente gjithëpërfshirëse, duke përfshirë mirëqenien njerëzore dhe shoqërore së bashku me faktorë të jashtëm si ekonomia, politika, mjedisi dhe siguria. Disa aspekte të listës së kontrollit mund të jenë më të rëndësishme se të tjerat, në varësi të kontekstit, por vendimet më të mira duken më të mundshme nëse merren parasysh të gjitha fushat, edhe nëse disa mund të identifikohen shpejt si të parëndësishme në raste të veçanta. Kjo është vlera e qenësishme e qasjes së listës së kontrollit.
“Në një epokë të shënuar nga inovacione të shpejta teknologjike dhe sfida komplekse globale, korniza e ISC për analizën gjithëpërfshirëse dhe shumëdimensionale të ndikimeve të mundshme i fuqizon liderët të marrin vendime të informuara dhe të përgjegjshme. Ai siguron që ndërsa përparojmë teknologjikisht, ne e bëjmë këtë duke marrë parasysh me kujdes implikimet etike, sociale dhe ekonomike”.
Peter Gluckman, President i ISC-së
Ndërsa parimet e nivelit të lartë janë shpallur nga UNESCO, OECD, Komisioni Evropian dhe OKB, ndër të tjera, dhe diskutimet e ndryshme vazhdojnë në lidhje me çështjet e qeverisjes, rregullimit, etikës dhe sigurisë së mundshme, ekziston një hendek i madh midis parimeve të tilla dhe një qeverisjes apo kornizës rregullative. ISC e adreson këtë nevojë përmes udhëzuesit të ri për politikëbërësit.
Ky udhëzues për politikëbërësit nuk synon të ndalojë një regjim rregullator, por më tepër të sugjerojë një kornizë analitike adaptive dhe në zhvillim, e cila mund të mbështesë çdo proces vlerësimi dhe rregullator që mund të zhvillohet nga palët e interesuara, duke përfshirë qeveritë dhe sistemin shumëpalësh.
“Kuadri është një hap kritik në bisedën globale mbi AI pasi ofron një bazë nga e cila ne mund të ndërtojmë konsensus mbi implikimet e teknologjisë për tani dhe në të ardhmen”.
Hema Sridhar, Ish-Këshilltar Kryesor i Shkencës, Ministria e Mbrojtjes, Zelanda e Re dhe tani Kërkimor i Lartë Fellow, Universiteti i Aucklandit, Zelanda e Re.
Që nga tetori 2023, ka pasur disa nisma të rëndësishme kombëtare dhe shumëpalëshe me konsideratë të mëtejshme të etikës dhe sigurisë së AI. Implikimet e AI në integritetin e disa prej sistemeve tona kritike, përfshirë ato financiare, qeveritare, ligjore dhe arsimore, si dhe sisteme të ndryshme njohurish (përfshirë njohuritë shkencore dhe vendase), janë një shqetësim në rritje. Korniza pasqyron më tej këto aspekte.
Komentet e marra nga anëtarët e ISC-së dhe komuniteti ndërkombëtar politikbërës deri më sot janë pasqyruar në versionin e rishikuar të kornizës analitike, i cili tani është publikuar si një udhëzues për politikëbërësit.
Një udhëzues për politikëbërësit: Vlerësimi i teknologjive që zhvillohen me shpejtësi duke përfshirë AI, modelet e mëdha të gjuhës dhe më gjerë
Ky dokument diskutimi ofron skicën e një kuadri fillestar për të informuar diskutimet e shumta globale dhe kombëtare që po zhvillohen në lidhje me AI.
Shkarkoni kornizën për përdorim në organizatën tuaj
Këtu ne ofrojmë mjetin kornizë si një fletë Excel e modifikueshme për përdorim në organizatën tuaj. Nëse preferoni një format me burim të hapur, ju lutemi kontaktoni [email mbrojtur].
Prezantimi
Teknologjitë me zhvillim të shpejtë paraqesin çështje sfiduese kur bëhet fjalë për përdorimin e tyre, qeverisjen dhe rregullimin e mundshëm. Politikat e vazhdueshme dhe debatet publike mbi inteligjencën artificiale (AI) dhe përdorimin e saj i kanë sjellë këto çështje në fokus të mprehtë. Parime të gjera për AI janë shpallur nga UNESCO, OECD, OKB dhe të tjerë, duke përfshirë Deklaratën Bletchley të Mbretërisë së Bashkuar, dhe ka përpjekje juridiksionale në zhvillim për rregullimin e aspekteve të teknologjisë përmes, për shembull, AI të Bashkimit Evropian (BE). Akti ose Urdhri i fundit Ekzekutiv i UA të Shteteve të Bashkuara.
Ndërsa përdorimi i AI diskutohet gjerësisht në këto dhe në forume të tjera, në të gjithë ndarjet gjeopolitike dhe në vendet në të gjitha nivelet e të ardhurave, mbetet një hendek ontologjik midis zhvillimit të parimeve të nivelit të lartë dhe përfshirjes së tyre në praktikë nëpërmjet rregulloreve, politikave dhe qeverisjes. ose qasjet e kujdestarisë. Rruga nga parimi në praktikë është e përcaktuar dobët, por duke pasur parasysh natyrën dhe kadencën e zhvillimit dhe aplikimit të AI, shumëllojshmërinë e interesit të përfshirë dhe gamën e aplikacioneve të mundshme, çdo qasje nuk mund të jetë tepër e përgjithshme ose urdhëruese.
Për këto arsye, komuniteti shkencor joqeveritar vazhdon të luajë një rol të veçantë. Këshilli Ndërkombëtar i Shkencës (ISC) – me anëtarësimin e tij pluralist nga shkencat sociale dhe natyrore – publikoi një dokument diskutimi në tetor 2023 duke paraqitur një kornizë paraprake analitike që merrte në konsideratë rreziqet, përfitimet, kërcënimet dhe mundësitë që lidhen me teknologjinë dixhitale që lëviz me shpejtësi. Ndërsa është zhvilluar për të marrë në konsideratë AI, ajo është në thelb teknologji agnostike dhe mund të aplikohet në një sërë teknologjish në zhvillim dhe shkatërruese, të tilla si biologjia sintetike dhe kuantike. Ai dokument diskutimi ftoi reagime nga akademikët dhe politikëbërësit. Reagimet dërrmuese e bënë të nevojshme kryerjen e një analize të tillë dhe qëndronte si një qasje e vlefshme për të adresuar teknologjitë në zhvillim si AI.
Qëllimi i kornizës është të sigurojë një mjet për të informuar të gjithë palët e interesuara – duke përfshirë qeveritë, negociatorët tregtarë, rregullatorët, shoqërinë civile dhe industrinë – për evolucionin e këtyre teknologjive për t'i ndihmuar ata të përcaktojnë se si mund të konsiderojnë implikimet, pozitive ose negative, të vetë teknologjia, dhe më konkretisht aplikimi i saj i veçantë. Ky kuadër analitik është zhvilluar i pavarur nga interesat e qeverisë dhe industrisë. Ajo është maksimalisht pluraliste në perspektivat e saj, duke përfshirë të gjitha aspektet e teknologjisë dhe implikimet e saj bazuar në konsultime dhe reagime të gjera.
Ky dokument diskutimi për politikëbërësit nuk synon të ndalojë një regjim rregullator, por më tepër të sugjerojë një kornizë analitike adaptive dhe në zhvillim, e cila mund të mbështesë çdo proces vlerësimi dhe rregullator që mund të zhvillohet nga palët e interesuara, duke përfshirë qeveritë dhe sistemin shumëpalësh.
Ndërsa vendimmarrësit në nivel global dhe kombëtar konsiderojnë parametrat dhe levat e duhura të politikave për të balancuar rreziqet dhe përfitimet e një teknologjie të re siç është AI, kuadri analitik synohet si një mjet plotësues për të siguruar që grupi i plotë i implikimeve të mundshme të pasqyrohen në mënyrë adekuate.
Sfondi: pse një kornizë analitike?
Shfaqja e shpejtë e teknologjive me kompleksitetin dhe implikimet e AI po nxit shumë pretendime me përfitim të madh. Megjithatë, ajo provokon edhe frikën e rreziqeve të konsiderueshme, nga niveli individual në atë gjeostrategjik.1 Pjesa më e madhe e diskutimit deri më sot është konsideruar në një kuptim binar pasi pikëpamjet e shprehura publikisht priren të zhvillohen në skajet ekstreme të spektrit. Pretendimet e bëra për ose kundër AI janë shpesh hiperbolike dhe - duke pasur parasysh natyrën e teknologjisë - të vështira për t'u vlerësuar.
Një qasje më pragmatike është e nevojshme ku hiperbola zëvendësohet me vlerësime të kalibruara dhe më të grimcuara. Teknologjia e AI do të vazhdojë të evoluojë dhe historia tregon se pothuajse çdo teknologji ka përdorime të dobishme dhe të dëmshme. Prandaj pyetja është: si mund të arrijmë rezultate të dobishme nga kjo teknologji, duke reduktuar rrezikun e pasojave të dëmshme, disa prej të cilave mund të jenë ekzistenciale në përmasa?
E ardhmja është gjithmonë e pasigurt, por ka zëra të mjaftueshëm të besueshëm dhe ekspertë në lidhje me AI dhe AI gjeneruese për të inkurajuar një qasje relativisht paraprake. Për më tepër, një qasje sistemore është e nevojshme pasi AI është një klasë teknologjish me përdorim dhe aplikim të gjerë nga lloje të shumta përdoruesish. Kjo do të thotë se konteksti i plotë duhet të merret parasysh kur merren parasysh implikimet e çdo përdorimi të AI për individët, jetën shoqërore, jetën qytetare, jetën shoqërore dhe në kontekstin global.
Ndryshe nga shumica e teknologjive të tjera, për teknologjitë dixhitale dhe ato të ngjashme, koha midis zhvillimit, lëshimit dhe aplikimit është jashtëzakonisht e shkurtër, kryesisht e drejtuar nga interesat e kompanive ose agjencive të prodhimit. Nga vetë natyra e saj – dhe duke qenë se bazohet në shtyllën kurrizore dixhitale – AI do të ketë aplikacione që përhapen me shpejtësi, siç është parë tashmë me zhvillimin e modeleve të mëdha gjuhësore. Si rezultat, disa veti mund të bëhen të dukshme vetëm pas lëshimit, që do të thotë se ekziston rreziku i pasojave të paparashikuara, si keqdashëse ashtu edhe dashamirëse.
Dimensionet e rëndësishme të vlerave shoqërore, veçanërisht në rajone dhe kultura të ndryshme, do të ndikojnë në mënyrën se si çdo përdorim perceptohet dhe pranohet. Për më tepër, interesat gjeostrategjike tashmë janë duke dominuar diskutimin, me interesa sovrane dhe shumëpalëshe që kryqëzohen vazhdimisht dhe si rrjedhim nxisin konkurrencën dhe ndarjen.
Deri më sot, pjesa më e madhe e rregullimit të një teknologjie virtuale është parë kryesisht përmes lenteve të 'parimeve' dhe pajtueshmërisë vullnetare, megjithëse me Aktin e BE-së për AI2 dhe të ngjashme, ne po shohim një zhvendosje drejt rregulloreve më të zbatueshme, por disi të ngushta. Krijimi i një qeverisjeje dhe/ose sistemi rregullator efektiv global ose kombëtar të teknologjisë mbetet sfiduese dhe nuk ka asnjë zgjidhje të dukshme. Shtresa të shumta të vendimmarrjes të informuar për rrezikun do të nevojiten përgjatë zinxhirit, nga shpikësi te prodhuesi, te përdoruesi, te qeveria dhe te sistemi shumëpalësh.
Ndërsa parimet e nivelit të lartë janë shpallur nga UNESCO, OECD, Komisioni Evropian dhe OKB, ndër të tjera, dhe diskutime të ndryshme të nivelit të lartë vazhdojnë në lidhje me çështjet e qeverisjes, rregullimit, etikës dhe sigurisë së mundshme, ekziston një hendek i madh midis këtyre parimet dhe një kuadër qeverisës ose rregullator. Kjo duhet trajtuar.
Si pikënisje, ISC konsideron zhvillimin e një taksonomie të konsideratave që mund t'i referohet çdo zhvillues, rregullator, këshilltar politikash, konsumator ose vendimmarrës. Duke pasur parasysh implikimet e gjera të këtyre teknologjive, një taksonomi e tillë duhet të marrë parasysh tërësinë e implikimeve dhe jo një kornizë të fokusuar ngushtë. Fragmentimi global po rritet për shkak të ndikimit të interesave gjeostrategjike në vendimmarrje dhe duke pasur parasysh urgjencën e kësaj teknologjie, është thelbësore që zërat e pavarur dhe neutralë të mbrojnë me këmbëngulje një qasje të unifikuar dhe gjithëpërfshirëse.
1) Hindustan Times. 2023. G20 duhet të krijojë një panel ndërkombëtar për ndryshimet teknologjike.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Akti i BE-së për Inteligjencën Artificiale. 2023. https://artificialintelligenceact.eu
Zhvillimi i një kuadri analitik
ISC është organizata kryesore joqeveritare globale që integron shkencat natyrore dhe sociale. Shtrirja e tij globale dhe disiplinore do të thotë se është e vendosur mirë për të gjeneruar këshilla të pavarura dhe globalisht të rëndësishme për të informuar zgjedhjet komplekse përpara, veçanërisht pasi zërat aktualë në këtë arenë janë kryesisht nga industria ose nga politikat dhe komunitetet politike të fuqive të mëdha teknologjike.
Pas një periudhe diskutimi të gjerë, i cili përfshinte shqyrtimin e një procesi vlerësimi joqeveritar, ISC arriti në përfundimin se kontributi i tij më i dobishëm do të ishte krijimi i një kuadri analitik adaptiv që mund të përdoret si bazë për diskursin dhe vendimmarrjen nga të gjithë. palët e interesuara, duke përfshirë çdo proces vlerësimi formal që shfaqet.
Kuadri paraprak analitik, i cili u lëshua për diskutim dhe reagime në tetor 2023, mori formën e një liste kontrolli gjithëpërfshirëse të krijuar për t'u përdorur si nga institucionet qeveritare ashtu edhe nga ato joqeveritare. Korniza identifikoi dhe eksploroi potencialin e një teknologjie të tillë si AI dhe derivatet e saj përmes një lente të gjerë që përfshin mirëqenien njerëzore dhe shoqërore, si dhe faktorë të jashtëm si ekonomia, politika, mjedisi dhe siguria. Disa aspekte të listës së kontrollit mund të jenë më të rëndësishme se të tjerat, në varësi të kontekstit, por vendimet më të mira duken më të mundshme nëse merren parasysh të gjitha fushat, edhe nëse disa mund të identifikohen shpejt si të parëndësishme në raste të veçanta. Kjo është vlera e qenësishme e qasjes së listës së kontrollit.
Kuadri paraprak është nxjerrë nga puna dhe mendimi i mëparshëm, duke përfshirë raportin e Rrjetit Ndërkombëtar për Këshilla të Shkencës Qeveritare (INGSA) mbi mirëqenien dixhitale3 dhe Kornizën e OECD-së për Klasifikimin e Sistemeve të AI,4 për të paraqitur tërësinë e mundësive, rreziqeve dhe ndikimeve të mundshme. i AI. Këto produkte të mëparshme ishin më të kufizuara në qëllimin e tyre duke pasur parasysh kohën dhe kontekstin e tyre; ekziston nevoja për një kornizë gjithëpërfshirëse që paraqet gamën e plotë të çështjeve si në afat të shkurtër ashtu edhe në atë afatgjatë.
Që nga publikimi i tij, dokumenti i diskutimit ka marrë mbështetje të konsiderueshme nga shumë ekspertë dhe politikëbërës. Shumë prej tyre kanë miratuar në mënyrë specifike rekomandimin për të zhvilluar një kornizë adaptive që lejon shqyrtimin e qëllimshëm dhe proaktiv të rreziqeve dhe implikimeve të teknologjisë, dhe duke bërë këtë, gjithmonë merr parasysh tërësinë e dimensioneve nga individi në shoqëri dhe sisteme.
Një vëzhgim kryesor i bërë përmes reagimeve ishte pranimi se disa nga implikimet e konsideruara në kuadër janë në thelb të shumëanshme dhe shtrihen në kategori të shumta. Për shembull, dezinformimi mund të merret në konsideratë si nga këndvështrimi individual ashtu edhe nga ai gjeostrategjik; kështu, pasojat do të ishin të gjerë.
U sugjerua gjithashtu opsioni për të përfshirë raste studimore ose ekzemplarë për të testuar kornizën. Kjo mund të përdoret për të zhvilluar udhëzime për të demonstruar se si mund të përdoret në praktikë në kontekste të ndryshme. Megjithatë, kjo do të ishte një ndërmarrje e rëndësishme dhe mund të kufizojë mënyrën se si grupe të ndryshme e perceptojnë përdorimin e këtij kuadri. Kjo bëhet më së miri nga politikëbërësit që punojnë me ekspertë në juridiksione ose kontekste specifike.
Që nga tetori 2023, ka pasur disa nisma të rëndësishme kombëtare dhe shumëpalëshe me konsideratë të mëtejshme të etikës dhe sigurisë së AI. Implikimet e AI në integritetin e disa prej sistemeve tona kritike, përfshirë ato financiare, qeveritare, ligjore dhe arsimore, si dhe sisteme të ndryshme njohurish (përfshirë njohuritë shkencore dhe vendase), janë një shqetësim në rritje. Korniza e rishikuar pasqyron më tej këto aspekte.
Komentet e marra deri më sot janë pasqyruar në versionin e rishikuar të kuadrit analitik, i cili tani është publikuar si një udhëzues për politikëbërësit.
Ndërsa korniza paraqitet në kontekstin e AI dhe teknologjive të lidhura me të, ai është menjëherë i transferueshëm në konsideratat e teknologjive të tjera me zhvillim të shpejtë si biologjia kuantike dhe sintetike.
3) Gluckman, P. dhe Allen, K. 2018. Kuptimi i mirëqenies në kontekstin e transformimeve të shpejta dixhitale dhe të shoqëruara. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. Kuadri i OECD për Klasifikimin e sistemeve të AI. Dokumentet e OECD-së për Ekonominë Dixhitale, Nr. 323,#. Paris, Botim i OECD.
https://oecd.ai/en/classificatio
Kuadri
Tabela e mëposhtme paraqet dimensionet e një kuadri të supozuar analitik. Janë dhënë shembuj për të ilustruar pse çdo domen mund të ketë rëndësi; në kontekst, kuadri do të kërkonte një zgjerim të rëndësishëm kontekstualisht. Është gjithashtu e rëndësishme të bëhet dallimi midis çështjeve të përgjithshme që lindin gjatë zhvillimeve të platformës dhe atyre që mund të shfaqen gjatë aplikacioneve specifike. Asnjë konsideratë e vetme e përfshirë këtu nuk duhet të trajtohet si prioritet dhe, si e tillë, të gjitha duhet të shqyrtohen.
Çështjet janë grupuar gjerësisht në kategoritë e mëposhtme, siç përshkruhet më poshtë:
Tabela detajon dimensionet që mund të duhet të merren parasysh kur vlerësohet një teknologji e re.
? INGSA. 2018. Të kuptuarit e mirëqenies në kontekstin e transformimeve të shpejta dixhitale dhe të lidhura me to.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? Përshkrues të rinj (me burim përmes konsultimit të gjerë dhe komenteve dhe rishikimit të literaturës)
? Kuadri i OECD për Klasifikimin e Sistemeve të AI: një mjet për politika efektive të AI.
https://oecd.ai/en/classification
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ?Kompetenca e inteligjencës artificiale të përdoruesve | Sa kompetentë dhe të vetëdijshëm për vetitë e sistemit janë përdoruesit e mundshëm që do të ndërveprojnë me sistemin? Si do t'u sigurohen atyre informacionet dhe paralajmërimet përkatëse të përdoruesit? |
| ? Pala e interesuar | Cilët janë palët kryesore të interesuara që do të ndikohen nga sistemi (individët, komunitetet, vulnerabël, punëtorë sektorialë, fëmijë, politikëbërës, profesionistë etj.)? |
| ? Opsionaliteti | A u ofrohet përdoruesve mundësia për të hequr dorë nga sistemi apo u jepen mundësi për të sfiduar ose korrigjuar rezultatin? |
| ?Rreziqet për të drejtat e njeriut dhe vlerat demokratike | A ndikon sistemi në thelb mbi të drejtat e njeriut, duke përfshirë por pa u kufizuar në privatësi, lirinë e shprehjes, drejtësinë, jodiskriminuese etj.? |
| ?Efektet e mundshme në mirëqenien e njerëzve | A lidhen fushat e ndikimit të sistemit me mirëqenien e përdoruesit individual (cilësia e punës, arsimi, ndërveprimet sociale, shëndeti mendor, identiteti, mjedisi etj.)? |
| ? Potenciali për zhvendosjen e fuqisë njerëzore | A ka një potencial që sistemi të automatizojë detyrat ose funksionet që po ekzekutoheshin nga njerëzit? Nëse po, cilat janë pasojat në rrjedhën e poshtme? |
| ? Potenciali për manipulim të identitetit, vlerave ose njohurive | A është sistemi i projektuar ose potencialisht i aftë të manipulojë identitetin e përdoruesit ose vlerat e vendosura, apo përhapja e dezinformatave? |
| ? Mundësi për vetë-shprehje dhe vetëaktualizim | A ka një potencial për artificial dhe vetë-dyshim? A ka potencial për fals apo pretendime të paverifikueshme të ekspertizës? |
| ? Masat e vetëvlerësimit | A ka presion për të portretizuar veten e idealizuar? A mund të zëvendësojë automatizimi një sens të përmbushjes personale? A ka presion për të konkurruar me sistemin në vendin e punës? A është më e vështirë të mbrohet reputacioni individual nga dezinformimi? |
| ? Privatësia | A ka përgjegjësi të shpërndara për ruajtjen e privatësisë dhe a ka? po bëhen supozime se si përdoren të dhënat personale? |
| ? Autonomia | A mund të ndikojë sistemi i AI në autonominë njerëzore duke gjeneruar mbështetje të tepërt nga përdoruesit e fundit? |
| ? Zhvillimi njerëzor | A ka ndikim në përvetësimin e aftësive kyçe për zhvillimin njerëzor, si p.sh funksionet ekzekutive ose aftësitë ndërpersonale, ose ndryshimet në kohën e vëmendjes që ndikojnë mësimi, zhvillimi i personalitetit, shqetësimet e shëndetit mendor etj.? |
| ? Kujdesi për shëndetin personal | A ka pretendime për vetë-diagnostikim apo zgjidhje të personalizuara të kujdesit shëndetësor? Po të jetë kështu, a janë të vërtetuara sipas standardeve rregullatore? |
| ? Shëndeti mendor | A ekziston rreziku i rritjes së ankthit, vetmisë ose çështjeve të tjera të shëndetit mendor, ose a mundet teknologjia të përmirësojë ndikime të tilla? |
| ? Evolucioni i njeriut | A mund ta ndryshojnë modelet e mëdha gjuhësore dhe inteligjenca e përgjithshme artificiale rrjedha e evolucionit njerëzor? |
| ? Ndërveprimi njeri-makinë | A mund të çojë përdorimi në shkathtësi dhe varësi me kalimin e kohës për individët? Janë ka ndikime në ndërveprimin njerëzor? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Vlerat shoqërore | A e ndryshon sistemi rrënjësisht natyrën e shoqërisë, a mundëson normalizimin e ideve që më parë konsideroheshin antisociale, apo shkel vlerat shoqërore të kulturës në të cilën po zbatohet? |
| ? Ndërveprimet sociale | A ka një efekt në kontaktin kuptimplotë njerëzor, duke përfshirë marrëdhëniet emocionale? |
| ? Shëndeti i popullatës | A ka një potencial që sistemi të avancojë apo të minojë synimet shëndetësore të popullsisë? |
| ? Shprehje kulturore | A është e mundshme apo më e vështirë për t'u trajtuar një rritje në përvetësimin ose diskriminimin kulturor? A i përjashton apo margjinalizon mbështetja në sistemin për vendimmarrje lidhjet sektoriale të shoqërisë? |
| ? Arsimi publik | A ka ndonjë efekt në rolet e mësuesve apo në institucionet arsimore? A e thekson apo zvogëlon sistemi ndarjen dhe pabarazinë dixhitale mes studentëve? A është e avancuar apo e minuar vlera e brendshme e njohurive apo e të kuptuarit kritik? |
| ? Realitete të shtrembëruara | A janë ende të zbatueshme metodat e përdorura për të dalluar atë që është e vërtetë? A është komprometuar perceptimi i realitetit? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Sektori industrial | Në cilin sektor industrial është i vendosur sistemi (financa, bujqësi, kujdes shëndetësor, arsim, mbrojtje etj.)? |
| ? Modeli i biznesit | Në cilin funksion biznesi përdoret sistemi dhe në çfarë kapaciteti? Ku përdoret sistemi (privat, publik, jofitimprurës)? |
| ? Ndikimet në aktivitetet kritike | A do të ndikonte një ndërprerje e funksionit ose aktivitetit të sistemit shërbimet thelbësore ose infrastrukturat kritike? |
| ?Gjerësia e vendosjes | Si është vendosur sistemi (përdorimi i ngushtë brenda njësisë kundrejt përhapjes në shkallë kombëtare/ndërkombëtare)? |
| ? Pjekuria teknike | Sa i pjekur teknikisht është sistemi? |
| ? Ndërveprueshmëria | A ka gjasa të ketë kapanone, në nivel kombëtar apo global, që pengojnë tregtinë e lirë dhe ndikojnë bashkëpunimin me partnerët? |
| ? Sovraniteti teknologjik | A është dëshira për sovranitet teknologjik sjellje nxitëse, duke përfshirë kontrollin mbi të gjithë zinxhirin e furnizimit të AI? |
| ? Rishpërndarja e të ardhurave dhe levat fiskale kombëtare | A mund të rrezikohen rolet thelbësore të shtetit sovran (p.sh. bankat rezervë)? A do të avancohet apo zvogëlohet aftësia e shtetit për të përmbushur pritshmëritë dhe implikimet e qytetarëve (sociale, ekonomike, politike etj.)? |
| ? Ndarja dixhitale (ndarja AI) | A janë përkeqësuar apo krijuar të reja pabarazitë ekzistuese dixhitale? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Qeverisja dhe shërbimi publik | A mund të ndikohen pozitivisht apo negativisht mekanizmat e qeverisjes dhe sistemi i qeverisjes globale? |
| ? Mediat e lajmeve | A ka gjasa që diskursi publik të polarizohet dhe të rrënjoset në nivel popullsie? A do të ketë një efekt në nivelet e besimit në Pasurinë e Katërt? A do të preken më tej standardet e etikës dhe integritetit konvencional të gazetarëve? |
| ? Shteti i së drejtës | A do të ketë një efekt në aftësinë për të identifikuar individët ose organizatat për t'u mbajtur përgjegjës (p.sh., çfarë lloj përgjegjësie t'i caktohet një algoritmi për rezultate negative)? A është krijuar një humbje e sovranitetit (mjedisore, fiskale, politika sociale, etikë etj.)? |
| ?Politika dhe kohezioni social | A ekziston mundësia e pikëpamjeve më të rrënjosura politike dhe më pak mundësi për ndërtimin e konsensusit? A ekziston mundësia e margjinalizimit të mëtejshëm të grupeve? A janë pak a shumë të mundshme stilet kundërshtare të politikës? |
| ? Licenca sociale | A ka shqetësime rreth privatësisë, çështje besimi dhe shqetësime morale që duhen marrë parasysh për pranimin e përdorimit nga palët e interesuara? |
| ? Njohuri indigjene | A mund të korruptohen apo keqpërdoren njohuritë dhe të dhënat vendase? A ka masa adekuate për t'u mbrojtur nga keqinterpretimi, keqinformimi dhe shfrytëzimi? |
| ? Sistemi shkencor | A është komprometuar integriteti akademik dhe kërkimor? A ka një humbje të besimit në shkencë? A ka mundësi keqpërdorimi, mbipërdorimi apo abuzimi? Cila është pasoja e praktikës së shkencës? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Mbikëqyrje precize | A janë sistemet të trajnuar mbi të dhënat individuale të sjelljes dhe biologjike dhe a mund të përdoren ato për të shfrytëzuar individë apo grupe? |
| ? Konkurrenca dixhitale | A munden aktorët shtetërorë ose jo-shtetërorë (p.sh. kompanitë e mëdha të teknologjisë) të përdorin sisteme dhe të dhëna për të kuptuar dhe kontrolluar popullsinë dhe ekosistemet e vendeve të tjera, ose të minojnë kontrollin juridiksional? |
| ? Konkurrenca gjeopolitike | A mund të nxisë sistemi konkurrencën midis kombeve mbi shfrytëzimin e të dhënave individuale dhe grupore për interesa ekonomike, mjekësore dhe të sigurisë? |
| ? Ndryshimi i fuqive globale | A është në rrezik statusi i shteteve-kombe si aktorët kryesorë gjeopolitikë në botë? A kanë kompanitë e teknologjisë pushtetin e rezervuar dikur për shtetet-komb dhe a janë bërë ato aktorë të pavarur, sovranë (rendi botëror teknopolar në zhvillim)? |
| ? Dezinformata | A do të lehtësonte sistemi prodhimin dhe shpërndarjen e dezinformatave nga aktorët shtetërorë dhe joshtetërorë me ndikim në kohezionin social, besimin dhe demokracinë? |
| ? Aplikacione me përdorim të dyfishtë | A ka mundësi si për përdorim ushtarak ashtu edhe për përdorim civil? |
| ? Fragmentimi i rendit global | A mund të zhvillohen silos ose grupe rregullimi dhe përputhshmërie që pengojnë bashkëpunimin, çojnë në mospërputhje në aplikim dhe krijojnë hapësirë për konflikt? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Konsumi i energjisë dhe burimeve (gjurmë karboni) | A e rrisin sistemi dhe kërkesat konsumin e energjisë dhe burimeve mbi dhe mbi përfitimet e efikasitetit të marra nëpërmjet aplikimit? |
| ?Burimi i energjisë | Nga është burimi i energjisë për sistemin (të rinovueshme kundrejt lëndëve djegëse fosile etj.)? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Drejtimi dhe grumbullimi | A janë të dhënat dhe të dhënat e mbledhura nga njerëzit, sensorë të automatizuar apo të dyja? |
| ? Prejardhja e të dhënave | A janë dhënë, vëzhguar, sintetike apo të nxjerra të dhënat dhe të dhënat nga ekspertët? A ka mbrojtje të filigranëve për të konfirmuar origjinën? |
| ? Natyra dinamike e të dhënave | A janë të dhënat dinamike, statike, dinamike të përditësuara herë pas here apo në kohë reale? |
| ? Të drejtat | A janë të dhënat pronësore, publike apo personale (të lidhura me individë të identifikueshëm)? |
| ? Identifikimi dhe të dhënat personale | Nëse janë personale, a janë të dhënat anonime apo pseudonime? |
| ? Struktura e të dhënave | A janë të dhënat të strukturuara, gjysmë të strukturuara, komplekse apo të pastrukturuara? |
| ? Formati i të dhënave | A është formati i të dhënave dhe meta të dhënave i standardizuar apo i pa standardizuar? |
| ? Shkalla e të dhënave | Cila është shkalla e të dhënave? |
| ? Përshtatshmëria dhe cilësia e të dhënave | A është grupi i të dhënave i përshtatshëm për qëllimin? A është madhësia e mostrës adekuate? A është mjaft përfaqësues dhe i plotë? Sa të zhurmshme janë të dhënat? A është i prirur për gabime? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Disponueshmëria e informacionit | A ka ndonjë informacion në lidhje me modelin e sistemit? |
| ? Lloji i modelit të AI | A është modeli simbolik (rregullat e krijuara nga njeriu), statistikor (përdor të dhëna) apo hibrid? |
| ? Të drejtat që lidhen me modelin | A është modeli me burim të hapur apo pronësor, i menaxhuar nga vetë apo nga palët e treta? |
| ? Një model i shumëfishtë | A është sistemi i përbërë nga një model apo disa modele të ndërlidhura? |
| ? Gjenerative ose diskriminuese | A është modeli gjenerues, diskriminues apo të dyja? |
| ? Ndërtesa model | A mëson sistemi bazuar në rregullat e shkruara nga njeriu, nga të dhënat, nëpërmjet të mësuarit të mbikëqyrur apo nëpërmjet të mësuarit përforcues? |
| ? Evolucioni i modelit (Zhvillimi i AI) | A evoluon modeli dhe/ose fiton aftësi nga bashkëveprimi me të dhënat në terren? |
| ? Të mësuarit federativ ose qendror | A është modeli i trajnuar në qendër apo në disa serverë lokalë apo pajisje 'edge'? |
| ? Zhvillimi/mirëmbajtja | A është modeli universal, i personalizueshëm apo i përshtatur me të dhënat e aktorit të AI? |
| ? Deterministe ose probabiliste | A përdoret modeli në një mënyrë përcaktuese apo probabiliste? |
| ? Transparenca e modelit | A është informacioni i disponueshëm për përdoruesit për t'i lejuar ata të kuptojnë rezultatet dhe kufizimet e modelit ose të përdorin kufizimet? |
| ? Kufizimi llogaritës | A ka kufizime llogaritëse për sistemin? A është e mundur të parashikohen kërcimet e aftësive ose ligjet e shkallëzimit? |
| kriteret | Shembuj se si kjo mund të reflektohet në analizë |
| ? Detyrat e kryera nga sistemi | Çfarë detyrash kryen sistemi (njohja, zbulimi i ngjarjeve, parashikimi etj.)? |
| ? Kombinimi i detyrave dhe veprimeve | A kombinon sistemi disa detyra dhe veprime (sistemet e gjenerimit të përmbajtjes, sistemet autonome, sistemet e kontrollit etj.)? |
| ? Niveli i autonomisë së sistemit | Sa autonome janë veprimet e sistemit dhe çfarë roli luajnë njerëzit? |
| ? Shkalla e përfshirjes njerëzore | A ka ndonjë përfshirje njerëzore për të mbikëqyrur aktivitetin e përgjithshëm të sistemit AI dhe aftësinë për të vendosur se kur dhe si të përdoret sistemi i AI në çdo situatë? |
| ? Aplikimi thelbësor | A i përket sistemi një zone thelbësore të aplikimit si teknologjitë e gjuhës njerëzore, vizioni kompjuterik, automatizimi dhe/ose optimizimi ose robotika? |
| ? Vlerësimi | A janë standardet ose metodat e disponueshme për vlerësimin e prodhimit të sistemit? |
Si mund të përdoret kjo kornizë?
Kjo kornizë mund të përdoret në shumë mënyra, duke përfshirë:
Një rrugë përpara
Në përmbledhje, kuadri analitik ofrohet si bazë e një pakete mjetesh që mund të përdoret nga palët e interesuara për të parë në mënyrë gjithëpërfshirëse çdo zhvillim të rëndësishëm qoftë të platformave apo të përdorimit në një mënyrë të qëndrueshme dhe sistematike. Dimensionet e paraqitura në këtë kuadër kanë lidhje nga vlerësimi i teknologjisë tek politikat publike, nga zhvillimi njerëzor te sociologjia dhe studimet e së ardhmes dhe teknologjisë. Ndërsa është zhvilluar për AI, ky kuadër analitik ka aplikim shumë më të gjerë për çdo teknologji tjetër në zhvillim.
6 Bordi Këshillues i UA i OKB-së. 2023. Raport i ndërmjetëm: UA qeverisëse për njerëzimin. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Mirënjohje
Shumë njerëz janë konsultuar dhe kanë dhënë reagime gjatë zhvillimit si të dokumentit fillestar të diskutimit ashtu edhe të reagimeve pas publikimit të tij. Të dy dokumentet u hartuan nga Sir Peter Gluckman, President, ISC dhe Hema Sridhar, ish-Këshilltar Kryesor i Shkencës, Ministria e Mbrojtjes, Zelanda e Re dhe tani Kërkimor i Lartë Fellow, Universiteti i Aucklandit, Zelanda e Re.
Në veçanti, ISC Lord Martin Rees, ish-President i Shoqërisë Mbretërore dhe Bashkëthemelues i Qendrës për Studimin e Rreziqeve Ekzistenciale, Universiteti i Kembrixhit; Profesor Shivaji Sondhi, Profesor i Fizikës, Universiteti i Oksfordit; Profesor K Vijay Raghavan, ish-Këshilltar Kryesor Shkencor i Qeverisë së Indisë; Amandeep Singh Gill, i dërguari i Sekretarit të Përgjithshëm të OKB-së për Teknologjinë; Seán Ó hÉigeartaigh, Drejtor Ekzekutiv, Qendra për Studimin e Rreziqeve Ekzistenciale, Universiteti i Kembrixhit; Sir David Spiegelhalter, Profesor Winton i Kuptimi Publik i Riskut, Universiteti
i Kembrixhit; Amanda-June Brawner, Këshilltare e Lartë për Politika dhe Ian Wiggins, Drejtor i Çështjeve Ndërkombëtare, Royal Society, Mbretëria e Bashkuar; Dr Jerome Duberry, Drejtor Menaxhues dhe Dr Marie-Laure Salles, Drejtor i Institutit të Diplomuar të Gjenevës; Chor Pharn Lee, Qendra për të Ardhmen Strategjike, Zyra e Kryeministrit, Singapor; Barend Mons dhe Dr Simon Hodson, Komiteti i të Dhënave (CoDATA); Profesor Yuko Harayama, Ish Drejtor Ekzekutiv, RIKEN; Profesor
Rémi Quirion, President, INGSA; Dr Claire Craig, Universiteti i Oksfordit dhe ish Shef i Parashikimit, Zyra e Qeverisë për Shkencë; Prof Yoshua Bengio, Bordi Këshillues Shkencor i Sekretarit të Përgjithshëm të OKB-së dhe në Université de Montréal; dhe shumë të tjerë që i dhanë komente ISC-së mbi dokumentin fillestar të diskutimit.
Përgatitja e Ekosistemeve Kombëtare të Kërkimit për AI: Strategjitë dhe përparimi në 2024
Ky dokument pune nga grupi i mendimit i ISC, Qendra për Ardhmërinë e Shkencës, ofron informacion themelor dhe akses në burime nga vende nga të gjitha pjesët e botës, në faza të ndryshme të integrimit të AI në ekosistemet e tyre kërkimore.
Ndërtimi i sistemeve shkencore të gatshme për të ardhmen në Jugun Global
Teknologjitë në zhvillim po riformësojnë mënyrën se si zhvillohet shkenca dhe ofrojnë potencial të konsiderueshëm për të forcuar sistemet shkencore në Jugun Global - nëse miratimi i tyre udhëhiqet nga qasje gjithëpërfshirëse, të mbështetura mirë dhe të ndjeshme ndaj kontekstit. Fokusi qendror i këtij takimi strategjik të kohëve të fundit ishte se si të sigurohet që këto teknologji të kontribuojnë në sisteme shkencore më të barabarta dhe më elastike, në vend që të përforcojnë pabarazitë ekzistuese.