×
  • Prospect
  • Prospect

    Inteligjenca Artificiale duhet të ketë të njëjtën mbrojtje etike si kafshët

    Reporteri
    15 Shtator 2022 | 16:45

    Autor: John Basl


    Universitete anembanë botës po kryejnë studime madhore rreth Inteligjencës Artificiale (AI), siç bëjnë edhe organizatat si Instituti Allen, dhe kompanitë teknologjike si Google dhe Facebook. Me gjasë do të rezultojë që së shpejti të kemi Inteligjencë Artificiale kognitivisht të sofistikuar afërisht me minjt ose qentë. Tani ka ardhur koha të mendojnë nëse, dhe në çfarë kushtesh, këto Inteligjenca Artificiale mund të meritojnë mbrojtje etike që ne zakonisht ua japim kafshëve.

    Diskutimet rreth “të drejtave të Inteligjencës Artificiale” deri më tani kanë qenë dominuara rreth asaj se çfarë obligimesh etike do të kishim ndaj një Inteligjence Artificiale të ngjashëm me njeriun si Dolores te Westworld. Por, të mendojmë kësisoji do të thotë të shkojmë në drejtim të gabuar, dhe mund të ketë pasoja të rënda morale. Para se të krijojmë Inteligjencën Artificiale me sofistikime të ngjashme me njeriun dhe që meriton konsiderime etike njerëzore, ne më me gjasë do të krijojmë diçka si Inteligjencë Artificiale me sofistikim më të pakët se ajo e njeriut, që meriton konsiderime etike më pak se ato të njeriut.

    Ne tanimë jemi të vëmendshëm se si bëjmë hulumtime ku përdoren kafshë jonjerëzore. Kujdes kafshor dhe komisione për vlerësimin e propozimeve studimore sigurojnë që kafshët vertebrore të mos vriten pa nevojë ose të vuajnë padrejtësisht. Nëse përfshihen qelizat burimore njerëzore ose, veçanërisht, qelizat e trurit të njeriut, standardet e mbikëqyrjes janë edhe më rigoroze. Hulumtimi biomjekësor shqyrtohet me kujdes, por kërkimi i Inteligjencës Artificiale, i cili mund të sjellë disa nga të njëjtat rreziqe etike, aktualisht nuk shqyrtohet fare. Ndoshta duhet.

    Ju mbase mund të mendoni se Inteligjenca Artificiale nuk meriton këso lloj mbrojtjesh etike përveç nëse posedojnë vetëdije – kjo, pra, nëse nuk kanë një rrjedhojë origjinale përjetimesh, me gëzim dhe vuajtje të përnjëmendtë. Pajtohemi. Por, tani jemi para një pyetje të dyshimtë filozofike: si do ta dimë kur kemi krijuar diçka që është në gjendje të gëzohet dhe të vuajë? Nëse Inteligjenca Artificale është si Data apo Dolores, mund të ankohet dhe mbrojë veten, të nis diskutime rreth të drejtave të saj. Por, nëse Inteligjenca Artificiale është e paartikulueshme, sikur një mi apo një qen, ose për ndonjë arsye tjetër e ka të pamundshme ta komunikojë jetën e brendshnme të saj te ne, mbase mund të mos ketë asnjë mënyrë të na raportoj vuajtjen e saj.

    Këtu lind enigma dhe vështirësia, sepse studimi shkencor i vetëdijes nuk ka arritur konsensus rreth asaj se çfarë është vetëdija dhe si mund të dallojmë nëse ajo është e pranishme ose jo. Në disa pikëpamje – pikëpamje “liberale” – që të ekzistojë vetëdija nuk kërkohet gjë tjetër veçse një lloj i caktuar përpunimi i mirëorganizuar i informacionit, siç është një model fleksibël informativ i sistemit në lidhje me objektet në mjedisin e tij, me kapacitete të drejtuara të vëmendjes dhe të gjatë planifikim-veprimi afatshkurtër. Ne mund të jemi në prag të krijimit të sistemeve të tilla tashmë. Në pikëpamjet e tjera – pikëpamjet ‘konservatore’ – vetëdija mund të kërkojë veçori biologjike shumë specifike, të tilla si një tru shumë i ngjashëm me trurin e gjitarëve në detajet e tij strukturore të nivelit të ulët: në këtë rast nuk jemi afër krijimit të vetëdijes artificiale.

    Është e paqartë se cili lloj këndvështrimi është i saktë ose nëse ndonjë shpjegim tjetër në fund do të mbizotërojë. Megjithatë, nëse një pikëpamje liberale është e saktë, së shpejti mund të krijojmë shumë Inteligjencë Artificiale nënnjerëzore që do të meritojnë mbrojtje etike. Aty qëndron rreziku moral.

    Diskutimet për “rrezikun e Inteligjencës Artificiale” zakonisht përqendrohen në rreziqet që teknologjitë e reja të saj mund të paraqesin për ne, njerëzit, të tilla si të shtënë në dorë e botën dhe shkatërrimi i ynë, ose së paku prishja e sistemit tonë bankar. Shumë më pak i diskutuar është rreziku etik që ne paraqesim për Inteligjencën Artificiale, nëpërmjet keqtrajtimit të mundshëm ndaj tyre.

    Kjo mund të tingëllojë si diçka e trillimeve shkencore, por përderisa studiuesit në komunitetin e Inteligjencës Artificiale synojnë të zhvillojnë atë ose sisteme të fuqishme të saj që mund të konkludojmë fare mirë të jenë të ndërgjegjshëm, e ne duhet ta marrim çështjen seriozisht. Kërkimet e këtij lloji kërkojnë shqyrtim etik të ngjashëm me shqyrtimin që ne tashmë i bëjmë kërkimeve dhe hultimeve mbi kafshët mbi mostrat e indit nervor njerëzor.

    Në rastin e studimeve mbi kafshët dhe madje edhe mbi subjektet njerëzore, mbrojtjet e duhura u krijuan vetëm pasi dolën në dritë shkelje të rënda etike (për shembull, në viviseksionet e panevojshme, krimet e luftës mjekësore naziste dhe studimi i sifilizit Tuskegee). Me AI-në, ne kemi shans për të bërë më mirë. Ne propozojmë themelimin e komiteteve mbikëqyrëse që vlerësojnë kërkimin më të fundit të AI-së me këto pyetje në mendje. Komitete të tilla, njësoj si komitetet e kujdesit për kafshët dhe komitetet e mbikëqyrjes së qelizave burimore, duhet të përbëhen nga një përzierje shkencëtarësh dhe jo shkencëtarësh – projektues të AI-së, shkencëtarë të vetëdijes, eticienë dhe anëtarë të interesuar të komunitetit. Këto komitete do të kenë për detyrë të identifikojnë dhe vlerësojnë rreziqet etike të formave të reja të dizajnit të AI-së, të armatosur me një kuptim të sofistikuar të çështjeve shkencore dhe etike, duke peshuar rreziqet me përfitimet e kërkimit.

    Ka të ngjarë që komitete të tilla të gjykojnë të gjitha kërkimet aktuale të AI-së si të lejueshme. Në shumicën e teorive kryesore të vetëdijes, ne nuk po krijojmë ende AI me përvoja të vetëdishme që meritojnë konsideratë etike. Por ne mund të kalojmë – ndoshta së shpejti – atë vijë thelbësore etike. Duhet të jemi të përgatitur për këtë.

    Teksti është përkthyer në shqip nga gazeta online Reporteri.net.

    Shpërndaje:
    Të ngjashme
    Të ngjashme
    Prospect

    © Reporteri (R Media L.L.C.), 2019-2024. Të gjitha të drejtat e rezervuara.

    Linku i lajmit u kopjua!