×
  • Prospect
  • Prospect

    Kompanitë e AI-së nuk kanë frikë nga rregullimi

    Autor:Dorothy Chou, The Guardian
    07 Gusht 2023 | 12:28

    AI-ja [inteligjenca artificiale] përparon me një ritëm të shpejtë, duke sjell me vete përfitimet që kanë një potencial transformues për shoqërinë. Për shembull, me zbulimet e tilla si AlphaFold, po fillojmë ta përmirësojmë njohurinë tonë për disa sëmundje prej kohësh të neglizhuara, me 200 milionë struktura të proteinave që janë përnjëherë të qasshme – një arritje kjo që më parë do të kërkonte katër vjet kërkime të nivelit të doktoratës, për secilën proteinë, si dhe pajisje tepër të shtrenjta. Nëse zhvillohet me përgjegjësi, AI-ja mund të jetë mjet i fuqishëm që na ndihmon të ofrojmë një të ardhme më të mirë dhe më të barabartë.

    Sidoqoftë, AI-ja gjithashtu paraqet sfida. Paragjykimet në detektimin e kriminelëve të ardhshëm, përmes algoritmet të dënimeve, keqinformimi, zhvillimi i papërgjegjshëm dhe hutimi i sistemeve të AI-së paraqesin rreziqe të mëdha. Si mund t’i adresojmë këto çështje tepër komplekse, për t’u siguruar se teknologjia e AI-së i shërben shoqërisë sonë dhe jo anasjelltas?

    Së pari, kjo kërkon që të gjithë ata që janë të përfshirë në ndërtimin e AI-së, të miratojnë dhe t’u përmbahen parimeve që kanë prioritet sigurinë, duke shtyrë gjithashtu para edhe kufijtë e inovacionit. Por, gjithashtu kërkon që ne të ndërtojmë institucione të reja, me ekspertizën dhe me autoritetin për ta administruar me përgjegjësi zhvillimin e kësaj teknologjie.

    Sektorit të teknologjisë shpeshherë i pëlqejnë zgjidhjet e drejtpërdrejta, ndërsa ndërtimi i institucioneve mund të duket si një prej rrugëve më të vështira dhe më të mjegullta për t’u ndjekur. Por, nëse industria jonë do të shmang parimet etike, kemi nevojë për zgjidhje konkrete që ndërlidhen me realitetin e problemeve, me të cilat përballemi, dhe që në qendër sjellin komunitetet historikisht të përjashtuara.

    Për të qenë të sigurt në inovacionin e përgjegjshëm, kemi nevojë që laboratorët të ndërtojnë sisteme inovative të AI-së për të vendosur kontrollet dhe balancat e duhura që informojnë vendimmarrjet e tyre. Kur modelet e gjuhëve dolën për herë të parë në skenë, komiteti i rishikimit institucional i Google DeepMind-it – një panel ndërdisiplinor i ekspertëve të brendshëm të ngarkuar – vendosi të vononte publikimin e punimit tonë të ri derisa të mund ta lidhnim atë me një taksonomi të rreziqeve që duhen përdorur për të vlerësuar modelet, pavarësisht presionit të madh të industrisë për të qenë “në krye” të zhvillimeve më të fundit.

    Të njëjtat parime duhet të shtrihen tek investitorët që financojnë nismat e reja. Në vend të financimit të kompanive që i japin përparësi risisë mbi sigurinë dhe etikën, kapitalistët e sipërmarrjes (VC) dhe të tjerët duhet të stimulojnë zhvillimin e një produkti të guximshëm dhe të përgjegjshëm. Për shembull, firma VC Atomico, në të cilën unë jam investitore, këmbëngul të përfshijë diversitetin, barazinë dhe përfshirjen, si dhe kërkesat e qeverisjes mjedisore e sociale në çdo investim që bën. Këto janë llojet e sjelljeve që duam t’i vendosin gjithë ata që udhëheqin në këtë fushë.

    Ne gjithashtu kemi filluar të shohim një konvergjencë në gjithë industrinë rreth praktikave të rëndësishme, si vlerësimet e ndikimit dhe përfshirja e komuniteteve të ndryshme në zhvillim, në vlerësim dhe testim. Sigurisht, ka ende një rrugë të gjatë për ta bërë këtë. Si grua me ngjyrë, jam shumë e vetëdijshme se çfarë do të thotë kjo për një sektor ku njerëzit si unë janë të nënpërfaqësuar. Por, ne mund të mësojmë nga komuniteti i sigurisë kibernetike.

    Dekada më parë ata filluan të ofrojnë “dhuratë” – një shpërblim financiar – për studiuesit të cilët mund të identifikonin cenet ose të “metat [bug]” në një produkt. Pasi u raportua, kompanitë e kishin një periudhë kohore gjatë së cilës do ta adresonin defektin dhe më pas do ta zbulonin publikisht, duke i falënderuar “gjuetarët e dhuratave”. Me kalimin e kohës, kjo është zhvilluar në një normë të industrisë të quajtur “zbulim i përgjegjshëm”. Laboratorët e AI-së tani po huazojnë nga ky standard, për ta trajtuar çështjen e paragjykimit në grupet e të dhënave dhe rezultatet e modelit.

    Së fundi, përparimet në AI paraqesin një sfidë për qeverisjen shumëkombëshe. Udhëzimet në nivel lokal janë pjesë e ekuacionit, por po ashtu është edhe përafrimi i politikave ndërkombëtare, duke pasur parasysh mundësitë dhe rreziqet se AI-ja nuk do të kufizohet në asnjë vend. Përhapja dhe keqpërdorimi i AI-së i ka vetëdijesuar të gjithë ndaj faktit se koordinimi global do të luajë rol vendimtar në parandalimin e dëmit dhe në sigurimin e llogaridhënies së përbashkët.

    Megjithatë, ligjet janë efektive vetëm nëse janë të qëndrueshme për të ardhmen. Kjo është arsyeja pse është thelbësore që rregullatorët të marrin në konsideratë jo vetëm se si t’i rregullojnë çetbotët e sotshëm, por edhe si ta nxisin një ekosistem ku inovacioni dhe përshpejtimi shkencor mund të jenë të dobishme për njerëzit, duke ofruar korniza të bazuara në rezultate me të cilat kompanitë e teknologjisë do të punojnë.

    Ndryshe nga energjia bërthamore, AI-ja është më e përgjithshme dhe më e zbatueshme se teknologjitë e tjera, kështu që ndërtimi i institucioneve do të kërkojë qasje në një grup të gjerë të aftësive, diversitet dhe forma të reja bashkëpunimi – duke përfshirë ekspertizën shkencore, njohuritë socio-teknike dhe publikun shumëkombësh, partneritetet private … Deklarata e fundit e Atlantikut midis Mbretërisë së dhe ShBA-së, është fillim premtues drejt sigurimit që standardet në industri të kenë shans për t’u shkallëzuar në ligj shumëkombësh.

    Në një botë që priret politikisht drejt nostalgjisë dhe izolimit, qasjet shumështresore ndaj qeverisjes së mirë – që përfshijnë qeverinë, kompanitë e teknologjisë dhe shoqërinë civile – nuk do të jenë kurrë rruga kryesore apo popullore për zgjidhjen e sfidave të AI-së. Por, puna e vështirë e ndërtimit të institucioneve është kritike për të mundësuar teknologët që të ndërtojnë së bashku drejt një të ardhmeje më të mirë.

    *Autorja është përgjegjëse për marrëdhëniet me publikun në DeepMind

    Shpërndaje:
    Të ngjashme
    Të ngjashme
    Prospect

    © Reporteri (R Media L.L.C.), 2019-2024. Të gjitha të drejtat e rezervuara.

    Linku i lajmit u kopjua!