Google ka përshkruar një seri masash parandaluese për të ndaluar AGI-në (Inteligjencën Artificiale të Përgjithshme) që të dëmtojë njerëzimin, duke lejuar ende përfitimin nga avantazhet e saj. Herë pas here, ekspertët në fushën e inteligjencës artificiale kanë shprehur shqetësime në lidhje me mënyrën se si AI, në përgjithësi, mund të paraqesë rreziqe për njerëzimin. Në veçanti, inteligjenca artificiale e përgjithshme (AGI) shihet si një shqetësim veçanërisht i madh, duke shtuar në këtë narrativë alarmante.
Tani, Google DeepMind ka dalë me një dokument kërkimor që thekson këto shqetësime të njëjta, shkruan Hindustan Times. Dokumenti diskuton se si AGI paraqet rreziqe të rëndësishme—rreziqe mjaft të rënda për të shkaktuar “dëm të konsiderueshëm”. Por, në të njëjtën kohë, ai përshkruan masa të ndryshme parandaluese për mënyrën se si mund të punojmë me të, duke shfrytëzuar përfitimet e saj.
Dokumenti kërkimor, titulluar Një Qasje për Sigurinë dhe Sigurinë Teknike të AGI-së, thekson përfitimet transformuese të AGI-së, ndërkohë që përshkruan gjithashtu rreziqet kryesore që ajo paraqet. Këto rreziqe janë kategorizuar në katër fusha kryesore: keqpërdorimi, keqkuptimi, gabimet dhe rreziqet strukturore.
Për sa i përket kategorisë së keqpërdorimit, Google thotë se strategjia e saj përfshin parandalimin e aktorëve negativ që të kenë qasje në aftësi të rrezikshme të AI. Kjo përfshin identifikimin aktiv të këtyre aftësive, zbatimin e masave të forta sigurie, kufizimin e qasjes, monitorimin e vazhdueshëm dhe sigurimin e sigurisë së modeleve.
Për keqkuptimin, Google përshkruan dy linja kryesore mbrojtëse. E para është mitigimi në nivelin e modelit, dhe e dyta përfshin masat e sigurisë në nivelin e sistemit.
Google gjithashtu shpjegon se si të gjitha këto masa mund të kombinohen për të krijuar raste të plota sigurie për sistemet AGI si një tërësi.
“AI, dhe veçanërisht AGI, do të jetë një teknologji transformuese. Ashtu si me çdo teknologji transformuese, AGI do të ofrojë përfitime të rëndësishme, ndërkohë që do të paraqesë gjithashtu rreziqe të mëdha. Kjo përfshin rreziqe të dëmit të rëndë: incidente mjaft të rëndësishme për të shkaktuar dëm të konsiderueshëm për njerëzimin”, thuhet në dokumentin kërkimor.
Kjo nuk është hera e parë që Google DeepMind ka shprehur shqetësime rreth garës së shpejtë të AI-së. Më parë, CEO i tij, Demis Hassabis, një fitues i Çmimit Nobel, në një intervistë me Axios, tha se do të shohim “sisteme të fuqishme agentike”, dhe ato “do të ndërtohen, sepse do të jenë më të dobishme, ekonomikisht më të dobishme, shkencërisht më të dobishme. … Por pastaj ato sisteme bëhen edhe më të fuqishme në duar të gabuara, gjithashtu”. Ai shtoi, “Ekonomistët, ndoshta, dhe filozofët dhe shkencëtarët socialë duhet të shpenzojnë më shumë kohë për të menduar se si duam që bota të jetë, edhe nëse bëjmë gjithçka saktë, pas AGI-së. Jam i befasuar që nuk ka shumë diskutime rreth kësaj, duke pasur parasysh afatin kohor relativisht të shkurtër”.