OpenAI zbuloi të premten një mjet për klonimin e zërit që planifikon ta mbajë të kontrolluar fort derisa të vendosen masa mbrojtëse për të penguar falsifikimet audio që synojnë të mashtrojnë dëgjuesit.
Një model i quajtur “Voice Engine” në thelb mund të kopjojë fjalimin e dikujt bazuar në një mostër audio 15 sekondash, sipas një postimi në blogun OpenAI që ndan rezultatet e një testi në shkallë të vogël të mjetit.
“Ne e kuptojmë se gjenerimi i fjalës që i ngjan zërave të njerëzve ka rreziqe serioze, të cilat janë veçanërisht të rëndësishme në një vit zgjedhor”, tha kompania me bazë në San Francisko.
“Ne po angazhohemi me partnerë amerikanë dhe ndërkombëtarë nga e gjithë qeveria, media, argëtimi, arsimi, shoqëria civile dhe më gjerë për t’u siguruar që po përfshijmë reagimet e tyre ndërsa ndërtojmë”.
Studiuesit e dezinformimit kanë frikë nga keqpërdorimi i shfrenuar i aplikacioneve të fuqizuara nga IA në një vit vendimtar zgjedhor falë mjeteve të klonimit të zërit në rritje, të cilat janë të lira, të lehta për t’u përdorur dhe të vështira për t’u gjurmuar.
Duke pranuar këto probleme, OpenAI tha se “po merrte një qasje të kujdesshme dhe të informuar për një lëshim më të gjerë për shkak të potencialit për keqpërdorim të zërit sintetik”.
Zbulimi i kujdesshëm erdhi disa muaj pasi një konsulent politik që punonte për fushatën presidenciale të gjatë të një rivali demokrat të Joe Biden, pranoi se qëndronte pas një thirrjeje robo që imitonte liderin amerikan.
Thirrja e krijuar nga IA, ideja e një operativi për kongresmenin e Minesotës, Dean Phillips, shfaqi atë që tingëllonte si zëri i Biden që u kërkon njerëzve të mos votojnë në zgjedhjet paraprake të janarit në New Hampshire.
Incidenti shkaktoi alarm në mesin e ekspertëve të cilët kanë frikë nga një përmbytje e dezinformatave të rreme të thella të fuqizuara nga IA në garën e Shtëpisë së Bardhë në vitin 2024, si dhe në zgjedhje të tjera kyçe në mbarë globin këtë vit.
OpenAI tha se partnerët që testojnë Voice Engine ranë dakord me rregullat, duke përfshirë kërkesën e pëlqimit të qartë dhe të informuar të çdo personi, zëri i të cilit dyfishohet duke përdorur mjetin.
Gjithashtu duhet t’u bëhet e qartë audiencës kur zërat që ata dëgjojnë janë krijuar nga IA, shtoi kompania.
“Ne kemi zbatuar një sërë masash sigurie, duke përfshirë filigranin për të gjurmuar origjinën e çdo audio të gjeneruar nga Voice Engine, si dhe monitorimin proaktiv se si po përdoret,” tha OpenAI.