Atpakaļ

Eksperte: Mākslīgā intelekta draudu novēršanā valstīm būtu vairāk jāstrādā kopā

 Lai demokrātiskās pasaules institūcijas spētu stāties pretī mākslīgā intelekta izmantošanai ļaunprātīgos nolūkos, ir ļoti nepieciešama starptautiska, daudznacionāla sadarbība, kura nenotiek pietiekami nopietnā līmenī, NATO “Stratcom Digital Frontlines 2025” konferences laikā intervijā aģentūrai LETA sacīja mākslīgā intelekta drošības eksperte, “Logically AI” viceprezidente Dženifera Vudarda.

Viņa uzskata, ka Eiropas valstu institūcijas joprojām nav gatavas stāties pretī mākslīgā intelekta ļaunprātīgas pielietošanas radītajiem riskiem un dažu valstu valdībām joprojām pārsteigumu radīs daudzas lietas, par kurām jau labu laiku tiek runāts ar mākslīgo intelektu saistītās konferencēs vai citos pasākumos.

“Jau ilgu laiku nodarbojamies ar Krievijas dezinformācijas pētīšanu, bet vai tiešām protam cīnīties pret to ar mākslīgā intelekta palīdzību? Vai mūsu rīcībā ir nepieciešamie instrumenti? Nudien nedomāju, ka valdību rīcībā daudz tādu ir. Tām ir daudz manuāli strādājošu analītiķu, kas ikdienā pēta šo saturu, bet kā notiek darbs, saskaroties ar mākslīgā intelekta darbinātām kampaņām? 20 000 ziņojumu vietā jums būs jāpārbauda 20 miljoni. Bez mākslīgā intelekta to ir ļoti, ļoti grūti izdarīt,” norādīja Vudarda.

Viņa uzskata, ka neesam gatavi jaunajiem riskiem, ja mūsu rīcībā nav rīku to neitralizēšanai. Cilvēki saņemsies un sāks investēt tehnoloģijās tikai pēc tam, kad aizvien vairāk saskarsies ar šādām kampaņām. Tad viņi vai nu iegādāsies rīkus no privātiem uzņēmumiem, vai veidos komandas un rīkus, kas izstrādās savus mākslīgā intelekta rīkus. Viņasprāt, tam būtu jānotiek arī valdību līmenī, jo viss šis process ir ļoti saistīts ar ieguldījumiem tehnoloģijās.

Vudarda uzsvēra, ka ļoti svarīga ir starptautiskā sadarbība, jo tās nav tikai vienas valsts problēmas.

“Iespējams, dažādām valstīm būtu jāmēģina risināt šīs lietas kopā. Jo runājam par internetu, runājam par sociālajiem medijiem, kur viss no vienas valsts parādās otrā dažu sekunžu laikā. Kāda dezinformācijas kampaņa, kas sākas vienā valstī, sadalās dažādos naratīvos, un pēkšņi redzam to latviešu valodā, lai gan patiesībā tā ir radusies moldāvu valodā,” viņa sacīja. “Ir nepieciešama starptautiska, daudznacionāla sadarbība, bet es nedomāju, ka tāda pietiekami notiek.”

Vudarda konsultē Eiropas Komisiju (EK) vairākos ar mākslīgo intelektu saistītos jautājumos, starp kuriem ir arī mākslīgā intelekta ētika. “Kad runājam par visu šo mākslīgā intelekta rīku ieviešanu, ir patiešām svarīgi saprast, ka mākslīgo intelektu nedrīkst izmantot, lai manipulētu ar cilvēkiem. Ir jābūt ētiskam pamatam, pie kura arī es strādāju,” sacīja eksperte. Viņa arī sniedz konsultācijas par mākslīgā intelekta izpēti, strādā pie tiesību aktiem, piemēram, arī Mākslīgā intelekta akta, kā arī ir iesaistīta EK finansētos projektos un vairo izpratni par to, kas tieši tiek finansēts, un cenšas nodrošināt, lai tiktu finansētas svarīgās lietas.

Vudarda uzskata, ka pie šo rīku izstrādes būtu jāstrādā gan valdībām, gan privātajiem uzņēmumiem.

“Privātais sektors tādus jau izstrādā. Pati strādāju privātā sektora uzņēmumā. EK finansē pētniecību, lai izstrādātu šādus rīkus daudzu Eiropas valstu kopīgos sadarbības un pētniecības projektos. Daudzas lietas, pie kurām esmu strādājusi iepriekš, ir notikušas, tehnoloģiju izstrādei apvienojot spēkus pāris privātiem uzņēmumiem, dažu valstu valdībām un dažiem tiesībaizsardzības iestāžu galalietotājiem,” viņa skaidroja un piebilda, ka Eiropas pētniecības finansējums ir ļoti svarīgs.

Vudarda norādīja, ka bieži arī pašām valdībām ir vajadzīga suverenitāte pār saviem datiem un, piemēram, Latvijas valdība vēlēsies kontrolēt to, kas notiek Latvijā, un atturēsies veikt pasūtījumu privātam uzņēmumam, ja būs ar to jādalās ar konfidenciāliem datiem.

“Drīzāk jāinvestē arī savās komandās, bet tas prasa daudz apmācību, daudz kvalifikācijas celšanas darba. Tāpēc noteikti jānotiek privātā un publiskā sektora sadarbībai,” sacīja Vudarda.

Lai apkarotu manipulāciju kampaņas sociālajos tīklos, ļoti svarīga ir institūciju sadarbība ar sociālo mediju uzņēmumiem, kurai EK ir nopietni pievērsusies, īpaši attiecībā uz lielajām platformām. “Tomēr tām nav pienākuma visos iespējamos veidos palīdzēt. Ja vien nedraud naudas sods,” norādīja eksperte.

Kā viņa skaidroja, problēmas rada tas, ka manipulācijas kampaņas atklāšanai, pirms tā ir kļuvusi par kaut ko masveidīgu, ir jāizstrādā rīki, kuru izveidei ir nepieciešama informācija par notiekošo un dati no sociālo mediju uzņēmuma. Ja šādas informācijas vai datu nav, tad risku neitralizēšanas iespējas ir ļoti ierobežotas, tāpēc jānotiek sabiedrības un valdības spiedienam vai īstai sadarbībai starp valdībām un sociālo mediju uzņēmumiem. Kad draudi tiek pamanīti, tad tālāk būtu jādarbojas kādam likumam, regulējumam, piemēram, tādam, kas liek sociālajam medijam izdzēst šo saturu.

Vudarda atturējās viennozīmīgi novērtēt sadarbību starp institūcijām un sociālajiem medijiem, kurai vēsturiska slava nav bijusi diez ko laba. Tomēr ir skaidrs, ka šajās platformās strādā daudz uzticības un drošības komandu, un uzņēmumi arī apgalvo, ka šīm komandām ir milzīgi budžeti.

“Esmu tikusies ar to pārstāvjiem visā pasaulē. Nav šaubu, ka tās pastāv. Izņemot “X”, jo Īlons Masks atlaida lielāko daļu šo darbinieku. Sociālie tīkli jums noteikti teiks, ka viņi pie šiem jautājumiem strādā un ar to nodarbojas daudz cilvēku. Bet skaidri to zināsiet tikai tad, ja paši tur strādāsiet, ja paši sēdēsiet viņu valdes sanāksmēs,” sacīja Vudarda. “Iespējams, viņi tiešām dara visu iespējamo. Tomēr ar to acīmredzot nepietiek. Viens no diviem – vai nu pati problēma ir pārāk liela, lai ar to varētu tikt galā, vai arī interese par tās atrisināšanu nav tik liela, kādai tai būtu jābūt.”

Viņa arī uzsvēra, ka koncentrēšanās uz lielajiem sociālajiem tīkliem nav izrādījies visaptverošs risinājums, jo kampaņas tiek realizētas visur, arī mazajos sociālajos medijos.

Vudarda norādīja, ka arī mākslīgā intelekta iespējamā ietekme uz plašsaziņas līdzekļiem, rada bažas par mūsu sabiedrību drošību.

“Informācijas integritāte ir kritiski svarīga, lai demokrātija spētu funkcionēt. Cilvēkiem ir jāzina patiesība. Daudzi saka, ka dzīvojam pēcpatiesības sabiedrībā. Taču kas notiks, ja tie nebūs žurnālisti, kas izstrādās mediju saturu, bet gan kāda mašīna, kuru darbina kāds Silīcija ielejā izveidots modelis? Ko gan tas teiktu par žurnālistikas integritāti? Ko tas teiktu par informācijas integritāti? Tā ir ļoti slidena taciņa,” norādīja mākslīgā intelekta eksperte.

Viņa piekrīt, ka ir veidi, kā mākslīgo intelektu efektīvi izmantot žurnālistikā, kad mašīna kaut ko sagatavo, bet tad cilvēks to noved līdz galam.

“Tomēr pienāks laiks, kad saskarsimies ar zināmā mērā ekonomiskiem lēmumiem, kad uzņēmējs paziņos, ka vairs nespēj atļauties žurnālistus, ka viņi būtu jāaizstāj. Tad nonāksim patiešām sarežģītā situācijā,” norādīja Vudarda.

Daudzos mediju uzņēmumos, jo īpaši ASV, valdot lielas bažas, ka šie uzņēmumi savu žurnālistisko saturu izmantos savu modeļu trenēšanai un pēc tam sāks izplatīt saturu, kas būs dekontekstualizēts vai kaut kādā veidā manipulēts.

“Pat ne ļaunprātīgi manipulēts. Tas būs manipulēts vienkārši tāpēc, ka būs kļuvis par mākslīgu produktu. Manuprāt, ir ļoti, ļoti svarīgi saprast, ko tas nozīmē žurnālistu biznesa modeļiem un mediju uzņēmumiem,” sacīja Vudarda.

Rakstīt komentāru

Lai atstātu komentāru, nepieciešams autorizēties
Komentāru nav.