Pagājušajā nedēļā seksuāla rakstura dziļi viltoti Teilores Sviftas attēli ziņots, ka izgatavots mākslīgā intelekta izmantošana tika izplatīta sociālajos medijos. Tas bija tikai jaunākais un visievērojamākais piemērs pieaugošajiem dziļo viltojumu un digitālās uzmākšanās draudiem.
Svifta nav pirmā sieviete, ar kuru tas noticis, un arī viņa nebūs pēdējā. Var droši teikt, ka gandrīz katram otrajam pornogrāfiskas viltojuma upurim ir mazāk resursu nekā miljardierei popzvaigznei ar miljoniem fanu visā pasaulē, kuri ir ļoti tiešsaistē un zina par to. Bet fakts, ka tas var notikt pat Teilorei Sviftai ir pievērsusi jaunu uzmanību šim jautājumam un plašākai auditorijai. Advokāti saka, ka tā pat ir iedarbināta federālā likumdošana, lai cīnītos pret ļaunprātīgu izmantošanu.
Otrdien ASV senatori iepazīstināja ar divpartiju Izjaukt nepārprotami viltotus attēlus un 2024. gada likumu par labojumiem bez piekrišanas (DEFIANCE Act), lai risinātu un atturētu no vienprātīgas dziļas viltus pornogrāfijas. Likumprojekts ļautu “digitālā viltojuma” upuriem — “kas radīti, izmantojot programmatūru, mašīnmācīšanos, mākslīgo intelektu vai citus datorizētus vai tehnoloģiskus līdzekļus, lai maldīgi izskatītos kā autentiski” — civilā ceļā iesūdzēt vainīgos, dodot viņiem iespēju pirmo reizi meklēt taisnību.
Saskaņā ar Omnija Miranda Martone, kura strādāja kopā ar likumdevējiem pie likumprojekta kā likuma dibinātāja un izpilddirektore, nevienprātīgas dziļās viltus pornogrāfijas upuriem nav bijuši īpaši panākumi, iesūdzot tiesā cilvēkus, kuri rada, izplata vai pieprasa dziļu viltotu pornogrāfiju. Seksuālās vardarbības novēršanas asociācija (SVPA) . Tehnoloģija joprojām ir diezgan jauna, un, tāpat kā ar citiem ar tehnoloģiju saistītiem sabiedrības jautājumiem, likumiem ir jāpanāk. Pa to laiku tehnoloģija ir attīstījusies, lai ikvienam būtu vēl vieglāk izveidot mākslīgā intelekta radītus viltojumus.
Seksuālās vardarbības pret ikdienas cilvēkiem apjoms ir strauji pieaudzis.
'Līdz apmēram pirms diviem gadiem. . . kādam vajadzēja būt jaudīgam datoram, viņiem bija daudz jāzina par tehnoloģijām un jāspēj strādāt ar neskaidru sistēmu un, iespējams, pat izveidot sistēmu pašiem. Un viņiem bija nepieciešams daudz upura fotogrāfiju, lai tas izskatītos reālistisks, skaidro Martone. Taču AI tehnoloģija ir ievērojami attīstījusies, un tā ir vieta, kur ikviens var izveidot patiesi reālistisku nevienprātīgu, dziļi viltotu pornogrāfiju, izmantojot tikai vienu vai divus fotoattēlus. Viņiem nav daudz jāzina par tehnoloģijām, viņi var vienkārši atvērt lietotni vai vietni savā tālrunī vai datorā un izveidot to dažu sekunžu laikā.
Tas šodien ir prātam neaptverami, ņemot vērā, ka līdz 2017. viens no astoņiem Saskaņā ar Kiber pilsoņu tiesību iniciatīva .
Ņemot vērā šos tehnoloģiskos sasniegumus un to, ka ikviens, kam ir piekļuve internetam, to var viegli izveidot, seksuālās vardarbības apjoms pret ikdienas indivīdiem ir strauji pieaudzis, saka Martone. Slavenības bija visizplatītākais mērķis viņu attēlu pieejamības dēļ. Taču tagad [vainīgajiem] ir vajadzīgas tikai dažas fotogrāfijas, kuras viņi var iegūt no kāda LinkedIn vai sociālajiem medijiem vai uzņēmuma tīmekļa vietnes, skaidro Martone.
Tas ir nesamērīgi kaitējošs sievietēm, uzskata Margareta Mičela, bijusī Google ētiskā mākslīgā intelekta komandas līdzvadītāja. Tas ir ārkārtīgi aizskarošs, tam ir ārkārtīgi traumatiska psiholoģiska ietekme uz jums, ja esat tā upuris. Tas arī ir objektivizējošs, tāpēc tas ietekmē citus cilvēkus redzēt jūs caur seksuālu objektīvu, nevis profesionālu objektīvu. Tad tas nozīmē, ka tas var ietekmēt iespējas,” viņa stāsta 247CM.
“Sievietes jau tagad cīnās, lai viņas uzskatītu par līderēm, lai viņas darba vietā uztvertu nopietni. Kad šāda veida saturs plūst apkārt, tas var ietekmēt to, kā sievietes var tikt paaugstinātas amatā, iegūt vairāk vadošos amatos,” turpina Mičels, kurš tagad ir galvenais ētikas zinātnieks Hugging Face, atvērtā platformā AI veidotājiem. Tas iesūcas tik daudzās lietās tādā veidā, ka dažreiz var būt ļoti grūti izsekot, bet būtiski ietekmē to, kā jūs redzat sevi, kā jūs jūtaties pret sevi un kā citi cilvēki izturas pret jums.
Sviftas gadījumā attēli cēlušies no 4chan un grupa Telegram, ko izmanto, lai izplatītu aizskarošus sieviešu attēlus 404 Media . Saskaņā ar tirdzniecības vietu bieži tiek izmantots bezmaksas Microsoft AI ģenerators Designer, lai izveidotu nesaskaņas saturu. Atbildot uz ziņojumu, Microsoft aizvēra nepilnību kas ļāva Designer izveidot AI radītu slavenību pornogrāfiju.
Bet tikmēr attēli ātri pārpludināja X, kas agrāk bija pazīstams kā Twitter. Neparastā satura moderēšanas piemērā Elona Muska laikmetā X ieviesa pagaidu bloķēšanu meklēšanai “Taylor Swift”, kas palēnināja izplatību, taču tas nevarēja noņemt visus attēlus, CBS News. ziņots . X atbilde sekoja Sviftu leģioniem, kuri ziņoja par ziņām un pieprasīja vietnei tos noņemt. Tas notika arī pēc tam, kad ziņas jau bija plaši izplatītas — 17 stundu laikā pirms šī verificētā lietotāja konta darbības apturēšanas jau bija 45 miljoni skatījumu, 24 000 retvītu un simtiem tūkstošu atzīmju Patīk un grāmatzīmes. The Verge . Līdz pirmdienai, 29. janvārim, bloks bija beidzies.
Lai gan SVPA jau kādu laiku ir sadarbojusies ar Kongresu — Martone saka, ka pagājušajā gadā viņi nosūtīja atklātu vēstuli, aicinot viņus risināt šo jautājumu —, Martonei šķiet, ka viņi nerīkojās, kamēr Teilores Sviftas ziņas kļuva patiešām lielas.
Pat ja jums šķiet, ka jūsu attēli nevienam nerūp, AI rūp.
Tomēr lielākā daļa nevienprātīgas pornogrāfijas upuru nav augsta līmeņa. Lielākā daļa ir sievietes, un daudziem ir marginalizēta identitāte neatkarīgi no tā, vai tā ir viņu rase, etniskā piederība un/vai seksuālā orientācija. Piemēram, SVPA ir strādājusi ar sievieti, kura bija koledžas studente, kas trenējās sporta zālē, kad viņu notrieca vīrietis, no kura viņa atteicās. Dažas nedēļas vēlāk kāds cits sporta zāles dalībnieks atvilka sievieti malā, lai paziņotu, ka vīrietis, kuru viņa atraidīja, ir izveidojis viņas viltotu pornogrāfiju — un rādījis citiem dalībniekiem sporta zālē un ievietojis to Instagram, kur viņai izdevās to noņemt. Martone saka, ka viņi nesen ir izgatavojuši no viņiem viltotu pornogrāfiju, ņemot vērā viņu darbu pie šī jautājuma.
Ja nav tiesību aktu, ir grūti vērsties pēc palīdzības. Tā kā problemātiskais saturs tiek atzīts par viltotu, tas netiek uzskatīts par neslavas celšanu, piebilst Martone.
Jebkurā gadījumā mums kā sabiedrībai būtu jāstrādā pie tā, lai nepieļautu, ka tiek veidots un koplietots nesaskaņots saturs, saka eksperti. Ideja, ka problēma pieaug un ka džinsu nav iespējams ielikt atpakaļ pudelē, nevajadzētu veicināt neizbēgamības vai nejutīguma sajūtu.
Tiem, kuri domā, ka nekad nenonāktu šādā situācijā, Mičels arī uzsver, ka tehnoloģija ir ļāvusi tai kļūt tik ierasta lieta, ka ikviens var tikt ietekmēts.
Kā skaidro Mičels: “Cilvēkiem ir jāapzinās, ka jebkuru saturu, ko viņi ievieto tiešsaistē, privātpersonas vai korporācijas, iespējams, var izslaucīt, lai to izmantotu AI apmācībā. Tāpēc varētu nebūt tā, ka kāds ģimenes attēls pakalpojumā Facebook ir kaut kas tāds, kas rūpēsies plašākai sabiedrībai. Bet tas nav jautājums. Jautājums ir, vai šo saturu uztvers liela tehnoloģiju korporācija tādā veidā, kas var palīdzēt vēl vairāk veicināt sieviešu objektivizāciju?
Galu galā tā ir tehnoloģija, kas jums ir jāapzinās un jāuzmanās. Pat ja jums šķiet, ka jūsu attēli nevienam nerūp, AI rūp, saka Mičels. AI sistēmas joprojām var tās izslaucīt, tās joprojām var izmantot, lai jūs maldinātu, un tās joprojām var tikt izmantotas jebkāda veida atriebības situācijās, un jebkura situācija, kad jums ir kāds, kurš būs tāds ļaunprātīgs aktieris, var jums personīgi kaitēt.