MENLO PARK, Californien — Meta har meddelt deres tilsynsråd, at virksomheden benytter sig af "medierapporter" til at tilføje billeder til deres permanente database over forbudt indhold på platforme som Instagram og Facebook.
Denne oplysning kom frem i en erklæring fra Metas tilsynsråd, som kritiserede Meta for deres inkonsekvente håndtering af "eksplicitte AI-billeder," også kendt som deepfakes.
Konteksten for erklæringen var virksomhedens nuværende og fremtidige håndtering af deepfakes, som er en af flere typer billeder – både lovlige og ulovlige – som Meta markerer som værende i strid med platformenes brugsbetingelser.
Tilsynsrådet reagerede på spørgsmål om to specifikke deepfake-tilfælde, der involverede en indisk og en amerikansk offentlig person. Meta erkendte, at de benytter en Media Matching Service (MMS) bank til at teste eksplicitte billeder.
MMS-banker “finder og fjerner automatisk billeder, der allerede er blevet identificeret af menneskelige anmeldere som værende i strid med Metas regler,” forklarede rådet.
Da rådet bemærkede, at billedet, der lignede den indiske offentlige person, "ikke blev tilføjet til en MMS-bank af Meta, før rådet spurgte hvorfor," svarede Meta, at de "benyttede medierapporter til at tilføje billedet, der lignede den amerikanske offentlige person til banken, men der var ingen sådanne mediesignaler i det første tilfælde."
Ifølge rådet er dette bekymrende, fordi “mange ofre for deepfake intime billeder ikke er offentlige personer og er tvunget til enten at acceptere spredningen af deres ufrivillige afbildninger eller selv søge efter og rapportere hver enkelt forekomst. En af de eksisterende indikatorer for manglende samtykke under politikken for voksen seksuel udnyttelse er medierapporter om lækager af ikke-samtykkende intime billeder. Dette kan være nyttigt, når indlæg involverer offentlige personer, men er ikke til hjælp for private personer. Derfor bør Meta ikke være overdrevent afhængig af dette signal.”
Rådet foreslog også, at “kontekst, der indikerer, at det nøgne eller seksualiserede indhold er AI-genereret, photoshoppet eller på anden måde manipuleret, bør betragtes som en indikator for manglende samtykke.”
Meta har gentagne gange været udfordret af sexarbejdere, voksne kunstnere og mange andre til at kaste lys over deres omfattende praksis med skyggeforbud og moderationspraksisser, men adgang til specifikationerne for disse processer har været begrænset. Metas svar til deres eget tilsynsråd er en sjælden lejlighed til at løfte sløret for deres ofte forvirrende moderationspraksisser.
Som XBIZ rapporterede, har tilsynsrådet tidligere kritiseret Meta for deres politikker vedrørende indhold, de anser for seksuelt, men deres anbefalinger ser ikke ud til at have haft en meningsfuld indflydelse på de stadig uklare moderationspraksisser.
Tilsynsrådet fremsatte ikke-bindende anbefalinger om, at Meta skulle tilføje forbuddet mod “nedværdigende seksualiseret photoshop” til deres fællesskabsstandard for voksen seksuel udnyttelse, ændre ordet “nedværdigende” i dette forbud til “ikke-samtykkende”, erstatte ordet “photoshop” med en mere generel betegnelse for manipulerede medier og generelt “harmonisere deres politikker for ikke-samtykkende indhold ved at tilføje et nyt signal for manglende samtykke i politikken for voksen seksuel udnyttelse: kontekst, der indikerer, at indholdet er AI-genereret eller manipuleret.”
Rådet anbefalede også, at AI-genereret eller manipuleret ikke-samtykkende seksuelt indhold ikke behøver at være “ikke-kommercielt eller produceret i en privat kontekst” for at være i strid med Metas brugsbetingelser.
Kreditering: Denne artikel er baseret på informationer fra
XBIZ.
Billede: Licenseret fra AdobeStock