HTCinside


Microsoft kunngjør videoautentisering for å identifisere dype falske

For å motvirke spredning avdype forfalskninger, har Microsoft lansert et nytt videoautentiseringsverktøy som kan brukes til å analysere et stillbilde eller video for å bestemme en prosentvis sannsynlighet for at et medium har blitt kunstig manipulert.

Når det gjelder en video, uttalte Microsoft at denne prosentandelen kunne gis i sanntid for hvert bilde mens videoen spilles av. Oppdager blandingslinjen av dype, subtile gråtoner eller blekende elementer som kanskje ikke er synlige for det menneskelige øyet.

Deepfakes eller syntetiske medier kan være bilder, videoer eller lydfiler som er manipulert av kunstig intelligens (AI). Å oppdage dype forfalskninger som er viktig i kommende valg i USA, ifølge Microsoft.

Teknologien ble laget ved hjelp av et offentlig datasett fra Face Forensic ++. Microsoft sa at det ble testet med DeepFake Detection Challenge-datasettet, som antas å være den ledende modellen. å trene og teste innkommende forfalskningsdeteksjonsteknologier.

'Vi forventer at metoder for generering av syntetiske medier vil fortsette å vokse i kompleksitet. Siden alle AI-deteksjonsmetoder har feilrater, må vi forstå og være forberedt på å reagere på dyptliggende forfalskninger som går gjennom deteksjonsmetoder.» sa selskapet i et blogginnlegg.

'I det lange løp må vi derfor se etter sterkere måter å opprettholde og sertifisere ektheten til nyhetsartikler og andre medier.'

Med noen få tilgjengelige verktøy har Microsoft også introdusert en ny teknologi som kan oppdage tuklet innhold og sikre at mediene du ser på er ekte.

Teknologien består av to komponenter. Det første er et verktøy innebygd i Microsoft Azure som gjør det mulig for en innholdsprodusent å legge til digitale hasher og sertifikater til innhold.

'Hashes og sertifikater lever med innhold som metadata, uansett hvor det er online,' sa Microsoft.

Den andre er en leser som kan inkluderes i en nettleserutvidelse som verifiserer sertifikater og sammenligner hashes mot treff for å fastslå ektheten.

Microsoft har også inngått samarbeid med AI Foundation i sin dype falske kamp. Som en del av partnerskapet vil begge parter gi videoautentisering til organisasjoner som er involvert i den demokratiske prosessen, inkludert nyhetsorganisasjoner og politiske kampanjer, gjennom stiftelsens Reality Defender 2020-initiativ.

Videoautentiseringen vil i utgangspunktet kun være tilgjengelig gjennom initiativet.

Et annet partnerskap med et konsortium av medieselskaper kjent som Project Origin tester Microsofts autentisitetsteknologi. Et initiativ fra flere utgivere og sosiale medieselskaper, Trusted News Initiative, gikk også med på å samarbeide med Microsoft for å teste teknologien deres.

University of Washington, In-House Counterfeit Detection Sensitivity og USA Today har også slått seg sammen med Microsoft for å forbedre mediekunnskapen.

'Ved å forbedre mediekunnskapen kan folk eliminere feilinformasjon basert på virkelige hendelser og håndtere risikoen for billige og dype forfalskninger,' sa Microsoft. 'Å kjenne media kan tillate oss alle å tenke kritisk om mediekonteksten og bli mer engasjerte borgere mens vi nyter satire og parodi.'

Som en del av dette partnerskapet vil det være en offentlig kunngjøringskampanje som vil invitere folk til å 'pause for refleksjon' og bekrefte at informasjonen kommer fra en anerkjent nyhetsorganisasjon før de deler eller promoterer den. på sosiale medier før valget.

Partiene lanserte også et spørreskjema for amerikanske velgere for å lære mer om syntetiske medier.