Meta heeft een systeem bedacht om verborgen signalen, watermerken dus, te integreren in door AI gegenereerde audiofraementen. Wat helpen kan om online te ontdekken welke dontent door AI aangemaakt werd. De tool, AudioSeal, is de eerste die haarfijn kan zeggen welke bits audio in bijvoorbeeld een uur lange podcast door AI aangemaakt werden.
Een stap voorwaarts dus in de strijd tegen fake news, maar ook tegen fraude door het klonen van een stem. Dat deze technologie nodig is, mag bijvoorbeeld blijken uit het feit dat kwaadwillenden al via generatieve AI deepfakes in audio gemaakt hebben vande stem van Joe Biden. Scammers hebben deepfakes gebruikt om hun slachtoffers te chanteren, zo merkt MIT op.
Deze technologie zou sociale mediabedrijven kunnen helpen om ongewenste content op te sporen en te verwijderen. Maar het lijkt erop dat dit nog niet zo snel gaat gebeuren: Meta heeft gezegd dat het momenteel nog niet van plan is om de watermerken toe te voegen aan audio die met zijn eigen AI-tools gegenereerd werd.
Er is helaas ook nog geen industriestandaard uitgewerkt - en het zou zelfs eigenlijk heel gemakkelijk zijn om met dat watermerk te sjoemelen, door bijvoorbeeld het watermerk te verwijderen. Juich dus niet te vroeg victorie!
https://slashdot.org/story/24/06/18/221204/meta-has-created- ...
https://www.technologyreview.com/2024/06/18/1094009/meta-has ...
https://github.com/facebookresearch/audioseal
|