A kép forrása: Dívány
Ez a csalástípus egyre népszerűbb lesz, de nagyon könnyű lenne megelőzni.
A csalók akár tíz másodpercnyi hanganyaggal is visszaélhetnek, így fontos óvintézkedéseket tenni a hangtalálmányok védelme érdekében. A mesterséges intelligencia által létrehozott deepfake-videók és hangok komoly biztonsági kihívást jelentenek, és arra is figyelni kell, hogy az MI ne lehessen felhasználva csalásra. A hangazonosításon alapuló rendszerek elleni védekezésre is oda kell figyelni, illetve fontos, hogy ne osszuk meg hanganyagainkat ismeretlenekkel vagy közösségi oldalakon. A csalás elleni védekezés fontosságára hívja fel a figyelmet a cikk, valamint említést tesz egy új történeteket bemutató kötetről, amely a múlt századi Magyarországot mutatja be.