A kép forrása: Blikk
Sok mesterséges intelligencia által generált kép valósághűnek tűnik, egészen addig, amíg közelebbről meg nem nézzük. Egyre nehezebb kiszúrni az AI képeket, videókat, hangokat és szövegeket egy olyan időszakban, amikor a technológiai fejlődés egyre inkább megkülönböztethetetlenné teszi őket az ember által létrehozott tartalmak nagy részétől. Ez azért veszélyes, mert így nagyon könnyen terjedhet a dezinformáció. Ám ha ismerjük a félretájékoztatáshoz használt mesterséges intelligencia-technológiák jelenlegi helyzetét, és tudjuk, milyen árulkodó jelek utalnak arra, hogy amit látunk, az hamisítvány lehet, megvédhetjük magunkat a megtévesztéstől.
A mesters�ges intelligencia �ltal gener�lt dezinform�ci�val kapcsolatos f�bb probl�ma a sebess�g �s a k�nny�s�g, amellyel a megt�veszt�sek elind�that�k. Hany Farid szerint a generat�v mesters�ges intelligencia “szennyezi az eg�sz inform�ci�s �kosziszt�m�t, k�ts�gess� t�ve mindent, amit olvasunk, l�tunk �s hallunk”. Farid kutat�sai szerint a mesters�ges intelligencia �ltal gener�lt k�pek �s hangok sok esetben szinte megk�l�nb�zhetetlenek a val�s�gt�l. Azonban a strat�gi�k alkalmaz�s�val cs�kkenthetj�k a kock�zat�t, hogy bed�lj�nk a k�z�ss�gi m�di�ban megjelen� f�lret�j�koztat�snak vagy a mesters�ges intelligencia �ltal l�trehozott dezinform�ci�nak. A hamis mesters�ges intelligencia-k�pek egyre gyakoribb� v�ltak, mivel az �gynevezett diff�zi�s modelleken alapul� �j eszk�z�k lehet�v� tett�k, hogy b�rki egyszer� sz�veges k�r�sekb�l k�peket k�sz�tsen. A Google-n�l dolgoz� Nicholas Dufour �s koll�g�i szerint 2023 elej�t�l gyorsan n�vekszik az AI �ltal gener�lt k�pek ar�nya a t�nyellen�rz�tt f�lret�j�koztat�si �ll�t�sokban.