Kínai katonai fejlesztések: mesterséges intelligencia tolvajlásban

Kínai kutatók katonai mesterséges intelligenciát hoztak létre a Meta nyílt forráskódú Llama AI modellje alapján, és ezzel megsértették a Facebook anyavállalat követelményeit. A nyílt forráskódú mesterséges intelligencia modellek veszélyeiről komoly vita zajlik. Ez a mostani eset újabb adalék azok érveihez, akik szerint e szoftverplatformoknak hiába kellene a békés fejlődést szolgálniuk, ha van akiket ez nem érdekel.

Hogyan ismerjük fel könnyedén a mesterséges intelligencia által generált képeket az interneten: 5 hatásos tipp

Sok mesterséges intelligencia által generált kép valósághűnek tűnik, egészen addig, amíg közelebbről meg nem nézzük. Egyre nehezebb kiszúrni az AI képeket, videókat, hangokat és szövegeket egy olyan időszakban, amikor a technológiai fejlődés egyre inkább megkülönböztethetetlenné teszi őket az ember által létrehozott tartalmak nagy részétől. Ez azért veszélyes, mert így nagyon könnyen terjedhet a dezinformáció. Ám ha ismerjük a félretájékoztatáshoz használt mesterséges intelligencia-technológiák jelenlegi helyzetét, és tudjuk, milyen árulkodó jelek utalnak arra, hogy amit látunk, az hamisítvány lehet, megvédhetjük magunkat a megtévesztéstől.