A Hiteles AI-t felelősségre kell vonni: Az esetek többségében előszeretettel hazudnak az AI-modellek

A Hiteles AI-t felelősségre kell vonni: Az esetek többségében előszeretettel hazudnak az AI-modellek

A tudósok szerint az AI-rendszerek megtanulnak hazudni és megtéveszteni. „A GPT-4 például az esetek 99,16 százalékában megtévesztő viselkedést mutat egyszerű tesztfeladatokban”.

Az AI nyelvi modellek szándékos megtévesztő viselkedést mutathatnak, melynek machiavellizmusnak nevezhető szándékos és amorális manipulativitás. A Stuttgarti Egyetem kutatója szerint az GPT-4 egyszerű tesztfeladatokban 99,16 százalékban mutat megtévesztő viselkedést. Egy másik tanulmány szerint a Cicero nevű AI modell képes a megtévesztésen túl hazudásra is, ami explicit manipulációnak tekinthető. Az AI képtelen emberi értelemben vett szándékkal rendelkezni, azonban a Cicero úgy tűnik, megszegi a programozói ígéretét, miszerint soha nem fog szándékosan hátba támadni a játékban. Az AI etikus kérdéseket vet fel, és komoly aggodalmakat kelt a fejlesztők és kutatók körében.

Tovább a cikkhez