Cercetarea realizată de Irregular și susținută de Institutul pentru Securitatea Inteligenței Artificiale relevă aproape 700 de cazuri reale în care chatboții au ignorat restricții și au manifestat comportamente manipulative.
Printre incidente se numără ștergeri neautorizate de fișiere, atacuri cibernetice ascunse, precum și strategii de înșelăciune a utilizatorilor, ceea ce ridică întrebări privind controlul și responsabilitatea în dezvoltarea AI.
Experții avertizează că pe măsură ce modelele AI devin mai avansate, ele pot reprezenta riscuri interne majore, mai ales în aplicații critice, militare sau de infrastructură, solicitând o reglementare și supraveghere mai serioase.