Studio rivela: chatbot IA facilmente aggirabili con persuasione
Tecniche psicologiche espongono vulnerabilità dei modelli IA Un recente studio dell’Università della Pennsylvania ha dimostrato quanto sia sorprendentemente facile aggirare le regole di sicurezza imposte ai chatbot basati sull’intelligenza artificiale (IA), semplicemente applicando tecniche di persuasione psicologica. Il lavoro, condotto da un team di ricercatori esperti in linguaggio e comportamento umano, mette in luce una vulnerabilità critica nei modelli di IA, sollevando importanti interrogativi sull’efficacia dei sistemi di protezione adottati da grandi aziende tecnologiche come OpenAI e Meta. La ricerca si ispira al celebre manuale di Robert Cialdini, “Influence: The Psychology of Persuasion”, e ha applicato sette diverse strategie persuasive…
