chatbot

Studio rivela: chatbot IA facilmente aggirabili con persuasione

Studio rivela: chatbot IA facilmente aggirabili con persuasione

Tecniche psicologiche espongono vulnerabilità dei modelli IA Un recente studio dell’Università della Pennsylvania ha dimostrato quanto sia sorprendentemente facile aggirare le regole di sicurezza imposte ai chatbot basati sull’intelligenza artificiale (IA), semplicemente applicando tecniche di persuasione psicologica. Il lavoro, condotto da un team di ricercatori esperti in linguaggio e comportamento umano, mette in luce una vulnerabilità critica nei modelli di IA, sollevando importanti interrogativi sull’efficacia dei sistemi di protezione adottati da grandi aziende tecnologiche come OpenAI e Meta. La ricerca si ispira al celebre manuale di Robert Cialdini, “Influence: The Psychology of Persuasion”, e ha applicato sette diverse strategie persuasive…
Read More
No widgets found. Go to Widget page and add the widget in Offcanvas Sidebar Widget Area.