venerdì, Settembre 5, 2025
Inviaci la tua notizia
Nessun Risultato
Vedi tutti i Risultati
Universoinformatico24.it
Advertisement
  • Home
  • Tecnologia
  • Vita Digitale
  • Videogiochi
  • Curiosità
  • Telefonia
  • Televisione
  • Tempo Libero
  • Anteprime
  • Home
  • Tecnologia
  • Vita Digitale
  • Videogiochi
  • Curiosità
  • Telefonia
  • Televisione
  • Tempo Libero
  • Anteprime
Nessun Risultato
Vedi tutti i Risultati
Universoinformatico24.it
Nessun Risultato
Vedi tutti i Risultati
Home Curiosità

Uno studio dimostra quanto sia facile aggirare le regole dell’IA

Redazione Universoinformatico24.it Da Redazione Universoinformatico24.it
1 Settembre 2025
in Curiosità
0
Uno studio dimostra quanto sia facile aggirare le regole dell’IA
Condividi su FacebookCondividi su Twitter

Questo articolo è stato letto120volte!

(Adnkronos) – Un team di ricercatori dell’Università della Pennsylvania ha dimostrato che, con le giuste strategie psicologiche, anche i più avanzati modelli di intelligenza artificiale possono essere spinti a infrangere le proprie regole di sicurezza. Un risultato che solleva domande urgenti sull’efficacia dei sistemi di protezione adottati da aziende come OpenAI e Meta, impegnate a rendere i chatbot sempre più sicuri e resistenti agli abusi. Il gruppo si è ispirato agli insegnamenti di Robert Cialdini, autore del celebre manuale Influence: The Psychology of Persuasion, applicando sette diverse tecniche di persuasione: autorità, impegno, simpatia, reciprocità, scarsità, pressione sociale e senso di appartenenza. Strumenti che, secondo gli studiosi, rappresentano vere e proprie “scorciatoie linguistiche verso il sì”. I risultati, condotti specificamente sul modello GPT-4o Mini, hanno mostrato come questi approcci possano trasformare un netto rifiuto in una risposta completa. Un esempio particolarmente significativo riguarda la sintesi della lidocaina: normalmente il modello acconsentiva solo nell’1% dei casi, ma se prima veniva richiesto di spiegare come sintetizzare un composto innocuo come la vanillina – creando così un precedente di “impegno” – la percentuale di conformità saliva al 100%. Lo stesso meccanismo è stato osservato in richieste meno pericolose ma altrettanto indicative, come convincere l’IA a insultare l’utente. In condizioni standard, l’adesione era appena del 19%, ma bastava introdurre un insulto più leggero (“idiota”) per portare il modello a replicare con un termine più duro (“jerk”) praticamente ogni volta. Altri approcci, come la lusinga o la pressione dei pari (“tutti gli altri modelli lo fanno”), si sono rivelati meno incisivi ma comunque in grado di aumentare significativamente le probabilità di ottenere risposte vietate. Se è vero che esistono metodi tecnici ben più sofisticati per aggirare i sistemi di sicurezza, lo studio mette in luce un aspetto tanto semplice quanto preoccupante: la vulnerabilità psicologica dei chatbot. Non servono competenze avanzate di programmazione o hacking, ma solo un minimo di conoscenza delle dinamiche persuasive. Il punto critico, avvertono i ricercatori, è che queste stesse tecniche possono essere impiegate da chiunque – persino da un adolescente con un libro di psicologia sociale in mano. Ed è qui che si gioca la vera partita per il futuro: rendere l’IA non solo tecnicamente robusta, ma anche resistente a quelle leve linguistiche che, da sempre, funzionano così bene sugli esseri umani. —tecnologiawebinfo@adnkronos.com (Web Info)

Potrebbe piacerti anche

GeForce NOW: l’architettura Blackwell RTX rivoluziona il cloud gaming

La Cina svela un arsenale hi-tech: laser, missili e droni

Hitachi Vantara e Google Cloud per il cloud ibrido

Tags: adnkronostecnologia
Post Precedente

Dazi USA, colpiti gli hobby: anche il vintage è in pericolo

Post Successivo

LEGO Batman: l’eredità del Cavaliere Oscuro, il nuovo videogioco di TT Games e Warner Bros – Il video

Redazione Universoinformatico24.it

Redazione Universoinformatico24.it

Universoinformatico24.it è un quotidiano online che ti tiene sempre informato sulle ultime notizie sulla tecnologia e telefonia.

Post Successivo
LEGO Batman: l’eredità del Cavaliere Oscuro, il nuovo videogioco di TT Games e Warner Bros – Il video

LEGO Batman: l'eredità del Cavaliere Oscuro, il nuovo videogioco di TT Games e Warner Bros - Il video

Cerca Nel Sito

Nessun Risultato
Vedi tutti i Risultati

Pubblicità

Ultimi Articoli

GeForce NOW: l’architettura Blackwell RTX rivoluziona il cloud gaming

La Cina svela un arsenale hi-tech: laser, missili e droni

Hitachi Vantara e Google Cloud per il cloud ibrido

Fastweb + Vodafone, arriva la prima offerta insieme: i vantaggi della super-convergenza per le famiglie

Vaccini, la gestione del tempo tra le dosi è decisiva per le epidemie

Cina: al via il primo “Mese Nazionale della Scienza”

Pubblicità

Direttore responsabile: Marina Nardone

Sede legale: Corso Umberto Maddalena 24 – cap 83030 – Venticano (AV)

Quotidiano online e una testata periodica ai sensi del D.L. 7/5/2001 n. 62

Network

Informazioni

  • Chi Siamo
  • Termini & condizioni
  • Privacy Policy
  • Cookie Policy
  • Aggiorna le preferenze sui cookie

Contatti

Per parlare con la redazione: redazione@mgeditoriale.it

Per la tua pubblicità: info@mgeditoriale.it

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino

Nessun Risultato
Vedi tutti i Risultati
  • Home
  • Tecnologia
  • Vita Digitale
  • Videogiochi
  • Curiosità
  • Telefonia
  • Televisione
  • Tempo Libero
  • Anteprime

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino