A settembre 2025, OpenAI ha fatto una rivelazione che ha scosso la comunità tech globale: ChatGPT monitora attivamente le conversazioni degli utenti e segnala contenuti potenzialmente criminali alle forze dell'ordine.
La notizia, emersa quasi casualmente in un post del blog aziendale, ha rivelato che quando i sistemi automatici rilevano utenti che "stanno pianificando di danneggiare altri", le conversazioni vengono instradate verso pipeline specializzate dove un piccolo team addestrato sulle politiche d'uso le esamina. Se i revisori umani determinano che esiste una "minaccia imminente di grave danno fisico ad altri", il caso può essere riferito alle forze dell'ordine¹.

ChatGPT ti invita cordialmente a condividere i tuoi pensieri più intimi. Tranquillo, è tutto confidenziale... più o meno.
Fonti:
Quando parliamo con uno psicologo, un avvocato, un medico o un sacerdote, le nostre parole sono protette da un meccanismo legale consolidato: il segreto professionale. Questo principio, radicato in secoli di tradizione giuridica, stabilisce che certe conversazioni sono inviolabili, anche di fronte a indagini penali.
Caratteristiche del segreto professionale tradizionale:
Contrariamente alla percezione comune, il segreto professionale non è assoluto. Esistono eccezioni ben definite che variano per categoria professionale:
Per gli Avvocati (Art. 28 Codice Deontologico Forense): La divulgazione è consentita quando necessaria per:
Esempio critico: Se un cliente dichiara all'avvocato che intende commettere un omicidio, tra la tutela del diritto di difesa e la tutela del bene della vita deve prevalere quest'ultimo e l'avvocato è svincolato dal segreto².
Per gli Psicologi (Art. 13 Codice Deontologico): Il segreto può essere violato quando:
Distinzione importante: Lo psicologo privato ha maggiore discrezionalità rispetto a quello pubblico, che come pubblico ufficiale ha obblighi di denuncia più stringenti³.
Fonti:
ChatGPT opera in una zona grigia completamente diversa:
Mancanza di privilegio legale: Le conversazioni con l'IA non godono di alcuna protezione legale. Come ha ammesso Sam Altman, CEO di OpenAI: "Se parli con un terapista o un avvocato o un medico di quei problemi, c'è privilegio legale per questo. C'è riservatezza medico-paziente, c'è riservatezza legale, qualunque cosa. E non abbiamo ancora risolto questo per quando parli con ChatGPT"².
Processo automatizzato: A differenza di un professionista umano che valuta caso per caso, ChatGPT utilizza algoritmi per identificare contenuti "problematici", rimuovendo il giudizio umano qualificato dalla fase iniziale di screening.
Fonti:
La situazione crea un paradosso preoccupante. Milioni di persone utilizzano ChatGPT come confidente digitale, condividendo pensieri intimi, dubbi, paure e persino fantasie criminali che non condividerebbero mai con un essere umano. Come riporta Sam Altman: "Le persone parlano delle cose più personali della loro vita a ChatGPT. Le persone lo usano - specialmente i giovani - come terapista, life coach"⁴.
Il rischio di autocensura criminale: La consapevolezza che le conversazioni possono essere monitorate potrebbe paradossalmente:
Un aspetto cruciale evidenziato dai critici riguarda la competenza di chi prende le decisioni finali.
I professionisti umani hanno:
Il sistema ChatGPT opera con:
Esempio problematico: Come distingue un algoritmo tra:
Fonti:
Fonti:
L'ammissione di OpenAI crea una contraddizione stridente con le sue posizioni precedenti. L'azienda ha resistito fermamente alle richieste di dati degli utenti nelle cause legali, citando la protezione della privacy. Nel caso contro il New York Times, OpenAI ha argomentato strenuamente contro la divulgazione dei log delle chat per proteggere la privacy degli utenti⁴.
L'ironia della situazione: OpenAI difende la privacy degli utenti nei tribunali mentre ammette simultaneamente di monitorare e condividere dati con le autorità esterne.
La situazione si è complicata ulteriormente con l'ordine del tribunale che richiede a OpenAI di conservare tutti i log di ChatGPT indefinitamente, incluse le chat private e i dati API. Questo significa che conversazioni che gli utenti credevano temporanee sono ora permanentemente archiviate⁵.
Fonti:
Come suggerito da Sam Altman, potrebbe essere necessario sviluppare un concetto di "privilegio AI" - una protezione legale simile a quella offerta ai professionisti tradizionali. Tuttavia, questo solleva domande complesse:
Opzioni regolatorie possibili:
IA "Compartimentata":
Approccio "Tripartito":
Lezioni da altri settori:
Fonti:
Il caso OpenAI stabilisce precedenti importanti per tutto il settore dell'intelligenza artificiale:
Per le aziende che sviluppano IA conversazionale:
Per le aziende che utilizzano IA:
Il dilemma centrale: Come bilanciare la prevenzione di crimini reali con il diritto alla privacy e alla confidenzialità digitale?
La questione non è meramente tecnica ma tocca principi fondamentali:
La rivelazione di OpenAI segna un momento spartiacque nell'evoluzione dell'intelligenza artificiale, ma la questione non è se la segnalazione sia giusta o sbagliata in assoluto: è come renderla efficace, equa e rispettosa dei diritti.
La necessità è reale: Minacce concrete di violenza, pianificazioni di attentati o altri crimini gravi richiedono intervento. Il problema non è se segnalare, ma come farlo in modo responsabile.
Le differenze fondamentali da risolvere:
Formazione e Competenza:
Trasparenza e Controllo:
Proporzionalità:
Per le aziende del settore, la sfida è sviluppare sistemi che proteggano efficacemente la società senza diventare strumenti di sorveglianza indiscriminata. La fiducia degli utenti è essenziale, ma deve coesistere con la responsabilità sociale.
Per gli utenti, la lezione è duplice:
Il futuro dell'IA conversazionale richiede un nuovo framework che:
La domanda giusta non è se le macchine dovrebbero segnalare crimini, ma come possiamo fare in modo che lo facciano (almeno) con la stessa saggezza, formazione e responsabilità dei professionisti umani.
L'obiettivo non è tornare a un'IA "cieca" ai pericoli reali, ma costruire sistemi che combinino l'efficienza tecnologica con l'etica e la competenza umana. Solo così potremo avere il meglio di entrambi i mondi: sicurezza e diritti individuali protetti.