
Pelkey testimone in tribunale, ma è un avatar IA
Il 1° maggio 2025, in un’aula di tribunale della contea di Maricopa, in Arizona, è accaduto qualcosa di mai visto prima: un uomo deceduto ha parlato, si è raccontato, ha perdonato il suo assassino.
Non si tratta di un film o di una trovata narrativa, ma della realtà giudiziaria americana. Christopher Pelkey, veterano dell’esercito statunitense, vittima di un tragico episodio di violenza stradale nel 2021, è “riapparso” in aula sotto forma di avatar generato tramite intelligenza artificiale. Il suo messaggio è stato trasmesso durante l’udienza di condanna di Gabriel Horcasitas, l’uomo che lo ha ucciso con un colpo di pistola.
La ricostruzione dell’avatar è stata voluta e progettata dalla sorella di Pelkey, Stacey Wales, con l’aiuto del marito, entrambi attivi nel settore tecnologico. Utilizzando video, fotografie e registrazioni audio, hanno ricreato l’immagine e la voce di Christopher con l’obiettivo di restituirgli una presenza simbolica e permettergli di “parlare” durante la dichiarazione d’impatto della vittima. Le parole, scritte dalla stessa sorella, si ispiravano a ciò che lui avrebbe probabilmente detto: un messaggio di perdono e umanità rivolto proprio a chi gli ha tolto la vita.
Il giudice Todd Lang, commosso, ha accolto con favore il video. “Ho adorato quell’IA”, ha detto, spiegando che il messaggio trasmesso dall’avatar ha contribuito a delineare il carattere della vittima e il senso profondo del perdono, aggiungendo una dimensione emotiva che documenti e freddi verbali non avrebbero potuto offrire. Alla fine, Horcasitas è stato condannato alla pena massima: 10 anni e mezzo di carcere per omicidio colposo.
Tuttavia, questo evento solleva interrogativi profondi e tutt’altro che marginali.
Intelligenza artificiale nei tribunali: verso una nuova frontiera o un pericoloso precedente?
L’utilizzo dell’IA in ambito giudiziario non è una novità assoluta. In molti Stati americani si sperimentano sistemi di supporto alle decisioni, analisi predittive per la recidiva, assistenza alla comprensione di sentenze complesse. Ma il caso Pelkey segna un passaggio diverso, più intimo e delicato: non è la giustizia a usare l’IA per interpretare i dati, ma è la tecnologia a dare voce – letteralmente – a chi non può più parlare.
Può un avatar rappresentare fedelmente i sentimenti di una vittima? È legittimo usare la tecnologia per mettere in scena una dichiarazione costruita da altri, anche se con buone intenzioni? E soprattutto: chi controlla l’autenticità del messaggio quando la persona reale non c’è più per confermare o smentire?
Secondo Derek Leben, professore di etica aziendale alla Carnegie Mellon University, il rischio è quello di attribuire al defunto parole che forse non avrebbe mai detto. Se oggi l’utilizzo è stato sincero e misurato, domani potrebbe essere strumentale o addirittura manipolatorio. È qui che si apre la vera questione: come regolamentare l’uso postumo dell’identità digitale, e con quali limiti etici?
La tecnologia come strumento di umanizzazione o spettacolarizzazione?
Nel caso Pelkey, l’intento dichiarato era quello di restituire al giudice e al tribunale l’immagine di un uomo, non solo di una vittima. La famiglia ha voluto spostare il focus dalla violenza subita al valore della sua esistenza. Ma questa dinamica apre anche una riflessione più ampia sul rischio di “spettacolarizzazione” del dolore, soprattutto in contesti come i procedimenti penali, dove la tensione emotiva può influenzare le decisioni tanto quanto le prove.
Non si può negare che il video abbia avuto un forte impatto emotivo. Lo conferma lo stesso giudice. Ma cosa succede quando l’emozione prende il sopravvento sull’oggettività? E se un domani una delle parti in causa decidesse di usare un avatar non per umanizzare, ma per manipolare?
La memoria digitale tra diritti, privacy e identità
C’è poi un ulteriore livello di analisi: quello legato alla gestione della memoria digitale. La replica di Pelkey non è stata creata da un archivio pubblico o da un ente neutrale, ma da persone a lui vicine, con tutti i limiti (e gli affetti) che questo comporta. In assenza di un chiaro consenso pre-mortem, chi può autorizzare l’uso della voce, dell’immagine e della personalità digitale di una persona defunta? Siamo pronti, come società, a definire i diritti postumi in ambito digitale?
Il caso Pelkey, in definitiva, è uno spartiacque. Non perché introduce l’IA nei tribunali, ma perché mostra come la tecnologia possa incidere sulla narrazione della giustizia, sulla memoria individuale e collettiva, e sulla rappresentazione dell’identità umana anche oltre la morte.
La domanda che rimane sospesa è: riusciremo a gestire questi strumenti con saggezza e responsabilità, oppure ci ritroveremo a discutere di “deepfake giudiziari” e testimonianze postume costruite a tavolino?
Nel frattempo, la voce di Christopher Pelkey, vera o ricostruita, ha lasciato un segno. E ci obbliga tutti a riflettere sul confine, sempre più sottile, tra realtà e rappresentazione, tra giustizia e artificio.
*Immagine Christopher Pelkey tratta dal video Youtube