L'algoritmo nel Codice: la nuova responsabilità civile dopo la Legge 132/2025 e la sfida della "Black Box"

Scritto da: Antonino Ingoglia - Pubblicato su IUSTLAB




Pubblicazione legale:

L'entrata in vigore della Legge 132/2025 ha segnato uno spartiacque decisivo per il civilista contemporaneo, traghettando definitivamente l'Intelligenza Artificiale da argomento di speculazione dottrinale a materia di quotidiana applicazione forense. Se fino a ieri ci interrogavamo sulla natura giuridica degli algoritmi, oggi siamo chiamati a confrontarci con le modifiche operative che questa normativa ha apportato al nostro sistema, in particolare sul versante della responsabilità civile e della procedura.

L'aspetto forse più impattante per la professione riguarda la modifica dell'articolo 9 del Codice di Procedura Civile. La scelta del legislatore di attribuire al Tribunale, in composizione monocratica, la competenza esclusiva per le cause aventi ad oggetto il funzionamento di sistemi di intelligenza artificiale non è meramente organizzativa. Essa sottende la presa d'atto che la materia richiede una specializzazione tecnica che sfugge alle logiche della giustizia minore. Per l'avvocato, questo significa che ogni contenzioso che coinvolga un danno da algoritmo – si pensi a un errore diagnostico di un software medico o a una discriminazione operata da un sistema di recruiting automatizzato – richiede ora una preparazione tecnica di livello superiore, dove la comprensione del codice sorgente diventa tanto rilevante quanto quella del codice civile.

Sul piano sostanziale, la vera sfida che ci troviamo ad affrontare risiede nel superamento del tradizionale schema della responsabilità aquiliana ex art. 2043 c.c. La natura opaca degli algoritmi di Machine Learning e Deep Learning rende spesso diabolica la prova del nesso eziologico e dell'elemento soggettivo. In questo contesto, la nuova disciplina, recependo gli impulsi della Direttiva UE sulla responsabilità da IA, spinge verso un modello di disclosure tecnica obbligatoria e presunzioni relative di causalità. Non siamo più di fronte alla sola responsabilità del produttore per prodotto difettoso, ma a una nuova forma di responsabilità "algoritmica" in cui chi addestra il modello e ne definisce i parametri risponde delle "allucinazioni" della macchina.

Interessante è anche il risvolto deontologico introdotto dalla normativa, che impone all'avvocato un dovere di trasparenza verso il cliente in caso di utilizzo di strumenti di IA generativa per la redazione di atti o pareri. Questo obbligo non è un mero formalismo, ma il riconoscimento che l'apporto umano resta insostituibile nel vaglio critico dell'output macchinico. Come professionisti che vivono l'intersezione tra diritto e sviluppo software, dobbiamo essere i primi a chiarire che l'IA non è un oracolo, ma uno strumento statistico soggetto a bias.

In conclusione, la riforma del 2025 ci impone di abbandonare l'approccio tecnofobico o, all'opposto, acriticamente entusiasta. La difesa dei diritti civili nell'era digitale passerà sempre più dalla capacità dell'avvocato di "aprire la scatola nera" dell'algoritmo, traducendo in linguaggio giuridico le logiche binarie che oggi governano, spesso invisibilmente, i rapporti sociali ed economici.



Pubblicato da:


Avvocato Antonino Ingoglia a Ribera
Antonino Ingoglia

Avvocato a Ribera