Chi paga i danni quando un sistema di intelligenza artificiale non funziona? Questa domanda si impone non appena si parli di tecnologia e della necessità di regolarla. La responsabilità civile, infatti, delimita l'agire di chi crea, sviluppa, usa e gode dell'innovazione. La risposta è complessa, come complessa è l'IA, e presuppone un attento inquadramento del problema nel sistema normativo e una riflessione rispetto alle funzioni delle regole di responsabilità. Partendo dalla definizione, l'autore mostra come sia impossibile procedere con un approccio omogeneo, regolando allo stesso modo un'auto a guida autonoma, un robot sociale, un esoscheletro, un large language model. Esclude la possibilità di considerare l'IA un «agente morale» responsabile e svolge una riflessione critica sul sistema normativo vigente, a partire dalla disciplina europea sulla responsabilità del produttore, incapace di indurre investimenti in sicurezza ex ante e di assicurare il risarcimento della vittima ex post. Nella medesima prospettiva, ricostruisce il quadro normativo emergente a livello europeo, identificando le criticità prospettiche e le aporie che rischiano di inficiare la nuova frontiera del diritto dell'Unione. Delinea, dunque, possibili alternative e soluzioni ermeneutiche attente al piano funzionale e coerenti con l'impianto sistematico della responsabilità.
Intelligenza artificiale e responsabilità civile. Problema, sistema, funzioni
| Titolo | Intelligenza artificiale e responsabilità civile. Problema, sistema, funzioni |
| Autore | Andrea Bertolini |
| Argomento | Law, Economics and Politics Law |
| Collana | Itinerari di diritto privato |
| Editore | Il mulino |
| Formato |
|
| Pagine | 328 |
| Pubblicazione | 2025 |
| ISBN | 9788815391650 |
|
Acquistabile con Carta del docente o Carta Cultura Giovani |


