Per la Cassazione entrambi i coniugi devono contribuire al pagamento del mutuo. Il coniuge che ha pagato il mutuo per l’intero ha diritto alla restituzione della metà
Il trasferimento infraquinquennale dell’immobile in favore di un terzo non comporta la decadenza dai benefici “prima casa” se avviene nell’ambito degli accordi di separazione o divorzio
Corte di Giustizia dell'Unione Europea: le tutele della lavoratrice autonoma che cessa l'attività per la nascita del figlio
La prova della costituzione di una famiglia di fatto fa venir meno il diritto all’assegno divorzile e può essere data con la deposizione di un investigatore privato
Diverso è il regime di trascrizione dei matrimoni omosessuali a seconda che riguardino anche cittadini italiani o solo cittadini stranieri
Scioglimento dell’unione civile: la comunicazione all’Ufficiale dello Stato Civile non è condizione di procedibilità del ricorso giudiziale
Lo Stato è responsabile della mancata trascrizione nei registri dello stato civile dei matrimoni omosessuali di cittadini italiani celebrati all’estero
Nel contrasto tra i genitori sulla scelta della scuola pubblica o privata decide il Giudice senza ascoltare il minore
Il Tribunale per i Minorenni italiano è competente nei procedimenti di decadenza della responsabilità genitoriale su un minore straniero residente abitualmente in Italia
Nei procedimenti de potestate la difesa tecnica delle parti è solo eventuale e la tutela del superiore interesse del minore è garantita dalla partecipazione del PM
Il Tribunale dei Minorenni di Caltanissetta utilizza l’art. 25 del RD 1404/34 per disporre il monitoraggio di un giovane utilizzatore di wa anche al fine di verificare le capacità educative e di vigilanza della madre
Il collocamento di un minore in struttura si attua attraverso l’esecuzione forzata degli obblighi di fare
L’ex marito che non paga l’assegno di mantenimento e minaccia il coniuge da cui ha divorziato va condannato al risarcimento dei danni morali
Sulla decadenza dalla responsabilità genitoriale decide il Tribunale (per i minorenni o ordinario) adito per primo
Per la Cassazione l’omesso ascolto della minore dodicenne determina la nullità del procedimento avente ad oggetto il riconoscimento di paternità
Ammissibilità dell'impugnazione del riconoscimento del figlio naturale tra favor veritatis e interesse del minore
Un’interpretazione costituzionalmente orientata dell’art. 291 c.c. permette di ridurre il divario di età previsto per l’adozione di maggiorenni
Il decreto di rimpatrio del minore sottratto (Convenzione dell’Aja 25 ottobre 1980) è revocabile in caso di sopravvenuto mutamento della situazione di fatto che lo ha originato
Accesso agli atti: il Consiglio di Stato rileva un conflitto in seno alle sue Sezioni e rimette la questione all’Adunanza plenaria
L’abbandono della casa coniugale non è motivo di addebito della separazione se il matrimonio è già in crisi
Irrilevante ai fini dell’assegno di mantenimento un aumento solo temporaneo dei redditi del marito separato
Provvedimenti in tema di mantenimento del coniuge e dei figli: quali limiti per la loro impugnabilità in Cassazione?
Condannato a risarcire il danno il padre che ostacola il rapporto tra il figlio e la moglie separata (che però non è senza colpe, e ne paga le conseguenze)
Deroghe all'affido condiviso per i figli nati fuori dal matrimonio: quando è possibile ridurre il diritto/dovere alla bigenitorialità
Il diritto del genitore al rimborso delle spese di mantenimento del figlio da parte dell’altro genitore inadempiente
L’assegnatario della casa familiare è tenuto al pagamento di tutte le spese correlate al suo utilizzo
Il minore è parte sostanziale del processo che lo riguarda ed ha diritto ad esser ascoltato, ma non è necessaria la sua partecipazione formale al processo
La residenza abituale dei minori, da valutare ai fini della giurisdizione, è un quid facti che dipende anche da indici di natura proiettiva e non muta in caso di temporaneo soggiorno in un altro Paese
La validità del vitalizio alimentare è condizionata dalla sussistenza dell’alea (che dev’essere valutata in concreto)
Secondo il GT del Tribunale di Vercelli può disporsi l’inserimento del beneficiario di ADS in una residenza sanitaria assistenziale nonostante il suo dissenso
Nessun obbligo di pagare le rette dei malati di Alzheimer per i familiari: lo conferma il Tribunale di Monza
Amministrazione di sostegno e capacità di donare: il G.T. del Tribunale di Vercelli solleva questione di legittimità costituzionale
La diffamazione via internet integra l’aggravante dell’aver commesso il fatto col mezzo della stampa o con qualsiasi altro mezzo di pubblicità
Per la Cassazione non viola il diritto di difesa la nomina del difensore di fiducia effettuata dall’amministratore di sostegno espressamente autorizzato dal Giudice Tutelare
L’ex marito che non paga l’assegno di mantenimento e minaccia il coniuge da cui ha divorziato va condannato al risarcimento dei danni morali
Obbligo informativo del medico, danno da “nascita indesiderata” e possibile conflitto di interessi tra genitori e figlio minore
Per la Cassazione non viola il diritto di difesa la nomina del difensore di fiducia effettuata dall’amministratore di sostegno espressamente autorizzato dal Giudice Tutelare
Per la Cassazione al prodigo, anche se non infermo di mente, può essere nominato un amministratore di sostegno, ma per il Tribunale di Modena non è così
Non può pronunciarsi la decadenza dalla responsabilità genitoriale nonostante le risultanze della CTU (favorevoli al genitore) e senza motivare adeguatamente in ordine all’interesse del minore
La Corte Costituzionale: il porto d’armi è un’eccezione al divieto di portare le armi, non un diritto
Mediazione obbligatoria, è dovuto il compenso al difensore della parte ammessa al gratuito patrocinio?
Protezione per lo straniero con deficit cognitivo che si è integrato nella struttura di accoglienza in Italia
La prova del danno è indispensabile per il risarcimento del pregiudizio da responsabilità genitoriale
La prosecution del mercy killing e del suicidio assistito nel sistema inglese: una questione di public interest?
Obbligo informativo del medico, danno da “nascita indesiderata” e possibile conflitto di interessi tra genitori e figlio minore
La prosecution del mercy killing e del suicidio assistito nel sistema inglese: una questione di public interest?
Il valore preminente della disabilità in tema di mantenimento del figlio maggiorenne portatore di handicap
Nessun obbligo di pagare le rette dei malati di Alzheimer per i familiari: lo conferma il Tribunale di Monza
Nessun obbligo di pagare le rette dei malati di Alzheimer per i familiari: lo conferma il Tribunale di Monza
In tema di prova della simulazione della donazione e di condizione di procedibilità del giudizio di divisione
L’acquisto del legato, con godimento dei beni, non implica la rinuncia a far valere i diritti del legittimario
L’azione del legatario in sostituzione di legittima con facoltà di chiedere il supplemento è qualificabile come actio in personam e non come azione di riduzione
Sottrazione di un minore dalla casa – famiglia: non può proporre querela il legale rappresentante della struttura
La proposta di legge governativa diretta ad abbassare l’imputabilità penale a 12 anni si confronta con la realtà
Il 6 aprile 2018 entra in vigore l'art 570 bis cp : violazione degli obblighi di assistenza familiare in caso di separazione o di scioglimento del matrimonio
Anche il genitore (già convivente more uxorio) che non versa l’assegno per il figlio minore è penalmente responsabile
Il 6 aprile 2018 entra in vigore l'art 570 bis cp : violazione degli obblighi di assistenza familiare in caso di separazione o di scioglimento del matrimonio
L’art. 570 bis c.p. riguarda anche gli obblighi di natura economica nei confronti dei figli nati fuori dal matrimonio
Commette reato chi usa le credenziali d’accesso a Facebook del coniuge per fotografare una chat privata
Diverso è il regime di trascrizione dei matrimoni omosessuali a seconda che riguardino anche cittadini italiani o solo cittadini stranieri
Nuovo Processo di nullità del matrimonio: la Santa Sede apre agli avvocati non graduati in Diritto Canonico
Nuovo Processo di nullità del matrimonio: la Santa Sede apre agli avvocati non graduati in Diritto Canonico
Il divorzio-lampo rumeno non è contrario all’ordine pubblico (ma la Cassazione dimostra di ignorare i Regolamenti europei sull’unificazione del diritto internazionale privato)
Lo Stato è responsabile della mancata trascrizione nei registri dello stato civile dei matrimoni omosessuali di cittadini italiani celebrati all’estero
Scioglimento dell’unione civile: la comunicazione all’Ufficiale dello Stato Civile non è condizione di procedibilità del ricorso giudiziale
Il trasferimento di residenza del genitore affidatario del figlio senza il consenso dell’altro: è giusto sanzionare?
La Cassazione chiude la vicenda dei “genitori nonni”: la bambina resti coi genitori adottivi ( … ma comunque sarebbe rimasta con loro)
Il riconoscimento giudiziale può essere negato solo in caso di comprovato, gravissimo danno per il figlio
Per la Cassazione l’omesso ascolto della minore dodicenne determina la nullità del procedimento avente ad oggetto il riconoscimento di paternità
Se i genitori vivono in continenti diversi la responsabilità genitoriale può essere esercitata per delega
Il divorzio-lampo rumeno non è contrario all’ordine pubblico (ma la Cassazione dimostra di ignorare i Regolamenti europei sull’unificazione del diritto internazionale privato)
I provvedimenti stranieri di affidamento in kafalah sono riconoscibili in base alle norme sulla protezione dei minori
Solo il creditore degli alimenti può scegliere di applicare la legge dello Stato di residenza abituale del creditore in alternativa a quella del proprio Stato di residenza abituale
Solo il creditore degli alimenti può scegliere di applicare la legge dello Stato di residenza abituale del creditore in alternativa a quella del proprio Stato di residenza abituale
La residenza abituale dei minori, da valutare ai fini della giurisdizione, è un quid facti che dipende anche da indici di natura proiettiva e non muta in caso di temporaneo soggiorno in un altro Paese
Risoluzione del Parlamento europeo 20 ottobre 2020: raccomandazioni alla Commissione sul regime di responsabilità civile e intelligenza artificiale28 DICEMBRE 2020 | Biodiritto, bioetica e diritti umania cura di Cristina Arata, avvocato in Castelfranco Veneto Nell’ambito dell’approfondita riflessione svolta dalla plenaria del Parlamento Europeo sull’Intelligenza Artificiale è emersa la convinzione che la sfida relativa all'introduzione di sistemi di IA nella società, nei luoghi di lavoro e nell'economia è oggi una delle questioni più importanti dell'agenda politica: queste tecnologie avanzate possono e, quindi, dovrebbero migliorare la nostra vita quasi in ogni settore, dalla sfera personale (trasporti, istruzione personalizzata, assistenza alle persone fragili, programmi di fitness, concessione di credito), all'ambiente di lavoro (alleggerimento di attività faticose e ripetitive), fino alle sfide globali (cambiamenti climatici, assistenza sanitaria, nutrizione, logistica). È quindi necessario, da un lato, sfruttarne in modo efficiente i vantaggi, ma è altrettanto essenziale prevenire possibili abusi ed evitare la frammentazione normativa nell'Unione. Questo quadro giuridico europeo, armonizzato e uniforme, dovrà garantire la certezza giuridica e tutelare efficacemente i valori europei e i diritti dei cittadini. E dovrà farlo rapidamente, con uno specifico regolamento: il PE propone alla Commissione un testo regolamentare che allega alla risoluzione in commento. La sfera digitale è caratterizzata da rapide dinamiche, da flussi di dati internazionali: in altre parole la corsa mondiale all'IA è già in atto e in tale ambito l'Unione deve riuscire a svolgere un ruolo di primo piano, sfruttando il proprio potenziale scientifico e tecnologico, ma anche etico e giuridico, in particolare in tema di responsabilità civile. Il concetto di "responsabilità" svolge un duplice ruolo nella vita quotidiana: garantisce che una persona vittima di un danno abbia il diritto di chiedere ed ottenere un risarcimento dalla parte di cui sia dimostrata la responsabilità; e fornisce un supporto affinché gli operatori economici (ma anche qualsiasi altro soggetto giuridico) evitino sin dall'inizio di causare pregiudizi, mediante la prevenzione degli eventi potenzialmente dannosi. Un quadro giuridico in materia di responsabilità civile orientato al futuro dovrà, quindi, trovare un equilibrio tra l'efficace ed equa tutela dei potenziali danneggiati e una sufficiente libertà d'azione, che consenta alle imprese (anche piccole e medie) di sviluppare nuove tecnologie e nuovi prodotti/servizi, garantendo la certezza del diritto per tutte le parti, che si tratti del produttore, dell'operatore, della persona interessata o di terzi. Deve, anzitutto, essere chiaro che chiunque crei un sistema di IA, ne esegua la manutenzione, lo controlli o vi interferisca, è chiamato a rispondere del danno che l'attività, il dispositivo o il processo può provocare. Questo principio discende da concetti di giustizia generali e ampiamente accettati in materia di responsabilità, per i quali la persona che crea o mantiene un rischio per il pubblico è responsabile se il rischio si concretizza in un evento dannoso, e pertanto dovrebbe minimizzarlo ex ante o risarcirlo ex post nel caso in cui non riesca ad evitare il suo avverarsi. Appare, poi, necessario utilizzare concetti non ambigui. I sistemi di IA comprendono una vasta gamma di diverse tecnologie (semplici statistiche, apprendimento automatico, apprendimento profondo ecc.). Meglio quindi sostituire il termine I.A. con il termine "processo decisionale automatizzato” nel quale un utente deleghi inizialmente in tutto o in parte una decisione a un'entità utilizzando un software o un servizio, e tale entità utilizzi a sua volta modelli decisionali automatizzati per lo svolgimento di un'azione per conto dell’utente, o per supportare le decisioni dell'utente nello svolgimento di un'azione. Alcuni sistemi di IA pongono, inoltre, più di altri sfide giuridiche significative in materia di responsabilità, perché la loro opacità strutturale potrebbe rendere estremamente oneroso, se non impossibile, identificare chi ha il controllo del rischio associato a quel sistema di IA o quale codice, input o dati abbiano causato, in definitiva, l'attività pregiudizievole. La questione incide sul nesso causale tra danno e comportamento che lo ha causato, con il risultato che le vittime potrebbero non ricevere un adeguato risarcimento o non riceverlo affatto. Le sfide giuridiche derivano anche dalla connettività, che spesso lega un sistema di IA e altri sistemi, di IA e non di IA, dalla dipendenza da dati esterni, dalla vulnerabilità a violazioni della cybersicurezza e dalla progettazione di sistemi di IA sempre più autonomi, che si avvalgono, tra l'altro, di tecniche di apprendimento automatico e di apprendimento profondo. La possibilità di ottenere un’equa riparazione dei danni causati dai sistemi di IA potrà evitare che gli utenti siano poco propensi ad accettare le tecnologie emergenti, in considerazione dei rischi connessi. Una riparazione può dirsi equa se ogni persona che subisce un danno cagionato da sistemi di IA, o il cui patrimonio sia danneggiato da sistemi di IA, benefici dello stesso livello di protezione previsto per i casi in cui non sia coinvolto un sistema di IA. L'utente, quindi, deve avere la certezza che per il potenziale danno arrecato dai sistemi di IA esistano una via legale definita per il risarcimento e un'adeguata copertura assicurativa. Il legislatore europeo è convinto che non sia necessaria una revisione completa dei regimi di responsabilità già funzionanti, ma che occorrano adeguamenti specifici e coordinati dei regimi di responsabilità esistenti, che si misurino con la complessità, la connettività, l'opacità, la vulnerabilità, la capacità di modifica mediante aggiornamenti, l'autoapprendimento e la potenziale autonomia dei sistemi di IA, come pure con la molteplicità degli attori coinvolti nel settore. Il presupposto da cui è necessario partire è che tutte le attività, i dispositivi o i processi fisici o virtuali che sono guidati da sistemi di IA possono essere tecnicamente la causa diretta o indiretta di danni o pregiudizi. E che l'opacità, la connettività e l'autonomia dei sistemi di IA potrebbero rendere, nella pratica, molto difficile/impossibile ricondurre alcune azioni dannose dei sistemi di IA a uno specifico input umano o a decisioni adottate in fase di progettazione. Queste attività e dispositivi sono quasi sempre il risultato della creazione, della diffusione o dell'interferenza con i sistemi posti in essere da qualcuno: possono, quindi, essere considerate responsabili le varie persone che nella catena del valore creano il sistema di IA, ne eseguono la manutenzione o ne controllano i rischi associati. Per questo, per il PE, non è necessario né auspicabile conferire personalità giuridica ai sistemi di IA: non possiedono una coscienza umana, e il loro unico compito consiste nel servire l'umanità. La direttiva sulla responsabilità per danno da prodotti difettosi ha dimostrato, per oltre trent'anni, di essere un mezzo efficace per ottenere un risarcimento per i danni cagionati da prodotto difettoso. Quindi dovrebbe continuare ad applicarsi anche nel caso di azioni per responsabilità civile nei confronti del produttore di un sistema di IA difettoso, laddove tale sistema possa essere considerato come prodotto ai sensi di tale direttiva. Che dovrà, tuttavia, essere rivista per adattarla al mondo digitale e alle tecnologie digitali emergenti, garantendo un elevato livello di efficace protezione dei consumatori e la certezza giuridica per consumatori e imprese. Aggiornamento che dovrà andare di pari passo con l'aggiornamento della direttiva 2001/95/CE del P.E. e del Consiglio, del 3 dicembre 2001, sulla sicurezza generale dei prodotti, per garantire che i sistemi di IA integrino la sicurezza e la protezione fin dalla progettazione. Di qui la specifica esortazione del PE alla Commissione a valutare se la direttiva sulla responsabilità per danno da prodotti difettosi debba essere trasformata in un regolamento, a chiarire la definizione di "prodotti", determinando se i contenuti e i servizi digitali rientrino nel suo ambito di applicazione, e ad esaminare l'adeguamento di concetti quali "pregiudizio", "difetto" e "produttore". La proposta di regolamento allegata alla raccomandazione si concentra, quindi, sulla responsabilità civile dell’operatore di un sistema di IA, per il suo ruolo di controllo del rischio associato a tale sistema: vista la complessità e la connettività di un sistema di IA, l'operatore sarà, in molti casi, il primo punto di contatto visibile per la persona interessata. Il regolamento non si occupa, invece, della tutela alle persone che subiscono danni (patrimoniali e non) a seguito dell'interferenza di un terzo, quale un hacker, in quanto l'interferenza costituisce sistematicamente un'azione basata sulla colpa, per cui il vigente diritto degli Stati membri in materia di responsabilità civile per colpa offre già, il più delle volte, un livello sufficiente di protezione, che andrà in ogni caso integrato con l’inclusione di casi specifici in cui il terzo sia irrintracciabile o insolvibile. Per il PE il concetto di "produttore" dovrebbe includere i produttori, gli sviluppatori, i programmatori, i prestatori di servizi e gli operatori di back-end; e poi, in casi chiaramente definiti, dovrebbe essere valutata l'inversione dell'onere della prova per i danni causati dalle tecnologie digitali emergenti. L’art. 3 della proposta di Regolamento “sulla responsabilità per il funzionamento dei sistemi di intelligenza artificiale” (che si compone di complessivi 14 articoli) contiene una serie di importanti definizioni: è "sistema di intelligenza artificiale (IA)" il sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l'intelligenza, tra l'altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici; è "autonomo" il sistema basato sull'intelligenza artificiale che opera interpretando determinati dati forniti, e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni, nonostante il comportamento del sistema sia legato e volto al conseguimento dell'obiettivo impartito e ad altre scelte operate dallo sviluppatore in sede di progettazione; un sistema di IA che opera in modo autonomo è ad "alto rischio" quando sussiste un potenziale significativo di causare danni o pregiudizi a una o più persone in modo casuale, e che va oltre a quanto ci si possa ragionevolmente aspettare; l'importanza del potenziale dipende dall'interazione dei vari possibili danni o pregiudizi, dal grado di autonomia decisionale, dalla probabilità che il rischio si concretizzi e dalla modalità e dal contesto di utilizzo del sistema di IA; è "operatore" sia l’operatore di front-end, sia l’operatore di back-end, a condizione che la responsabilità di quest'ultimo non sia già coperta dalla direttiva 85/374/CEE; è "operatore di front-end" la persona fisica o giuridica che esercita un certo grado di controllo su un rischio connesso all'operatività e al funzionamento del sistema di IA e che beneficia del suo funzionamento; è "operatore di back-end" la persona fisica o giuridica che, su base continuativa, definisce le caratteristiche della tecnologia e fornisce i dati e il servizio di supporto di back-end essenziale, e che pertanto esercita anche un elevato grado di controllo su un rischio connesso all'operatività e al funzionamento del sistema di IA; è "controllo" qualsiasi azione di un operatore che influenza il funzionamento di un sistema di IA e, quindi, il grado in cui l'operatore espone terzi ai potenziali rischi associati all'operatività e al funzionamento del sistema di IA; è "persona interessata" qualsiasi persona subisca danni o pregiudizi causati da un'attività, dispositivo o processo fisico o virtuale guidato da un sistema di IA, e che non sia l'operatore di tale sistema; è "danno o pregiudizio” l’effetto negativo che influisce sulla vita, la salute, l'integrità fisica di una persona fisica, il patrimonio di una persona fisica o giuridica, o che causa un rilevante danno non patrimoniale che si traduce in una perdita economica verificabile. È "produttore" quello definito all'articolo 3 della direttiva 85/374/CEE. Per i sistemi di IA ad alto rischio il regolamento introduce all’art. 4 una espressa ipotesi di responsabilità oggettiva dell’operatore, esclusa solo se il danno o il pregiudizio è dovuto a cause di forza maggiore; si impone anche in tali casi la sussistenza di una copertura assicurativa della responsabilità civile, adeguata agli importi e all'entità del risarcimento previsti dagli articoli 5 e 6 dello stesso regolamento. “L’'operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un'attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA”. Tutti i sistemi di IA ad alto rischio e tutti i settori fondamentali in cui sono utilizzati sono espressamente individuati in un documento allegato al regolamento. “Gli operatori di sistemi di IA ad alto rischio non possono eludere la propria responsabilità sostenendo di avere agito con la dovuta diligenza, o che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal loro sistema di IA.” Il regolamento dovrebbe, inoltre, prevalere sui regimi nazionali di responsabilità civile, in caso di discrepanze nella classificazione dei sistemi di IA ai fini della responsabilità oggettiva. La scelta per una responsabilità oggettiva discende, per il legislatore europeo, da molteplici riflessioni. Il regolamento dovrebbe consentire alla persona interessata di intentare azioni per responsabilità civile lungo tutta la catena di responsabilità e durante l'intero ciclo di vita di un sistema di IA. Dovrebbe anche riguardare, in linea di principio, tutti i sistemi di IA, a prescindere da dove operino e dal fatto che ciò avvenga fisicamente o virtualmente. La maggior parte delle azioni per responsabilità civile intentate a norma del regolamento dovrebbe riguardare, tuttavia, casi di responsabilità civile verso terzi in cui un sistema di IA operi in uno spazio pubblico ed esponga a rischio numerose persone. In tale situazione, spesso le persone interessate non saranno consapevoli del sistema di IA in funzione e non avranno vincoli contrattuali o giuridici con l'operatore. Se potessero far valere unicamente la responsabilità per colpa, potrebbero avere serie difficoltà a dimostrare la colpa dell'operatore. Senza contare che l’uso dei sistemi di IA nella vita quotidiana porterà a situazioni in cui la loro opacità (elemento "scatola nera") e la pluralità di soggetti che intervengono nel loro ciclo di vita renderanno estremamente oneroso o addirittura impossibile identificare chi avesse il controllo del rischio associato all'uso del sistema, o quale codice o input abbia causato l'attività pregiudizievole. Difficoltà aggravata dalla connettività tra sistemi, dalla dipendenza da dati esterni, dalla vulnerabilità a violazioni della cybersicurezza e dalla crescente autonomia dei sistemi (attivati dall'apprendimento automatico e dalle capacità di apprendimento profondo). Questa autonomia potrebbe rendere molto difficile ricondurre determinate azioni a specifiche decisioni umane, prese durante la loro progettazione o il loro funzionamento. L'operatore di un siffatto sistema di IA potrebbe sostenere, ad esempio, che l'attività, il dispositivo o il processo fisico o virtuale che ha causato il danno o il pregiudizio fosse al di fuori del proprio controllo, in quanto attivato da un'operazione autonoma del proprio sistema di IA. Di conseguenza, vi potrebbero essere casi in cui l'attribuzione della responsabilità potrebbe essere iniqua o inefficiente o in cui la persona che ha subito un danno o un pregiudizio cagionato da un sistema di IA non possa dimostrare la colpa del produttore, di una terza parte che abbia interferito o dell'operatore, e non ottenga quindi alcun risarcimento. In caso di presenza di più di un operatore (es. un operatore di back-end e un operatore di front-end), tutti gli operatori dovrebbero essere responsabili in solido, fermo il diritto di rivalersi fra loro su base proporzionale. E le proporzioni della responsabilità dovrebbero essere determinate dal grado di controllo rispettivamente esercitato sul rischio connesso all'operatività e al funzionamento del sistema di IA. A tal fine la tracciabilità dei prodotti deve essere migliorata, per consentire una efficace individuazione dei soggetti coinvolti nelle diverse fasi. Tutte le attività, i dispositivi o i processi guidati da sistemi di IA che possono provocare danni o pregiudizi, ma che non sono indicati nell'elenco delle tecnologie ad alto rischio, dovrebbero continuare a essere soggetti ad un regime di responsabilità per colpa, a meno che non siano in vigore normative nazionali e una legislazione in materia di protezione dei consumatori più rigorose. Le leggi nazionali regoleranno anche i termini di prescrizione. In tali casi la parte debole del rapporto dovrebbe essere tutelata sul piano processuale dall’inversione dell’onere della prova: una presunzione di colpa dell'operatore che dovrebbe potersi discolpare dimostrando di aver rispettato l'obbligo di diligenza. “L'operatore non è responsabile se riesce a dimostrare che il danno o il pregiudizio arrecato non è imputabile a sua colpa per uno dei seguenti motivi: a) il sistema di IA si è attivato senza che l'operatore ne fosse a conoscenza e sono state adottate tutte le misure ragionevoli e necessarie per evitare tale attivazione al di fuori del controllo dell'operatore, oppure b) è stata rispettata la dovuta diligenza con lo svolgimento delle seguenti operazioni: selezionando un sistema di IA idoneo al compito e alle competenze, mettendo debitamente in funzione il sistema di IA, monitorando le attività e mantenendo l'affidabilità operativa mediante la periodica installazione di tutti gli aggiornamenti disponibili." “L'operatore non può sottrarsi alla responsabilità sostenendo che il danno o il pregiudizio sia stato cagionato da un'attività, dispositivo o processo autonomo guidato dal suo sistema di IA. L'operatore non è responsabile se il danno o il pregiudizio è dovuto a cause di forza maggiore”. Laddove, invece, il danno sia stato causato da un terzo che abbia interferito con il sistema di IA attraverso la modifica del suo funzionamento o dei suoi effetti, l'operatore dovrà comunque essere tenuto a corrispondere un risarcimento qualora il terzo sia irrintracciabile o insolvibile. Per il PE anche un sistema di IA, non ancora valutato e classificato ad alto rischio (e quindi non incluso nello specifico elenco), in deroga al sistema della responsabilità per colpa, dovrebbe essere soggetto a responsabilità oggettiva in caso di incidenti ripetuti, con gravi danni o pregiudizi. Il meccanismo di tutela potrebbe essere individuato nell’effetto retroattivo dell'inclusione nell’elenco, a partire dal momento in cui si è verificato il primo incidente provocato dal sistema di IA in questione, che ha causato un grave pregiudizio. Il sistema di tutela è poi integrato dalla previsione di lunghi termini prescrizionali per le attività ad alto rischio. “Le azioni per responsabilità civile intentate” “per danni alla vita, alla salute o all'integrità fisica sono soggette a un termine di prescrizione speciale di 30 anni a decorrere dalla data in cui si è verificato il danno”. “Le azioni per responsabilità civile intentate” “per danni al patrimonio o rilevanti danni non patrimoniali che risultino in una perdita economica verificabile sono soggette a un termine di prescrizione speciale di: 10 anni a decorrere dalla data in cui si è verificato, rispettivamente, il danno al patrimonio o la perdita economica verificabile derivante dal danno non patrimoniale rilevante o 30 anni a decorrere dalla data in cui ha avuto luogo l'attività del sistema di IA ad alto rischio che ha provocato il danno al patrimonio o il danno non patrimoniale”. Le azioni per responsabilità civile intentate per danni da attività di IA non ad alto rischio (art. 8, paragrafo 1 regolamento) sono soggette ai termini di prescrizione e agli importi ed entità di risarcimento delle leggi dello Stato membro in cui si è verificato il danno o il pregiudizio. L’effettività del risarcimento per le attività ad alto rischio è garantita dalla quantificazione del danno operata dal regolamento e dall’obbligo assicurativo. Tutti gli operatori di sistemi di IA ad alto rischio dovranno essere in possesso di un'assicurazione per responsabilità civile, regime obbligatorio che deve coprire gli importi e l'entità del risarcimento previsti dal regolamento; la Commissione dovrà collaborare con il settore assicurativo per verificare in che modo sia possibile utilizzare dati e modelli innovativi per creare polizze assicurative che offrano coperture adeguate a prezzi accessibili. Con riferimento alle tecnologie di IA ad alto rischio il regolamento si sofferma anche sull’entità dei risarcimenti: è previsto un importo massimo di due milioni di EUR in caso di morte o in caso di danni alla salute o all'integrità fisica in conseguenza della messa in funzione di un sistema di IA ad alto rischio; fino a un importo massimo di un milione di EUR in caso di danni non patrimoniali rilevanti che risultino in una perdita economica verificabile, o in caso di danni al patrimonio, anche quando vari beni di proprietà di una persona siano stati danneggiati in conseguenza di un'unica messa in funzione di un unico sistema di IA ad alto rischio. Qualora la persona interessata possa far valere anche la responsabilità contrattuale nei confronti dell'operatore, non dovrebbe essere corrisposto alcun risarcimento ai sensi del regolamento se l'importo complessivo dei danni al patrimonio o il danno non patrimoniale rilevante ha un valore inferiore a 500 EUR. L’auspicio del PE è che anche la questione del regime di responsabilità civile per l'IA sia oggetto di un ampio dibattito pubblico, che tenga conto di tutti gli interessi in gioco, partendo dagli aspetti etici, giuridici, economici e sociali, per evitare malintesi e timori ingiustificati. E che sia attuato un attento esame, all'interno di una valutazione d'impatto, delle conseguenze che il nuovo quadro normativo avrà su tutti gli attori e soggetti giuridici coinvolti. Allegati Risoluzione del Parlamento europeo del 20 ottobre 2020 sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale (2020/2015(INI))
14 MAR 2024 Questioni probatorie e procedurali attinenti i procedimenti di separazione e divorzio La nuova piattaforma del CNF per la trasmissione degli accordi di negoziazione assistita in materia di famiglia
14 MAR 2024 Biodiritto, bioetica e diritti umani L’Europa e l’intelligenza artificiale, tra fiducia nel cambiamento e gestione dei rischi
16 FEB 2024 Unioni civili La convivenza more uxorio prima della legge sulle unioni civili: l’assegno di mantenimento dovrà tenerne conto
16 FEB 2024 Biodiritto, bioetica e diritti umani La deindicizzazione per tutelare il diritto all’oblio nell’era di internet
16 FEB 2024 Separazione e divorzio Il Tribunale di Treviso affronta le problematiche relative alla procedura che permette il cumulo della domanda di separazione con quella di divorzio
11 GEN 2024 Affidamento ai servizi sociali L’affido “apparente” ai Servizi Sociali e le conseguenze di ordine processuale
11 GEN 2024 Responsabilità endofamiliare La consapevolezza del concepimento quale presupposto del dovere genitoriale di mantenere ed educare i figli