L’intelligenza artificiale (“AI”) è sempre più rilevante, sebbene non ancora adeguatamente disciplinata sotto il profilo legale.

 

Si è parlato molto di come l’AI possa costituire un utile strumento di lavoro anche per avvocati. In un futuro non lontano i software intelligenti potranno addirittura sostituire gli avvocati, anche per quelle attività considerate apparentemente complesse (e quindi non solo per le attività di due diligence nelle acquisizioni). Di tutto questo si è già parlato molto, e continueremo a parlarne in futuro.

 

Si è parlato molto meno, invece, di come l’AI stia già introducendo una nuova prassi contrattuale, soprattutto con riferimento ai cosiddetti contratti di “outsourcing” con quei fornitori di servizi (sempre più numerosi) che fanno uso di sistemi intelligenza artificiale.

 

Veniamo alla disciplina contrattuale delle conseguenze relative ad un mancato rispetto dei livelli di servizio pattuiti (ad esempio, tempi di risposta di un call center / customer care, ecc.). Sino ad ora il presupposto era che il fornitore si sarebbe avvalso di esseri umani, più o meno bravi, più o meno motivati, alla fine della giornata più o meno stanchi, ecc., con conseguenti anche solo lievi ricadute in termini di efficienza. Il contratto generalmente disciplina i discostamenti dagli standard richiesti con una serie di meccanismi disincentivanti (ad esempio, penali o sconti in caso di ritardi, ecc.). Con l’AI viene meno il presupposto fondamentale della fallibilità umana: il sistema non si stanca, non è demotivato, non litiga con il datore di lavoro. Ciò comporta in termini di gestione del rischio che o il servizio viene reso, ed in tal caso l’errore è minimo, o non viene reso per niente, e in tal caso lo scenario è “catastrofico”. Quindi non si tratta più (o meglio non si tratta principalmente) di assicurare determinati livelli di servizio, ma di salvaguardare la continuità.

 

Considerato questo scenario “catastrofico”, i committenti dei servizi di outsourcing potrebbero non essere più disponibili ad accettare delle significative limitazioni alla responsabilità del fornitore. Ciò, tuttavia, non necessariamente comporterà uno stallo delle trattative, bensì, piuttosto, il ricorso a coperture assicurative, i cui costi dovranno essere inclusi da subito nei modelli di pricing degli stessi servizi.

 

Lo stesso principio vale per altre clausole contrattuali, quali, ad esempio, le clausole di riservatezza, sicurezza, verifiche contabili e tutte le altre pattuizioni che si basano principalmente sull’idea che alla fallibilità umana si possa porre rimedio con un’accurata supervisione. In tale contesto, il regime di assicurazione obbligatoria proposto dal Parlamento UE nel suo Progetto di Relazione alla Commissione Europea recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica può essere di particolare interesse.

 

I contratti dovranno altresì disciplinare l’aspetto “dinamico” dell’AI. Come noto, molti sistemi di intelligenza artificiale basati su un apprendimento automatico migliorano nel tempo. Il contratto dovrà disciplinare nel dettaglio come si potrà educare, e quindi migliorare, il sistema e soprattutto chi ne sarà il beneficiario. Le consuete clausole di tutela dei diritti di proprietà intellettuale potrebbero non bastare. Il committente può compromettere l’efficienza del sistema di AI fornendo dati o istruzioni non coerenti (ad esempio, nel caso di un servizio automatizzato di rilevazione di frodi, attribuendo significati sbagliati a determinati eventi, pregiudicandone la capacità diagnostica e predittiva). Se il fornitore utilizza tale sistema come piattaforma condivisa per servire più committenti, l’alimentazione con dati errati da parte di uno di questi comprometterebbe il funzionamento del sistema anche per tutti gli altri. Questo rischio dovrà essere regolato nel contratto, identificando, tra le altre cose, specifici standard di qualità degli input al sistema e la responsabilità di ciascun soggetto che concorre nell’educazione dell’AI.

 

Seppur intelligente, il sistema alla base di un determinato servizio rimarrà scarsamente comprensibile a chi lo riceve. Taluni operatori, vedasi ad esempio, le banche, sono però tenuti a obblighi molto stringenti di controllo  dell’operato dei propri fornitori di servizi, pena sanzioni anche molto ingenti. Questo controllo (“audit“) nel contesto dei tradizionali contratti di outsourcing viene svolto principalmente con un approccio documentale (revisione di documenti, procedure, ecc.), sempre sul presupposto che l’individuo possa agevolmente essere controllato da un altro individuo con simili competenze. Nel contesto dell’AI, diviene molto più ardua la verifica di come si evolve un sistema (inclusi certi algoritmi) nel periodo di durata del servizio. Anche questa verifica dovrà essere concordata nel dettaglio da subito, con il coinvolgimento di nuove competenze (esperti IT in aggiunta ai tradizionali revisori).

 

E’ pratica comune che i dipendenti del committente coinvolti nella fornitura di un determinato servizio che deve essere esternalizzato possano essere trasferiti presso il fornitore a seguito dell’avvio della fornitura del medesimo servizio. Tuttavia, al termine del contratto, il committente si aspetta di poter re-internalizzare il ramo d’azienda ceduto con il relativo personale, onde poter preservare (o trasferire ad un terzo fornitore) quantomeno i medesimi livelli di servizio e know-how acquisito. Nel contesto AI è probabile che nel corso degli anni il personale precedentemente trasferito sia però stato destinato ad altri incarichi, perché sostituito dal sistema AI che ne ha progressivamente assorbito le mansioni. Il che significa che il committente non potrà richiedere di riassorbire i precedenti dipendenti (e relativo know-how). Diviene quindi fondamentale chiarire da subito come preservare o quantomeno condividere il know-how per evitare, da una parte, il depauperamento del patrimonio del committente e, dall’altra, una sempre maggiore dipendenza dal fornitore.

 

L’AI per definizione pone molte criticità in tema di tutela dei dati personali. Quanti più dati vengono trattati e correlati, tanto più il sistema potrà evolvere. Questo vuol dire che alcuni dati inizialmente non personali potrebbero diventare personali (o addirittura dati sensibili) se associati ad altre informazioni trattate dal sistema. Ciò potrebbe comportare, tra le altre cose, un trattamento di dati senza il consenso, o in ogni caso eccedente l’ambito del consenso inizialmente reso, in violazione della normativa a tutela dei dati personali. Nel caso di sistemi particolarmente complessi, per i quali può non essere agevole individuare tempestivamente attività inusuali, incluse attività di hackeraggio, vi potrebbero essere gravi conseguenze per tutti i soggetti coinvolti nel trattamento dei dati. Andranno quindi identificate da subito adeguate procedure e responsabilità.

 

Con l’intelligenza artificiale cambierà non solo il modo di lavorare degli avvocati, ma, come sarà sempre più evidente, anche l’output, i contratti.

 

Giangiacomo Olivi

Partner

DLA Piper