
29 agosto 2024 • 20 minuti di lettura
Innovation Law Insights
29 agosto 2024Artificial Intelligence
Nuova legislazione negli Stati Uniti mira a regolare i contenuti generati dall'Intelligenza Artificiale
Un gruppo di senatori degli Stati Uniti ha recentemente presentato un ambizioso disegno di legge volto a facilitare l'autenticazione e l'identificazione dei contenuti generati dall'Intelligenza Artificiale (IA). Questa iniziativa legislativa, nota come COPIED ACT (“Content Origin Protection and Integrity from Edited and Deepfaked Media Act”), mira a stabilire linee guida federali per garantire la trasparenza dei contenuti generati dall'IA e proteggere il diritto d'autore in un'epoca sempre più dominata dalla manipolazione digitale e dalla creazione automatizzata di contenuti.
L'obiettivo principale del COPIED ACT è quello di incaricare il National Institute of Standard and Technology (NIST) di sviluppare linee guida avanzate e standard di trasparenza. Questi strumenti sono destinati a facilitare l'identificazione dell'origine dei contenuti e a distinguere tra contenuti sintetici e quelli di origine umana. In particolare, il disegno di legge propone l'introduzione di un "watermark" obbligatorio sui contenuti generati o modificati tramite IA, garantendo così che l'origine di tali contenuti sia chiaramente identificabile e non soggetta a manipolazioni.
Gli sviluppatori di applicazioni e gli utenti di strumenti per la creazione di contenuti protetti da copyright saranno tenuti ad adottare misure per fornire agli utenti informazioni complete sull'origine dei contenuti generati da IA entro due anni dall'entrata in vigore della legge. La legislazione vieta la rimozione, la modifica o la disabilitazione delle informazioni sull'origine dei contenuti, salvo per specifici scopi come la ricerca e la sicurezza, garantendo così una maggiore tracciabilità e responsabilità nell'uso dei contenuti digitali.
Un altro aspetto cruciale del disegno di legge è la protezione del diritto d'autore, che include il divieto esplicito di utilizzare contenuti protetti da copyright per addestrare sistemi di IA o per creare contenuti sintetici senza il consenso esplicito e informato dei titolari. Questa disposizione non solo protegge i creatori da possibili usi impropri dei loro lavori da parte di algoritmi, ma garantisce anche che essi siano pienamente informati e possano definire le condizioni di utilizzo dei loro contenuti.
Il COPIED ACT ha già ricevuto un ampio sostegno, in particolare da sindacati e associazioni del settore dello spettacolo come SAG-AFTRA, la National Music Publishers’ Association, la Recording Industry Association of America e la News Media Alliance. Questi gruppi hanno accolto positivamente l'iniziativa come un passo significativo verso la protezione degli interessi dei loro membri in un panorama mediatico sempre più digitalizzato e complesso.
Regolamentazione dei deepfake anche in Europa
Oltre alla definizione di linee guida, il COPIED ACT prevede che NIST, USPTO e USCO promuovano campagne di sensibilizzazione pubblica sui contenuti manipolati dall'IA, inclusi i deepfake. Questo impegno mira non solo a educare il pubblico sull'ampio impatto dei contenuti digitali manipolati, ma anche a incrementare la consapevolezza sui rischi associati alla loro diffusione non autorizzata.
Il tema dei deepfake è al centro del dibattito legislativo internazionale, come evidenziato anche dal Regolamento Europeo 2024/1689 sull'intelligenza artificiale, che entrerà in vigore il 1° agosto 2024. Questo regolamento include disposizioni specifiche per garantire che i contenuti di deepfake siano chiaramente identificati come tali quando utilizzati in contesti pubblici o commerciali. Questa misura è essenziale per proteggere la libertà di espressione e prevenire potenziali abusi del diritto d'autore in situazioni creative, satiriche o artistiche.
Con l'introduzione di un quadro normativo simile, gli Stati Uniti seguono l'esempio dell'Unione Europea nel tentativo di regolamentare l'uso dell'IA per proteggere i titolari dei diritti d'autore dalle sempre più frequenti manipolazioni e alterazioni digitali dei loro contenuti. Questi sforzi sono cruciali per trovare un equilibrio tra l'innovazione tecnologica e la protezione dei diritti fondamentali in un contesto di società digitale in continua evoluzione.
Su un simile tema, potrebbe interessarvi anche: La tutela dell’output realizzato dall’intelligenza artificiale
Autrici: Maria Vittoria Pessina, Alessandra Faranda
Perché la formazione sull'IA non è solo raccomandata ma obbligatoria?
Un nuovo studio rivela una mancanza di conoscenza tra i dipendenti su come utilizzare l'IA, il che è in contrasto con le aspettative dei dirigenti di alto livello (C-level) che credono che questa tecnologia aumenterà la produttività. Ma questi manager sono consapevoli che la formazione sull'IA e le regole interne sono obbligatorie secondo l'AI Act dell'UE e che potrebbero risparmiare alle loro aziende rischi significativi?
I risultati della ricerca sull'uso dell'IA da parte dei dipendenti
Una recente ricerca rivela un divario sorprendente tra le aspettative dei dirigenti e le esperienze dei dipendenti con l'IA. Mentre il 96% dei dirigenti C-suite prevede che l'IA migliorerà la produttività, il 47% dei dipendenti non è sicuro di come realizzare questi benefici e il 77% ritiene che l'IA abbia effettivamente aumentato il loro carico di lavoro.
Cosa sta causando questa disconnessione? Una possibile spiegazione è la mancanza di una leadership efficace. Meno del 26% dei dirigenti riferisce di avere programmi di formazione sull'IA in atto, e solo il 13% afferma che la propria azienda ha una strategia ben sviluppata sull'IA.
Questi risultati suggeriscono che molte aziende stanno investendo nell'IA senza comprendere appieno i cambiamenti culturali necessari per un'implementazione di successo. Senza questa comprensione, la corsa ad abbracciare l'IA potrebbe portare a risorse sprecate e opportunità mancate, piuttosto che al vantaggio competitivo che cercano. Ma entriamo nel cuore della questione, che è ancora più complessa.
Perché la formazione sull'IA è altamente raccomandata?
La ricerca sopra citata mostra come l'adozione di soluzioni di Intelligenza Artificiale senza formazione sull'IA per i dipendenti potrebbe andare contro l'interesse dell'azienda.
Allo stesso tempo, la formazione sull'IA è necessaria per:
- Prevenire che i dipendenti utilizzino in modo inappropriato le soluzioni di IA, ad esempio fornendo contenuti protetti da copyright, segreti commerciali dell'azienda o dati personali a soluzioni di IA non approvate dall'azienda;
- Richiedere all'azienda di avere politiche interne su come utilizzare le soluzioni di intelligenza artificiale e quali soluzioni di IA possono essere utilizzate.
Altrimenti, i datori di lavoro potrebbero non essere in grado di contestare eventuali comportamenti scorretti dei dipendenti a causa della mancanza di regole interne. Infatti, vediamo spesso aziende che implementano soluzioni di IA, spesso come parte di programmi pilota, solo per vedere come vengono accolte dai dipendenti senza adottare regole interne o eseguire corsi di formazione interni a causa della portata limitata dell'iniziativa.
Ma nessun feedback può essere positivo se i dipendenti non sono formati sui benefici e sui limiti del suo utilizzo.
Perché la formazione sull'IA è obbligatoria secondo la legge Europea sull'IA?
Secondo l'articolo 4 dell'AI Act dell'UE, che si riferisce all'“alfabetizzazione sull'IA”, è previsto che:
“I fornitori e i fruitori di sistemi di IA adottino misure per garantire, nella misura massima possibile, un adeguato livello di alfabetizzazione sull'IA del proprio personale e di altre persone coinvolte nell'operazione e nell'uso dei sistemi di IA per conto loro, tenendo conto delle loro conoscenze tecniche, esperienza, istruzione e formazione e del contesto in cui i sistemi di IA saranno utilizzati, e considerando le persone o i gruppi di persone sui quali i sistemi di IA saranno utilizzati.”
L'alfabetizzazione sull'IA è definita dall'AI Act come “competenze, conoscenze e comprensione che consentono ai fornitori, ai fruitori e alle persone coinvolte, tenendo conto dei rispettivi diritti e obblighi nel contesto del presente regolamento, di effettuare un impiego consapevole dei sistemi di IA, nonché di acquisire consapevolezza sulle opportunità e sui rischi dell'IA e sui possibili danni che essa può causare” e il considerando 20 dell'AI Act prevede che “i fruitori dovrebbero garantire che le persone incaricate di implementare le istruzioni per l'uso e la supervisione umana come stabilito in questo regolamento abbiano la competenza necessaria, in particolare un adeguato livello di alfabetizzazione sull'IA, formazione e autorità per svolgere correttamente tali compiti.”
Sulla base di quanto sopra, l'obbligo di fornire formazione sull'IA al personale:
- Si applica sia ai fornitori che agli utilizzatori, il che significa che qualsiasi azienda che utilizza soluzioni di IA è obbligata a formare il proprio personale, e che questa formazione deve essere differenziata in base all'uso effettivo delle soluzioni di IA che ciascuna categoria di personale è prevista svolga;
- Richiede che la formazione sull'IA sia accompagnata da politiche e procedure interne su come verrà utilizzata l'intelligenza artificiale e su come le soluzioni di IA possono essere approvate;
Interessante notare che il suddetto articolo 4 è una delle disposizioni che entrerà in vigore il 2 febbraio 2025. Pertanto, le aziende hanno meno di 6 mesi per adottare politiche e procedure sull'uso appropriato delle soluzioni di intelligenza artificiale e per condurre corsi di formazione sull'IA per i loro dipendenti.
Autore: Giulio Coraggio
Data Protection & Cybersecurity
La privacy per l'IA generativa è a un punto di svolta?
La posizione dell'Autorità per la protezione dei dati di Amburgo sull'assenza di trattamento dei dati personali da parte dei LLM durante l'archiviazione dei dati, se combinata con il recente parere della CNIL, potrebbe segnare un cambiamento a 360 gradi nell'approccio delle autorità per la privacy a qualsiasi trattamento dei dati effettuato dall'intelligenza artificiale generativa (IA).
Il punto di vista dell'Autorità per la protezione dei dati di Amburgo sull'archiviazione dei dati da parte degli LLM
In un precedente articolo, abbiamo parlato del documento pubblicato dall'Autorità per la protezione dei dati di Amburgo. A differenza dei sistemi di dati tradizionali, questo documento sostiene che i LLM elaborano token e relazioni vettoriali (embeddings). Questi token frammentano le informazioni originali in parti così piccole che la loro memorizzazione non costituisce un trattamento di dati personali.
Secondo l'autorità, i token e gli embedding presenti nei LLM non hanno il legame diretto e identificabile con gli individui richiesto dalla giurisprudenza della CGUE per essere classificati come dati personali. Inoltre, quando gli LLM rispondono alle richieste, generano nuove informazioni che non possono essere considerate una copia dell'originale a causa della fase di “creazione”.
Sebbene sia possibile estrarre dati di addestramento dai LLM, gli sviluppatori di soluzioni di intelligenza artificiale devono assicurarsi che i risultati non possano essere considerati copie o addirittura opere derivate del contenuto originale, implementando le opportune protezioni.
Interpretazioni innovative della CNIL su privacy e IA generativa
La posizione dell'autorità di Amburgo si allinea strettamente con le opinioni espresse dall'Autorità francese per la protezione dei dati (CNIL) nella sua attuale consultazione sull'applicazione del GDPR ai modelli di IA.
Il CNIL ha chiesto alle parti interessat e di “fare luce sulle condizioni in cui i modelli di IA possono essere considerati anonimi o devono essere regolamentati dal GDPR”.
Il CNIL ha inoltre mostrato un approccio più aperto nei confronti dell'affidamento ai legittimi interessi come base giuridica per lo sviluppo di sistemi di IA, che è fondamentale per la fase di raccolta dei dati necessaria per l'addestramento dell'IA. Il CNIL sottolinea che gli interessi legittimi alla base del trattamento dei dati devono essere chiaramente definiti nella valutazione dell'interesse legittimo (LIA) e che lo scopo commerciale dello sviluppo di un sistema di IA non contraddice l'uso dell'interesse legittimo come base giuridica.
In ogni caso, gli sviluppatori devono garantire che il trattamento dei dati sia essenziale per lo sviluppo e non minacci i diritti e le libertà delle persone.
Potenziale convergenza di vedute tra Amburgo e la CNIL sull'IA
Se combiniamo le posizioni dell'Autorità di Amburgo per la protezione dei dati e quelle della CNIL, gli sviluppatori e gli implementatori potrebbero trovare un importante supporto per mantenere la conformità al GDPR del trattamento dei dati attraverso soluzioni di intelligenza artificiale generativa. In particolare:
- I dati raccolti potrebbero essere trattati sulla base di un interesse legittimo, ma con la maggior parte dei dati personali rilevanti rimossi automaticamente subito dopo la raccolta per rafforzare la LIA;
- Solo i dati filtrati dovrebbero essere forniti al modello di intelligenza artificiale per l'addestramento, rafforzando l'argomentazione secondo cui i token memorizzati dagli LLM non si qualificano come dati personali.
- devono essere previste delle barriere di sicurezza per garantire che i risultati non possano essere copie o opere derivate dei dati utilizzati per l'addestramento.
Questo approccio dovrebbe essere supportato da una dettagliata valutazione dell'impatto sulla protezione dei dati (DPIA) e da una valutazione dell'interesse legittimo (LIA) e potrebbe offrire una protezione significativa alle aziende che sviluppano e sfruttano soluzioni di IA.
Inoltre, questo approccio potrebbe essere utile per difendersi dalle contestazioni sulla proprietà intellettuale, in quanto si allinea con l'eccezione per il copyright del Text and Data Mining (TDM).
Autore: Giulio Coraggio
Il Garante ha pubblicato le FAQ sul diritto all'oblio oncologico
A seguito dell'entrata in vigore della Legge n. 193/2023 sul diritto all'oblio oncologico, il Garante privacy ha pubblicato una serie di FAQ per chiarirne la portata e l'applicazione.
Il diritto all'oblio per i sopravvissuti al cancro è un'importante tutela per le persone che hanno superato una patologia oncologica e sono clinicamente guarite. La Legge n. 193/2023, insieme alle FAQ pubblicate dal Garante, chiarisce come prevenire le discriminazioni legate a malattie oncologiche concluse da anni. Questa legge tutela i diritti di chi è guarito, ponendo dei limiti alla richiesta da parte di banche, compagnie assicurative e datori di lavoro di informazioni relative a patologie oncologiche pregresse che potrebbero portare a un trattamento svantaggioso nei confronti del guarito.
Secondo le disposizioni, le banche, le compagnie di assicurazione e i datori di lavoro - sia nel settore pubblico che in quello privato - non possono chiedere informazioni sulle malattie oncologiche da cui una persona è guarita, a condizione che il trattamento sia terminato da più di dieci anni (o cinque anni se la malattia si è manifestata prima dei 21 anni) e che non ci siano state recidive. Per i datori di lavoro questo divieto si applica sia durante il processo di selezione che nel corso del rapporto di lavoro. L'obiettivo è quello di evitare discriminazioni che potrebbero avere un impatto negativo sull'occupazione o sulle condizioni finanziarie di coloro che sono guariti.
Inoltre, banche, istituti di credito, compagnie di assicurazione e intermediari finanziari e assicurativi sono tenuti a fornire informazioni chiare e adeguate sul diritto all'oblio oncologico. Tale obbligo comprende l'esplicita menzione di questo diritto nei moduli e nei documenti appositamente predisposti e utilizzati per la stipula e il rinnovo dei contratti.
La legge ha anche implicazioni significative per coloro che desiderano procedere con un'adozione. Il Tribunale per i minorenni, responsabile della valutazione delle coppie adottive, non può raccogliere informazioni sulle malattie oncologiche pregresse se sono passati più di dieci anni dalla conclusione del trattamento, o cinque anni per chi ha avuto la malattia prima dei 21 anni. Questo principio si applica anche alle adozioni internazionali, garantendo che una storia oncologica passata non diventi un ostacolo ingiustificato per chi ha superato la malattia.
Infine, il Garante per la protezione dei dati personali ha chiarito che in caso di violazione del diritto all'oblio oncologico, sarà possibile irrogare le sanzioni previste dal GDPR.
Questa normativa rappresenta un passo significativo verso la tutela della privacy e della dignità delle persone guarite clinicamente, garantendo che il loro passato oncologico non influisca sulle opportunità professionali, finanziarie o familiari.
Autore: Roxana Smeria
Intellectual Property
UPC: i primi casi davanti alla Divisione centrale di Milano
Il 1 luglio scorso è stata inaugurata la Divisione centrale di Milano. A distanza di un solo mese, è già a tutti gli effetti operativa.
Infatti, secondo quanto emerge dall'ultimo aggiornamento pubblicato sul sito dell'UPC a fine luglio, dinnanzi alla Divisione centrale di Milano sono già stati instaurati due procedimenti.
Per la precisione, si tratta di un'azione di nullità e una richiesta di adozione di misure cautelari; il numero di casi registrati davanti alla Corte di prima istanza dall'entrata in funzione del sistema (1 giugno 2023) sale così a 447.
Maggiori dettagli sulle parti coinvolte saranno disponibili nelle prossime settimane sulla piattaforma Case Management System (CSM) dell'UPC.
Nel frattempo, auguriamo a tutti i nostri lettori buone vacanze; l’appuntamento con i nostri articoli tornerà dopo la pausa estiva.
Sempre in tema di UPC può essere interessante l’articolo: “UPC: le prime sentenze di merito delle Divisioni locali di Düsseldorf e di Parigi”.
Autori: Massimiliano Tiberio, Camila Francesca Crisci
Technology Media and Telecommunication
L'ESMA pubblica un nuovo working paper sulla DeFi: categorizzazione degli smart contract
L'Autorità europea degli strumenti finanziari e dei mercati (ESMA) ha recentemente pubblicato un working paper innovativo incentrato sul settore della finanzia decentralizzata (DeFi), in rapida evoluzione. Il working paper è intitolato "Decentralised Finance: A Categorisation of smart contracts" e approfondisce il ruolo critico dei contratti intelligenti all'interno dell'ecosistema DeFi. L'analisi dell'ESMA impiega tecniche avanzate come l'elaborazione del linguaggio naturale e la modellazione di argomenti per classificare e comprendere le diverse funzionalità degli smart contract distribuiti sulle reti blockchain.
DeFi e smart contract
La DeFi rappresenta un cambiamento trasformativo rispetto ai sistemi finanziari tradizionali, sostituendo gli intermediari convenzionali con protocolli automatizzati governati da smart contract. Questi accordi auto-esecutivi sono fondamentali per definire il panorama finanziario della DeFi, in cui le transazioni sono condotte direttamente tra i partecipanti senza la necessità di banche o intermediari tradizionali. Gli smart contract non solo automatizzano le interazioni finanziarie, ma garantiscono anche trasparenza e affidabilità grazie al registro immutabile della blockchain.
I contratti intelligenti su piattaforme come Ethereum sono versatili e fungono da spina dorsale per vari strumenti finanziari e protocolli all'interno della DeFi. Essi consentono la creazione di token come stablecoin e token di governance, facilitano i prestiti attraverso protocolli di prestito decentralizzati e alimentano le borse decentralizzate in cui gli utenti scambiano direttamente asset digitali. Questa infrastruttura supporta applicazioni decentralizzate innovative (dApps) che offrono servizi finanziari che spaziano dal prestito e dall'indebitamento al trading automatizzato e alla gestione degli asset.
Rischio per gli investitori e stabilità finanziaria
Se da un lato la DeFi promette una maggiore accessibilità ed efficienza, dall'altro introduce rischi unici. Gli smart contract, una volta distribuiti, sono immutabili ed eseguono autonomamente sulla base di un codice predefinito. Questa caratteristica elimina l'intervento umano, ma espone anche a vulnerabilità come errori di codifica, dipendenze operative e suscettibilità ad attività dannose come hacking e frodi. La natura decentralizzata della DeFi complica ulteriormente gli sforzi di supervisione normativa e di protezione degli investitori, ponendo sfide alle autorità come l'ESMA nel garantire l'integrità del mercato e la stabilità finanziaria.
Categorizzazione degli smart contract
Il working paper dell'ESMA propone un quadro metodologico per classificare gli smart contract in gruppi distinti in base alle loro funzionalità e ai loro ruoli all'interno dell'ecosistema della DeFi:
- Financial Contracts: questi smart contract facilitano le operazioni finanziarie di base all'interno della DeFi, tra cui i protocolli di prestito e di erogazione, le initial coin offerings (ICOs), le decentralized autonomous organizations (DAOs), e i market maker automatizzati (AMM) che alimentano le borse decentralizzate.
- Operational Contracts: smart contract fondamentali che forniscono un supporto infrastrutturale essenziale, come l'hosting di librerie, l'ottimizzazione dell'allocazione delle risorse e la gestione degli errori nelle applicazioni decentralizzate.
- Token Contracts: gestiscono la creazione, la distribuzione e l'organizzazione di token aderenti agli standard ERC di Ethereum, compresi i token fungibili (ERC20) e i token non fungibili (NFT) utilizzati per beni digitali unici come oggetti da collezione e opere d'arte digitalizzate.
- Wallet Contracts: smart contract progettati per migliorare l'interazione dell'utente con la blockchain gestendo le funzionalità del portafoglio, come le commissioni di transazione, i saldi e i controlli di accesso.
- Infrastructure Contracts: componenti fondamentali che gestiscono la manipolazione dei dati, la codifica e altre operazioni cruciali per la funzionalità e la scalabilità delle applicazioni e dei protocolli blockchain.
Metodologia e approfondimenti
La metodologia di categorizzazione dell'ESMA utilizza tecniche di elaborazione del linguaggio naturale (NLP) e di topic modeling per analizzare il codice sorgente degli smart contract distribuiti su Ethereum e altre reti blockchain. Raggruppando questi concetti sulla base di caratteristiche e funzionalità condivise, l'ESMA mira a fornire approfondimenti sulle dinamiche in evoluzione della DeFi e a identificare potenziali aree di preoccupazione legate alla protezione degli investitori e alla stabilità finanziaria.
Potenziali miglioramenti del modello
Sebbene la metodologia attuale fornisca indicazioni preziose, l'ESMA riconosce la possibilità di un ulteriore perfezionamento:
- Modellazione dinamica degli argomenti: esplorare approcci di modellazione dinamica degli argomenti per adattarsi alla natura in evoluzione degli smart contract e dei protocolli DeFi.
- Integrazione con i dati transazionali: incorporare l'analisi dei dati transazionali per comprendere le interazioni del mondo reale e gli effetti di rete all'interno degli ecosistemi DeFi.
- Considerazioni normative: affrontare le sfide normative poste dalle tecnologie decentralizzate, tra cui la governance, la trasparenza e la tutela degli interessi degli investitori.
Il documento dell'ESMA segna un passo significativo verso la comprensione e la regolamentazione di questo settore in rapida espansione. Classificando gli smart contract in gruppi distinti, l'ESMA mira a migliorare la supervisione normativa, a promuovere l'integrità del mercato e a mitigare i rischi associati alla finanza decentralizzata.
Sul tema degli smart contract, potrebbe essere interessante anche: I mezzi di pagamento nel metaverso tra cryptovalute e smart contracts.
Autrice: Alessandra Faranda
La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Alessandra Faranda, Nadia Feola, Laura Gastaldi, Vincenzo Giuffré, Nicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Giulia Zappaterra.
Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.
Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.
Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.
È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.
DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.
Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.