(Teleborsa) – Si è svolta oggi, presso il Senato della Repubblica (Commissioni 8a e 10a riunite), l’Audizione della Fieg – rappresentata dal Consigliere incaricato per le relazioni sindacali, Stefano De Alessandri, e dalla Responsabile dell’Area giuridica e internazionale, Isabella Splendore – sul disegno di legge n.1146, in materia di intelligenza artificiale. Nel sottolineare il grande interesse suscitato dall’iniziativa italiana presso le associazioni europee di settore, come l’Enpa – che ha prodotto un suo diretto contributo – il Consigliere De Alessandri si è soffermato sugli articoli 23 e 24 del Ddl, in materia di diritto d’autore, che rivestono maggior interesse per l’editoria giornalistica e d’informazione.
In particolare, sul nuovo obbligo di marchiatura che consentirebbe di identificare e riconoscere i c.d. deepfake – obbligo cui farebbero eccezione i programmi e le opere “manifestamente creative” – la Fieg ha osservato come tale eccezione “introduce un elemento di incertezza giuridica, facendo presumere – con quel “manifestamente” – un innalzamento della soglia di creatività”. Enpa aggiunge che: “Per coerenza con il diritto dell’UE, il riferimento al ‘manifestamente creativo’ dovrebbe essere sostituito da quello al ‘contenuto creativo soggetto a controllo editoriale e in cui una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione’.”
In merito all’articolo 24, la Fieg ha invitato, in sintonia con Enpa, a guardare con estrema cautela a “qualsiasi sviluppo normativo che cerchi di estendere le protezioni e i diritti esistenti anche alle opere generate con l’IA“. Rilevato poi che il testo definitivo dell’articolo 24 risulta essere stato ampiamente rivisto, l’auspicio degli editori Fieg è che almeno vengano recuperati i requisiti aggiuntivi presenti nelle precedenti versioni.
“Alcuni dei contributi circolati nei mesi precedenti all’approvazione del disegno di legge – si legge nella nota Fieg – si proponevano di garantire più efficacemente sia la protezione dei contenuti editoriali da usi non autorizzati sia la loro remunerazione. Si pensi, ad esempio: alla proposta di semplificare le modalità di esercizio dell’opt-out, anche attraverso il ricorso a clausole di riserva analoghe a quelle già conosciute nel nostro ordinamento; all’invito ad incentivare il ricorso a modelli di licenza condivisi; agli obblighi di registrazione e identificazione delle fonti/contenuti utilizzati, sulla falsariga delle disposizioni comunitarie; alle ipotesi di remunerazione per l’uso dei contenuti a fini di addestramento e training dei sistemi e modelli di IA, attraverso la possibilità del riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di IA. Nessuno di questi aspetti sembra emergere chiaramente dal testo in esame.”
“È fondamentale che le protezioni sul copyright siano adeguatamente applicate – conclude la Fieg – e che elevati standard di qualità e responsabilità siano il fondamento di queste e di altre nuove tecnologie.”