ARTIFICIAL INTELLIGENCE – The Global Revolution

L’Intelligenza Artificiale ha una sua lunga gestazione, ma in effetti ha fatto irruzione nelle nostre vite appena un anno fa, con la prima release di ChatGPT. Da allora è diventata sempre più oggetto di comune utilizzo e comune dibattito, e allo stato sono in pochi a dubitare che si tratti di una tecnologia destinata non solo a durare, ma a cambiare se non a rivoluzionare le nostre società. Con l’aiuto di Laura Biason, ingegnere informatico e direttore generale del Club degli Orafi Italia, e Lydia Mendola, avvocato esperto di proprietà intellettuale, abbiamo affrontato alcune questioni poste dall’IA, le sue caratteristiche e i limiti, il suo utilizzo in ambito creativo, il Copyright. Corredano il servizio le immagini realizzate con l’IA dagli artisti Stefano Casati e Silvia Badalotti. Comprensibilmente, l’IA suscita fascinazione ma anche diffidenza, come ogni nuova tecnologia con cui ci si trovi a confrontarsi. Basti ricordare che a metà Ottocento Charles Baudelaire tuonava contro la fotografia, secondo lui un mezzo meccanico, mortale nemico dell’arte, adatto giusto a pittori privi di talento o troppo pigri per portare a termine i propri studi, mentre da parte sua Jean-Auguste-Dominique Ingres guidava un’agguerrita campagna di artisti e intellettuali contro la fotografia come forma d’arte. Battaglia persa, come si è poi visto in questo e in moltissimi altri casi: del resto lo stesso Baudelaire non mancò di posare per diversi ritratti fotografici, alcuni dei quali oggi celeberrimi.

LAURA BIASON

Laura Biason, Direttore Generale del Club degli Orafi Italia, è laureata in Ingegneria Informatica presso il Politecnico di Torino ed è appassionata studiosa ed esperta di innovazione tecnologica e digitale. Vanta una lunga carriera nella comunicazione e organizzazione aziendale e nella rappresentanza istituzionale d’impresa in Italia e all’estero.

Domanda d’obbligo, vista la confusione intorno a questo tema: di che cosa parliamo precisamente quando parliamo di Intelligenza Artificiale?
Senza dubbio, di uno strumento tecnologico straordinario: le cui basi, è bene ricordarlo, esistono dagli anni ‘50. Noi conviviamo da tempo con tantissimi tipi di intelligenza artificiale, presenti nei nostri computer, tablet, cellulari… I sistemi più vicini a quella che abbiamo cominciato a chiamare comunemente intelligenza artificiale sono per esempio Siri, Google Assistant o Alexa. L’Intelligenza Artificiale è diventata argomento di dibattito e di interesse generale dal novembre dello scorso anno, da quando cioè l’intelligenza artificiale generativa – gli esempi più noti sono ChatGPT, Bard, oppure Midjourney, DALL-E o Bing Image Creator come generatori di immagini – è diventata open, accessibile a tutti, ma in senso stretto esiste dagli anni Cinquanta: si trattava però di intelligenza artificiale verticale, cioè con obiettivi in generale ben focalizzati su alcune attività, come le diagnosi mediche, a partire da basi di dati di informazioni molto ampie, o la meteorologia, con le previsioni, il calcolo dei percorsi.

Si parla molto dei rischi connessi all’Intelligenza Artificiale.
Come sempre, parlerei piuttosto dei rischi legati al suo uso, anzi al suo ab-uso: e il primo rischio è che venga intesa e utilizzata come un motore di ricerca, come purtroppo spesso accade. Invece bisogna chiarire che l’intelligenza artificiale generativa non lavora come un motore di ricerca, non cerca informazioni per conto nostro, ma crea contenuti, tant’è che se noi inviamo lo stesso prompt 10 volte otterremo per definizione 10 risultati diversi. E qui entrano in gioco le famigerate “allucinazioni”, vale a dire contenuti del tutto plausibili ma totalmente errati. Quindi, se l’IA generativa viene utilizzata con uno scopo di ricerca e prendendo per buone le informazioni che ci fornisce, senza le opportune verifiche incrociate, si corre il rischio di ottenere delle informazioni totalmente sbagliate. Un altro problema è che tutto il materiale che si sta generando nel web, e che tutti noi giornalmente contribuiamo a generare, in automatico andrà a sua volta ad alimentare le basi dati con cui questi modelli di IA vengono addestrati.

Ma il lavoro di queste IA è indiscriminato?
Attribuiscono uguale importanza a qualsiasi informazione o dato presente in rete? Non si può dire con certezza, personalmente ho anche provato a chiederlo alle stesse IA ma la risposta è stata che sono state istruite per non dare riscontri a questo tipo di domande: cioè non ci dettagliano in quale modo sono parametrate. Viene da pensare che, soprattutto per quanto riguarda i modelli più importanti, tra le centinaia di milioni di parametri usati per generare contenuti ci sia anche la bontà, l’affidabilità della base dati su cui lavorano: non tanto perché siano state programmate a farlo ma perché hanno capito in qualche modo che quella è la strada giusta.

Ma possono anche essere istruiti a prendere la strada sbagliata? Penso per esempio alla produzione di fake news…
Il grosso problema è che noi, come utenti finali, possiamo agire ben poco sulle basi dati su cui lavorano. Non mi stancherò mai di ripetere che non abbiamo a che fare con motori di ricerca. Con un motore di ricerca posso indirizzare con
precisione la ricerca su una data pagina, che so essere affidabile. Viceversa, se scrivo a un modello di IA di trovarmi informazioni su un dato argomento, le cercherà nel mare magnum del web in maniera indiscriminata e probabilistica,
generando magari cose insensate e soprattutto, poiché è deputato a creare contenuti, come dicevo prima, potrebbe generare contenuti plausibili, ma totalmente errati. Negli ultimi tempi sono state rilasciate nuove versioni di modelli di IA che integrano una funzionalità di ricerca, ma il rischio di allucinazioni permane elevato se non si usano prompt corretti.

Può chiarire meglio questo punto?
I motori di ricerca sono programmati per dare risposte, mentre l’IA genera contenuti nuovi, lavorando per probabilità. Pensi al T9 del cellulare: se digito “sto andando” probabilmente mi verrà suggerito dal T9 “a casa” o “al lavoro”, non perché il sistema sappia quello che vorrei scrivere, ma perché sa che in passato chi ha scritto “sto andando” spessissimo poi scriveva “a casa” o “al lavoro” e quindi mi suggerisce queste opzioni perché più probabili. L’IA crea il contenuto che secondo lei è più idoneo a rispondere ai nostri prompt, non perché capisca la domanda, ma perché ne riconosce le parole. Infatti le intelligenze artificiali sono modelli di linguaggio che lavorano sulle parole, a differenza per esempio dei linguaggi di programmazione, che danno un certo risultato a seconda dei comandi che ricevono. Qui l’àmbito è diverso: l’IA riconosce le parole, pur non comprendendone il significato, e va a cercare secondo migliaia di parametri quali altre parole o immagini nel web sono più vicine a quanto le è stato richiesto.

Quindi il miglior utilizzo dell’IA è in campo creativo?
È uno strumento perfetto se lo usiamo come compagno di brainstorming. In generale, è proprio in ambito creativo che dà il meglio di sé, perché lavora senza vincoli, ed è, appunto, un ideale compagno dall’inesauribile e libera fantasia” con cui confrontarsi, in grado di darci idee totalmente nuove, che magari a noi non verrebbero mai in mente. Un po’ come succede quando cerchiamo ispirazione e ci guardiamo intorno senza preconcetti, sfogliamo riviste, visitiamo
mostre, lasciamo vagare sguardo e attenzione…
I modelli di IA hanno accesso a una quantità di idee praticamente infinita, e ne possono generare di particolarmente nuove e stimolanti. Naturalmente tutto va verificato, perché non è detto che si tratti di idee realizzabili in pratica.
Se per esempio chiediamo a un modello di IA di creare un anello, ci proporrà probabilmente modelli irrealizzabili, per forme, insieme di materiali, dimensioni, cromatismi, perché in realtà non conosce tutte le caratteristiche proprie di un anello: per quanto siano buoni, con i modelli generali attualmente in circolazione non si riesce a combinare la creatività di macchina con un’assoluta realizzabilità. Al contrario, il creativo, il designer, conosce i limiti dei materiali, i paletti entro cui la fantasia può correre, conosce gli incastri dei parametri produttivi, le difficoltà di lavorazione delle gemme e così via. Allo stato attuale, per quante istruzioni le si diano, non è possibile guidare l’IA fino a un risultato ottimale, perché bisognerebbe lavorare con intelligenze artificiali non generali ma verticali – le cosiddette narrow, strette, che lavorano solo su un argomento. La maggior parte delle forme di creatività hanno a che fare con la materia e la materia di volta in volta impone dei limiti fisici che l’IA non conosce. In questo momento i modelli standard di cui possiamo servirci sono perfetti, ripeto, per una fase di brainstorming, di aiuto, di sostegno alla creatività umana: usata in questo modo, l’IA è uno strumento assolutamente fantastico. Consideriamo per esempio anche un anello proposto da un’IA con un insieme di colori per noi assolutamente improponibile: poiché l’IA lavora per probabilità, magari facendo ricerche approfondite potremmo scoprire che quella palette cromatica potrebbe invece funzionare in un altro mercato, in questo stesso momento o magari in un prossimo futuro.

Lei parla spesso di un uso etico dell’IA…
È importante capire che l’IA va usata con estrema cautela quando ha un impatto diretto sulla vita degli esseri umani. Penso ad esempio alla scrematura dei curricula, alla descrizione delle persone… Ho testato personalmente questi aspetti: l’IA su cui è basato un servizio, molto diffuso in Italia, di scrematura curricula, il mio curriculum non lo sa leggere, non lo capisce e mi ha incasellato come agente immobiliare!
Un’azienda che si basasse solo sull’IA per valorizzare o selezionare delle persone si priverebbe di una parte delle risorse potenzialmente interessanti e farebbe perdere ad altri esseri umani opportunità potenzialmente interessanti. L’intelligenza artificiale ci facilita e migliora l’esistenza purché usata in modo etico, con una visione antropocentrica. Pensi se dovesse prendere piede il rating dei mutui basato sull’intelligenza artificiale… Alcune situazioni potrebbero veramente creare spaccature anche gravi nella società. Il fattore umano, le relazioni umane devono e dovranno sempre essere riconosciute come imprescindibili e insostituibili.

È vero che l’IA consuma enormi quantità di acqua ed energia elettrica?
A meno che non cambi radicalmente la tecnologia – e ci sono sviluppi interessanti in questo senso – in questo momento l’utilizzo di energia elettrica e di acqua per il raffreddamento delle macchine su cui funzionano i modelli è davvero altissimo. È chiaro che il consumo riguarda qualsiasi applicazione, ma i modelli di linguaggio dell’IA lavorano su basi dati così grandi che ogni interrogazione è estremamente complessa e richiede molta potenza di calcolo, anche per
poter fornire i risultati in un tempo molto breve. Secondo i dati forniti da El País, tra i 5 e i 50 prompt comportano il consumo di circa mezzo litro d’acqua! E, per quanto riguarda l’energia, dobbiamo cominciare a ragionare sulla produzione della corrente elettrica e sul suo ciclo di vita, sforzandoci di usarla in modo responsabile.
Naturalmente attraverso l’IA possiamo anche risparmiare consumi, lavoro, spostamenti, quindi come sempre il contesto andrebbe considerato in tutta la sua complessità. Però in questo momento storico ancora molte centrali nel mondo
sono alimentate a carbone: dobbiamo essere consapevoli che usando l’IA stiamo inquinando molto, facciamone un uso costruttivo, usiamola in modo corretto e secondo reali necessità.

Ha paura di un futuro distopico?
Mi basta affrontare il presente! Credo che in questo momento andrebbe avviata una grossa opera di sensibilizzazione e informazione sull’utente finale. Qualcosa andrà fatto a livello di piattaforme, perché il problema riguarda tanto chi genera contenuti quanto chi ne consente la distribuzione. Ma le piattaforme non potranno facilmente mettere a punto un filtro per impedire di caricare contenuti generati dall’IA finché a questi non verrà apposto un watermark, una sorta di filigrana elettronica, perché a tutt’oggi non esistono software in grado di distinguere con sicurezza le immagini generate da intelligenza artificiale. Il problema di fondo sono gli algoritmi e i modelli con cui lavorano motori di ricerca, IA e social media. Con il Digital Service Act la Comunità Europea sta cercando di intervenire su questioni fondamentali come contenuti illegali, pubblicità trasparente, disinformazione nell’ambiente digitale. Quindi non parlerei di future distopie ma piuttosto di affrontare con consapevolezza il mondo e le tecnologie di oggi, già molto preoccupanti – che, non mi stancherò di ripeterlo, ci offrono splendide opportunità se correttamente usate. Per chi volesse approfondire questi argomenti, vorrei concludere consigliando un libro e un film: “Dieci ragioni per cancellare subito i tuoi account social” è un volume di Jaron Lanier, informatico della Silicon Valley, tra i massimi esperti del mondo digitale e tra i 100 pensatori più influenti del nostro tempo secondo Time. “The Social Dilemma” è invece un docufilm che affronta i rischi cui i social media espongono tutti noi, in particolare i più giovani, come la dipendenza, la manipolazione, l’uso politico.

LYDIA MENDOLA

Lydia Mendola, avvocato, dal 2018 è socia dello Studio milanese Portolano Cavallo, presso il quale è responsabile dell’area di attività “Proprietà Intellettuale”, settore in cui vanta una lunga esperienza che tra l’altro le è valsa nel tempo l’attribuzione di premi e riconoscimenti a livello internazionale.

Copyright e Intelligenza Artificiale: un capitolo nuovo di zecca?
Non proprio. L’Intelligenza Artificiale generativa è esplosa in maniera incredibilmente rapida e in maniera altrettanto rapida è diventata accessibile a tutti, ma in realtà gli algoritmi che sono alla base di questa tecnologia non sono nuovissimi; analogamente, non sono sorte ora le tematiche annesse: per esempio vi sono articoli di dottrina straniera proprio sul tema dell’intersezione tra copyright e Intelligenza Artificiale generativa che risalgono al 2017. Il punto è che, negli ultimi anni, un po’ sottotraccia, i modelli di Intelligenza Artificiale sono stati addestrati progressivamente con una mole di dati sempre maggiore e quando sono comparsi sul mercato hanno colto impreparati gli utenti – e per utenti intendo anche le aziende che intendano integrare soluzioni di Intelligenza Artificiale all’interno del proprio modello di business. Impreparati, ma al contempo affascinati dalle opportunità che questa tecnologia sembra poter offrire. La prima release di ChatGPT è di un anno fa: da allora ad oggi, il più noto Large Language Model ha raggiunto i 200 milioni di utenti mensili. Questo dato dà un’idea di quanto velocemente stia crescendo l’adozione di questa nuova tecnologia.

Ci aiuta a capire in che rapporto viene a trovarsi il diritto d’autore rispetto all’utilizzo di Intelligenza Artificiale?
In primo luogo il tema del copyright è rilevante quando si discute della liceità del training dei modelli di Intelligenza Artificiale, perché, come sappiamo, questi modelli sono addestrati con immense quantità di dati estratti dal web:
può accadere allora che anche contenuti protetti dal diritto d’autore vengano utilizzati per contribuire all’addestramento del modello di Intelligenza Artificiale, senza che i titolari dei relativi diritti di esclusiva siano stati interpellati e abbiano rilasciato l’autorizzazione all’estrazione, alla copia e allo sfruttamento a quel fine. Per esempio, è in corso la causa di Getty Images contro Stable Diffusion AI che sembra aver utilizzato il database di Getty Images senza l’autorizzazione di questa agenzia fotografica, che è titolare di alcuni contenuti e licenziataria esclusiva dei diritti su altri. In questo momento non c’è una soluzione univoca al tema. Probabilmente in USA la soluzione del problema dipenderà da come verrà applicata la dottrina del fair use, mentre in EU da come verrà applicata l’eccezione del text & data mining introdotta dalla Direttiva copyright. Al di là dei tecnicismi normativi, sia in Europa che negli Stati Uniti si cerca il modo di dare applicazione alle norme esistenti in modo da trovare un equilibrio tra l’interesse all’innovazione, al progresso tecnologico e socio economico delle società da una parte, e alla tutela dei diritti fondamentali tra cui la tutela delle opere dell’ingegno frutto della creatività umana.

E per quanto riguarda le opere frutto dell’Intelligenza Artificiale?
Il tema della tutelabilità dell’output del modello di Intelligenza Artificiale è spinoso e ovviamente estremamente importante per le aziende che integrano le soluzioni di Intelligenza Artificiale generativa nei propri modelli di business e che si chiedono se potranno sfruttare l’output del modello, esercitando diritti di esclusiva su di esso – avendo quindi diritto a uno sfruttamento economico – oppure se l’output è destinato a cadere nel pubblico dominio. Allo stato l’orientamento, per esempio, del Copyright Office statunitense è quello di trattare con molta cautela questo tema. Per il momento il Copyright Office ha sempre rifiutato la registrazione delle opere prodotte da modelli di Intelligenza Artificiale generativa perché a suo giudizio non dotate dei requisiti minimi di tutelabilità richiesti in tema di copyright dalla normativa statunitense, secondo la quale l’opera deve essere espressione della creatività di un essere umano. Questo apporto creativo dell’essere umano non esiste nel momento in cui il processo creativo risulta essere fuori dal controllo dell’autore.
Il Copyright Office è giunto alla conclusione che – quantomeno in relazione ai modelli di Intelligenza Artificiale generativa oggetto della sua analisi, in particolare Midjourney – l’output della piattaforma di AI è fuori dal controllo dell’autore che – per quanti prompt inserisca, per quanto cerchi di orientare il modello – non è mai in grado di prevedere con precisione dall’inizio quale sarà l’output finale. Questo delegare – di fatto – all’Intelligenza Artificiale generativa il momento creativo impedisce di attribuire a quell’opera il requisito minimo perché possa ambire alla tutela autoriale. Tuttavia questo orientamento ha suscitato un grande dibattito proprio perché le aziende nell’utilizzare l’Intelligenza Artificiale generativa vanno incontro a investimenti notevoli – di capitali, tempo, persone dedicate – che in qualche modo devono avere un ritorno. Quindi il Copyright Office degli Stati Uniti ha pubblicato quest’estate alcune linee guida secondo le quali non è sempre escluso che l’output del modello di Intelligenza Artificiale possa essere tutelato sotto il profilo del copyright, quanto meno quando l’intervento dell’Intelligenza Artificiale rappresenta un passaggio, un momento, all’interno di un processo creativo più complesso, in cui l’apporto dell’autore è sufficientemente rilevante.

Ma come si potrà calcolare la misura o la percentuale dell’apporto creativo di un autore?
È un bilanciamento in tutta evidenza molto complesso, ed evidentemente suscettibile anche di interpretazioni personali. Tuttavia – allo stato attuale e salvo che non si riveda il concetto stesso di creatività nell’ambito della normativa autoriale – è consigliabile che le aziende si dotino di processi interni atti a registrare e monitorare il proprio processo creativo, perché un domani potrebbe dimostrarsi utile essere in grado di provarlo in caso di contestazione. Il punto è quello di dimostrare che l’autore abbia esercitato il proprio controllo sul processo creativo e che il risultato corrisponda sostanzialmente a quello che aveva in mente fin dall’inizio, cioè che non si sia accontentato di quanto fornito dall’Intelligenza Artificiale ma abbia integrato quel contributo con la propria opera, magari con altri tool e tecnologie e che questa combinazione abbia richiesto un lavoro intellettuale apprezzabile. Una recente ordinanza della Corte di Cassazione relativa a un’opera generata da un software (non si trattava di AI generated work ma il ragionamento può essere facilmente esteso a un’opera generata dall’IA) ha stabilito che è obbligatorio procedere a una valutazione fattuale caso per caso per verificare se e in che misura l’utilizzo del software abbia assorbito l’elaborazione creativa dell’artista che lo ha utilizzato. In altre parole, non è esclusa a priori la possibilità che l’output di un modello di Intelligenza Artificiale generativa sia dotato del requisito della creatività, e quindi sia soggetto a copyright, ma bisognerà verificare che l’autore non abbia delegato completamente la responsabilità del processo creativo alla macchina o all’algoritmo.

Indubbiamente il rapporto tra copyright e Intelligenza Artificiale pone questioni inedite…
L’avvento di ogni nuova tecnologia comporta da sempre la nascita da un lato di grandi ottimismi, dall’altra di scetticismi, sospetti, ostilità. Faccio un esempio. Studiando da tempo le problematiche legate alla tutela del diritto d’autore, mi sono imbattuta in una causa dibattuta davanti a una corte americana alla fine dell’Ottocento: il quesito riguardava la possibilità o meno di accordare a una fotografia – quindi a un prodotto ottenuto tramite l’ausilio di una macchina, all’epoca appunto una tecnologia del tutto nuova – la tutela del diritto d’autore. In quel caso il giudizio della corte fu favorevole perché si valutò che il prodotto finale, la fotografia, fosse sostanzialmente frutto della creatività e dell’ingegno umano, in quanto era stato il fotografo a individuare il modello, scegliere i suoi vestiti, suggerire l’espressione, determinare la location, sfruttare luci e ombre e così via. E oggi ci troviamo un po’ nella stessa situazione: abbiamo a disposizione uno strumento nuovo che interviene nel momento creativo, che si inserisce proprio nel momento della genesi dell’opera e quindi dobbiamo capire come muoverci. L’AI Act, ovvero la bozza di regolamento europeo in tema di Intelligenza Artificiale la cui adozione non è, comunque, prevista a breve, si concentra sui rischi e le responsabilità in capo ai soggetti coinvolti nella creazione delle diverse tipologie di modelli di intelligenza artificiale, ma al momento non tocca in modo esaustivo il tema della tutela sulla base della normativa copyright dell’input e dell’output dei modelli di AI generativa. Un tentativo, in questo senso, è rappresentato da un recente disegno di legge presentato in Francia nel quale si cerca di delineare qualche forma di remunerazione per gli autori e titolari dei diritti di esclusiva sulle opere utilizzate per il training dei modelli di AI generativa.

Sarà la stessa Intelligenza Artificiale ad aiutarci a destreggiarci anche tra fake news e allucinazioni?
La fake news presuppone che all’origine ci sia la volontà e la consapevolezza di divulgare informazioni false o, nel migliore dei casi, volutamente inaccurate e parziali. Si tratta di informazioni presentate in un modo che le fa
sembrare autentiche o credibili, ma sono create deliberatamente per ingannare. Esistono già soluzioni di Intelligenza Artificiale addestrate per intercettare e smascherare le fake news. L’allucinazione, invece, nel contesto dell’Intelligenza Artificiale e del machine learning, si riferisce a una situazione in cui un modello di AI, come un generatore di testo o immagine, produce risultati che sono verosimili, ma non veri, cioè incoerenti rispetto ai dati reali. Si tratta di una sorta di effetto collaterale frutto delle limitazioni intrinseche all’architettura, agli algoritmi e all’addestramento dei modelli di AI. I modelli di generazione di testo, per esempio, possono non avere una vera comprensione del contesto o della realtà. Di conseguenza, possono generare risposte che sembrano superficialmente plausibili ma sono fondamentalmente sbagliate o prive di senso. Queste allucinazioni dell’AI sono oggetto di ricerca attiva nel campo dell’intelligenza artificiale, con l’obiettivo di migliorare l’affidabilità, l’accuratezza e la robustezza dei modelli. Quindi ancora una volta sarà lo sviluppo tecnologico la chiave per superare i limiti oggi mostrati dalle soluzioni di AI generativa.

Abbiamo letto tutti di società che hanno vietato ai propri dipendenti di utilizzare, per esempio, ChatGPT: cosa ne pensa?
“Bannare” una nuova tecnologia la cui velocità di adozione è senza precedenti è davvero possibile? O utile? A mio avviso le aziende dovrebbero piuttosto investire nel training delle persone, rendendole consapevoli delle potenzialità e al tempo stesso dei limiti e dei rischi dell’Intelligenza Artificiale anche generativa.
Per esempio, un tema è quello dell’uso che fanno i modelli di AI dei dati inseriti sotto forma di prompt o tramite API (Application Programming Interface), nelle piattaforme di AI generativa. Al di là delle incertezze del quadro normativo di riferimento, questo è un aspetto che è regolato dalle Terms and Conditions delle piattaforme di AI che regolano i rapporti con l’utente finale, o con l’azienda che integra la soluzione di AI generativa all’interno del proprio processo produttivo o modello di business per sviluppare un’applicazione o servizio a favore del proprio cliente. Per esempio, in base alle attuali Terms and Conditions di OpenAI in relazione a ChatGPT, i dati trasferiti tramite API sono soggetti ad un regime di confidenzialità tale per cui ChatGPT non li utilizza per fare training all’interno della propria piattaforma a meno che il cliente non decida diversamente; al contrario, tutte le informazioni fornite come prompt e ottenute come output contribuiscono ad addestrare il LLM di ChatGPT e questo per le aziende si può tradurre in alcuni casi in una potenziale dispersione di know how. Se l’utente non desidera che i suoi contenuti o informazioni vengano utilizzati per addestrare il modello, può esercitare l’opt-out ma questo potrebbe influire sulla capacità del modello di fornire l’output più coerente rispetto alla richiesta dell’utente. Mi pare evidente che una maggiore consapevolezza e sensibilità rispetto a questi temi è quindi auspicabile.

Artificial Intelligence has a long gestation, but in fact it burst into our lives just a year ago, with the first release of ChatGPT. Since then it has increasingly become an object of common use and debate, and currently there are few who doubt that it’s a technology destined not only to last, but to change if not revolutionize our societies. With the help of Laura Biason, computer engineer and general director of the Club degli Orafi Italia, and Lydia Mendola, lawyer expert in intellectual property, we addressed some issues posed by Al, its characteristics and limits, its use in the creative field, the Copyright. This feature is accompanied by images created with Al by the artists Stefano Casati and Silvia Badalotti. Understandably, Al fascinates but also causes mistrust, like any new technology we deal with. It is enough to remember that in the mid-nineteenth century Charles Baudelaire thundered against photography according to him a mechanical means, mortal enemy of art, suitable only for painters without talent or too lazy to complete their studies, while Jean-Au-guste-Dominique ingres led a fierce campaign by ar tists and intellectuals against photography as an art form. The battle was lost, as we later saw in this and in many other cases: after all, Baudelaire himself did not fail to pose for various photographic portraits, some of which are now very famous.

LAURA BIASON
Laura Biason, General Manager of the Club degli Orafi Italia, has a degree in Computer Engineering from the Politecnico di Torino and is a passionate scholar and expert in technological and digital innovation. She has a long career in corporate communication and organi-sation and in institutional business representation both in Italy and abroad.

Given the confusion around this issue, there’s one vital question: what exactly do we mean when we talk about Artificial Intelligence?
Unquestionably it’s an extraordinary technological tool: it’s worth remembering, its foundations were laid in the 1950s. Many forms of artificial intelligence have been with us for years – in our computers, tablets, mobile phones etc. The systems closest to what we have generally begun to call artificial intelligence are, for example, Siri, Google Assistant or Alexa. Artificial Intelligence has become a topic of debate and general interest since November 2022, that is once generative artificial intelligence – the best known examples are ChatGPT, Bard, or Midjourney, DALL.-E or Bing Image Creator as image generators – became open, accessible to everyone, but in the strict sense it has existed since the 1950s: it was, however, vertical artificial intelligence, that is, with objectives in general well focused on some activities, such as medical diagnoses, starting from very large information databases, or meteorology with forecasts, route calculations.

There is a lot of talk about the risks associated with Artificial Intelligence.
As always, I would rather talk about the risks related to its use, rather its ab-use: and the first risk is that it is understood and used as a search engine, as unfortunately often happens. Instead, we must clarify that generative artificial intelligence doesn’t work as a search engine, it doesn’t search for information for us, but creates con-tent, so much so that if we send the same prompt 10 times we will get 10 different results by definition. And here the infamous “hallucinations” come into play; that is, completely plausible but totally wrong content.
Therefore, if generative Al is used for research purposes and taking the information it provides us for granted, without the appropriate cross-checks, there is a risk of getting completely wrong information.
Another problem is that all the material that is being generated on the web, and that we all contribute to genera. ting on a daily basis, will in turn automatically feed into the databases with which these Al models are trained.

But is the work of this Al indiscriminate? Does it attach equal importance to any information or data on the network?
It’s not possible to say for sure, personally I’ve also tried to ask Al itself but the answer was that it has been taught not to answer this type of question: that is, Al doesn’t give details how it is parameterised. It seems that, especially with regard to the most important models, among the hundreds of millions of parameters used to generate content there is also goodness, the rehability of the da tabase on which they work: not so much because they were programmed to do so but because they’ve understood in some way that this is the right way.

But can they also be instructed to take the wrong path? I am thinking, for example, of generating fake news…
The big problem is that we, as end users, can do really very little about the databases they work on. I will never get tired of repeating that we are not dealing with search engines With a search engine I can precisely target the search on a given page, which I know to be reliable. Con-versely; if I write to an Al model to find information on a given topic, it will search for it in the mass of information of the web in an indiscriminate and probabilistic way, perhaps generating nonsense and above all, since it’s responsible for creating content, as I said before, it could generate plausible content, but totally wrong. New versions of Al models that integrate a search feature have recently been released, but the risk of hallucinations remains high if correct prompts aren’t used.

Can you clarify this point better?
Search engines are programmed to give answers, while Al generates new content, working on probability. Think of T9 on a mobile phone: if I type “I’m going”, T9 will probably suggest “home” or “to work”, not because the system knows what I want to write, but because it knows that in the past those who wrote “I’m going” very often then wrote “home” or “to work” and therefore suggests these options because they are more likely: Al creates the content it thinks is best suited to answering our prompts, not because it understands the que-stion, but because it recognises the words. In fact, artificial intelligence is language models that work on words, unlike, for example, programming languages, which give a certain result depending on the commands they recei ve. Here the scope is different: Al recognises words, even if it doesn’t understand their meaning, and searches according to thousands of parameters which other words or images on the web are closer to what was requested.

So the best use of Al is in the creative field?
It’s the perfect tool if we use it as a brainstorming aid.
In general, it works best in the creative field, because it works without constraints, and is, in fact, an ideal aid with inexhaustible and free “imagination” to explore, able to give us brand new ideas, which perhaps we would never think of. A bit like what happens when we look for inspiration and just take in our surroundings, flick through magazines, visit exhibitions, let our gaze and attention wander.. Al models have acoess to a virtually infinite amount of ideas, and can generate particularly new and inspiring ones. Of course, everything must be checked, because there’s no guarantee that these are feasible ideas If, for example, we ask an Al model to create a ring, it will probably propose models that can’t be created due to the shape, set of materials, dimensions, colours etc, because in reality it does not know all the characteristics of a ring: although they are good, with general models around today it’s not possible to combine machine creativity with absolute feasibility. On the contrary, the creative, the designer, knows the limits of the materials, the boundaries within which the imagination can run, knows the joints of the production parameters, the problems with working the gems and so on. At present, no matter how many instructions are given, it’s not possible to guide Al to an optimal result, because it would be necessary to work with artificial intelligence that is not general but vertical- so-called narrow Al, which works only on one topic. Most forms of creativity have to do with materials and materials have physical limits that Al doesn’t know Right now the standard models we can use are perfect, I repeat, for brainstorming, help, as an aid for human creativity: used in this way, Al is an absolutely fantastic tool. Let’s also consider, for example, a ring proposed by Al with a set of colours that’s absolutely impossible for us: since the Al works on probability: perhaps by doing in-depth research we could discover that colour palette could instead work in another mar-ket, at this very moment or perhaps in the near future.

You often talk about ethical use of AL.
It’s important to understand that Al should be used with extreme caution when it has a direct impact on human lives. I’m thinking. for example, of skimming CVs, the description of people and so on… I’ve tested these aspects myself: the Al on which a curriculum skimming service, very widespread in Italy is based doesn’t know how to read my CV, doesn’t understand it and has pigeonholed me as an estate agent! A company that relies only on Al to evaluate or select people would deprive itself of some of potentially interesting resources and make other people miss out on potentially interesting opportunities. Artificial intelligence facilitates and improves our existence as long as it is used ethically, with an anthropocentric vision. Just think if mortgage rating based on artificial intelligence were to take hold… Some situations could actually create serious divisions in society: The human factor, human relationships must and must always be recognised as indispensable and irreplaceable.

Is it true that Al consumes huge amounts of water and electricity?
Unless the technology changes radically – and there are interesting developments in this regard – at the moment the use of electricity and water for cooling the machines on which the models work is really very high.
It’s clear that consumption affects any application, but Al language models work on such large databases that each query is extremely complex and requires a lot of computing power, also to be able to provide the results in super quick time. According to data provided by El Pais, between 5 and 50 prompts require the use of about half a litre of water! And, as far as energy is concerned, we must begin to think about the production of electricity and its life cycle, trying our best to use it responsibly. Of course, with Al we can also save on consumption, work, travel, so as always the context is complex and should be considered as a whole. However, at this moment many power plants in the world are still powered by coal: we must be aware that by using Al we are polluting a lot, so let’s make constructive use of it, let’s use it correctly and according to real needs.

Are you afraid of a dystopian future?
Facing the present is enough for me! I believe that now it’s important to work on raising the awareness of and providing information for the end user: Something will have to be done at the platform level, because the problem concerns both those who generate content and those who allow it to be distributed. But platforms won’t be able to easily develop a filter to prevent uploading Al-generated content until an electronic watermark is affixed to it, because to date there is no software that can safely distinguish images generated by artificial intelligence. The underving problem is the algorithms and models with which search engines, Al and social media work. With the Digital Service Act, the European Union is trying to tackle fundamental issues such as illegal content, transparent advertising, and disinformation in the digital environment. So I wouldn’t speak of future dystopias but rather of consciously facing today’s world and technologies, already very worrying – which, I will not grow tired of repeating, offer us wonderful opportu nities if used property For those wanting to delve deeper into these topics, I would like to conclude by recommending a book and a film: “Ten Arguments for Deleting Your Social Media Accounts Right Now” is a book by Jaron Lanier, a Silicon Valley computer scientist, among the leading experts in the digital world and one of today’s 100 most influential thinkers according to Time.
“The Social Dilemma” is a documentary that addresses the risks we are exposed to by social media, especially young people, such as addiction, manipulation, and political use.

LYDIA MENDOLA
Lydia Mendola, a lawyer, has been a partner of the Milanese law firm Portolano Cavallo since 2018, where she is responsible for the “Intellectual Property” area of activity; an area in which she has a long experience that, among other things, has earned her international awards and recognitions over time.

Copyright and Artificial Intelligence: a brand new chapter?
Not exactly: Generative Artificial Intelligence has exploded incredibly quickly and just as quickly has become accessible to everyone, but in reality the algorithms that are the basis of this technology are not new; similarly; the related issues have not arisen now: for example. there are articles of foreign doctrine on the theme of the intersection between copyright and generative Artificial Intelligence dating back to 2017. The point is that, in recent years, Artificial intelligence models have been progressively trained with an increasing amount of data and when they appeared on the market they caught users unprepared – and by users i also mean companies that intend to integrate Artificial Intelligence solutions into their business model. Unprepared, but at the same time fascinated by the opportunities that this technology seems to offer: The first release of ChatGPT was a year ago: since then, the best-known Large Language Model has reached 200 million monthly users This gives an idea of how fast the adoption of this new technology is growing.

Can you help us understand the relationship between copyright and the use of Artificial Intelligence?
First of all, the issue of copyright is relevant when discussing the lawfulness of the training of Artificial Intelligence models, because, as we know, these models are trained with immense amounts of data extracted from the web: it may then happen that even content protected by copyright is used to contribute to the training of the Artificial Intelligence model, without the holders of the relative exclusive rights having been consulted and ha ving issued authorization for extraction, copying and exploitation for that purpose. For example, Getty Images ongoing lawsuit against Stable Diffusion Al that appears to have used Getty Images database without the permission of this photo agency which owns some content and exclusively licenses the rights to others. At this time there is no one-size-fits-all solution to the issue. Probably in the USA the solution to the problem will depend on how the doctrine of fair use will be applied, while in the EU on how the text & data mining exception introduced by the Copyright Directive will be applied. Beyond the regulatory technicalities, both in Europe and in the United States, we are looking for ways to apply the existing rules in order to find a balance between the interest in innovation, technological and socio-economic progress of societies on the one hand, and the protection of fundamental rights including the protection of intellectual works resulting from human creativity

And what about the works resulting from Artificial Intelligence?
The issue of the protectability of the output of the Artificial Intelligence model is thorny and obviously extremely important for companies that integrate generative Artificial Intelligence solutions into their business models and who wonder if they will be able to exploit the output of the model, exercising exclusive rights over it – thus having the right to economic exploitation – or if the output is destined to fall into the public domain. At present, for example, the orientation of the US Copyright Office is to treat this issue with great caution.
For the moment, the Copyright Office has always refused the registration of works produced by generative Artificial intelligence models because in its opinion they do not have the minimum protection requirements required in terms of copyright by US legislation, according to which the work must be an expression of the creativity of a human being. This creative contribution of the human being does not exist at the moment when the creative process turns out to be out of the author’s control.
The Copyright Office has come to the conclusion that – at least in relation to the generative Artificial intelligence models object of its analysis, in particular Midjourney – the output of the Al platform is beyond the control of the author who – no matter how many prompts he/ she enters, no matter how much he/she tries to orient the model – is never able to predict precisely from the beginning what the final output will be. This delegation – in fact – to generative Artificial Intelligence of the creative moment prevents attributing to that work the minimum requirement for it to aspire to copyright pro-tection. However; this orientation has aroused a great debate precisely because companies in using generative Artificial Intelligence face considerable investments – of capital, time, dedicated people – which somehow must have a return. So the United States Copyright Office published some guidelines this summer according to which it is not always excluded that the output of the Artificial Intelligence model can be protected from a copyright point of view, at least when the intervention of Artificial Intelligence represents a step, a moment, within a more complex creative process, in which the author’s contribution is sufficiently relevant.

But how can the measure or percentage of an author’s creative contribution be calculated?
It is a balance that is obviously very complex, and obviously also susceptible to personal interpretations.
However – at present and unless the very concept of creativity is reviewed in the context of authorial legislation – it is advisable for companies to equip themselves with internal processes to record and monitor their creative process, because tomorrow it may be useful to be able to prove it in the event of a dispute. The point is to demonstrate that the author has exercised his/her control over the creative process and that the result substantially corresponds to what he/she had in mind from the beginning, that is, that he/she was not satisfied with what was provided by Artificial Intelligence but integrated that contribution with his/her work, perhaps with other tools and technologies and that this combination required an appreciable intellectual work. A recent or der of the Court of Cassation relating to a work generated by software (it was not Al generated work but the reasoning can easily be extended to a work generated by Al) established that it is mandatory to carry out a case-by-case factual assessment to verify whether and to what extent the use of the software has absorbed the creative processing of the artist who used it. in other words, the possibility that the output of a generative Al model is equipped with the requirement of creativity, and therefore is subject to copyright, is not excluded a priori, but it will be necessary to verify that the author has not completely delegated responsibility for the creative process to the machine or algorithm.

Undoubtedly, the relationship between copyright and Artificial Intelligence raises unprecedented questions…
The advent of every new technology has always led to the birth of great optimism on the one hand, and skep-ticism, suspicion and hostility on the other: Let me give you an example. Studying for some time the problems related to the protection of copyright, I came across a case before an American court at the end of the nineteenth century: the question concerned the possibility or not of granting copyright protection to a photograph – therefore to a product obtained through the aid of a machine, at the time a completely new technology. In that case, the court’s judgment was favourable because it was assessed that the final product, that photography, was essentially the result of creativity and human inge-nuity, as it was the photographer who had identified the model, chosen his clothes, suggested the expression, determined the location, decided how to exploit lights and shadows and so on. And today we find ourselves in a bit of the same situation: we have at our disposal a new tool that intervenes in the creative moment, which fits right into the moment of the genesis of the work and therefo re we have to understand how to handle it.
The Al Act, or the draft of the European regulation on Artificial Intelligence whose adoption is not, however; expected shortly; focuses on the risks and responsibilities of the subjects involved in the creation of the dif ferent types of artificial intelligence models, but at the moment it does not exhaustively touch on the issue of protection on the basis of copyright legislation of the input and output of generative Al models An attempt, in this sense, is represented by a recent draft law presented in France in which an attempt is made to outline some form of remuneration for authors and holders of exclusive rights over the works used for the training of generative Al models.

Will Artificial Intelligence itself help us juggle fake news and hallucinations?
Fake news presupposes that at the origin there is the will and awareness to spread false information or, at best, deliberately inaccurate and partial. This is information presented in a way that makes it appear authentic or credible, but is deliberately created to deceive. There are already Artificial Intelligence solutions trained to intercept and unmask fake news. Hallucination, on the other hand, in the context of Artificial intelligence and machine learning, refers to a situation in which an Al model, such as a text or image generator, produces results that are plausible, but not true, that is, inconsistent with real data. This is a kind of side effect resulting from the inherent limitations of the architecture, algorithms and training of Al models Text generation models, for example, may not have a true understanding of context or reality As a result, they can generate responses that seem superficially plausible but are fundamentally wrong or meaningless. These Al hallucinations are the subject of active research in the field of artificial intelli-gence, with the aim of improving the reliability, accuracy and robustness of the models. So once again, technological development will be the key to overcoming the limits shown by generative Al solutions today.

We have all read about companies that have banned their employees from using, for example, Chat-GPT: what do you think?
Is it really possible to “ban” a new technology whose speed of adoption is unprecedented? Or useful? In my opi-nion, companies should rather invest in training people, making them aware of the potential and at the same time of the limits and risks of Artificial Intelligence, including generative Al.
For example, one theme is the use that Al models make of data entered in the form of prompts or through APIs (Application Programming Interface), in generative AI platforms. Beyond the uncertainties of the regulatory framework, this is an aspect that is regulated by the Terms and Conditions of the Al platforms that regulate relations with the end user, or with the company that integrates the generative Al solution within its production process or business model to develop an application or service in favour of its customer
For example, according to the current OpenAl Terms and Conditions in relation to ChatGPT, the data transfer red through APis are subject to a confidentiality regime such that ChatGPT does not use them for training within its platform unless the customer decides otherwi-se; on the contrary, all the information provided as a prompt and obtained as an output contribute to training the ChatGPT LIM and this for companies can result in some cases in a potential dispersion of know-how:
If the user does not want their content or information to be used to train the model, they can exercise the opt-out but this could affect the models ability to deliver the output that is most consistent with the user’s request. It seems clear to me that greater awareness and sensitivity with respect to these issues is therefore beneficial.

Theme developed by TouchSize - Premium WordPress Themes and Websites