L’AI è alle prese con il complicatissimo tema dell’attribuzione delle fonti. Non c’è dubbio che sia necessario riconoscere agli autori una partecipazione agli utili che i lori testi o le loro immagini hanno conseguito. È un tema di giustizia ed anche un modo di evitare un impoverimento delle stesse fonti. Ma c’è un ma: senza con questo voler prendere le difese degli sviluppatori, un sistema aggressivo di difesa del copyright presenta una serie di svantaggi. Una conseguente restrizione delle fonti utilizzate potrebbe risultare deleteria, quasi esiziale, per l’intero progetto o in ogni caso determinare un progressivo impoverimento della qualità di quanto prodotto. Pensiamo a cosa avviene se escludiamo un esperimento scientifico o un trial clinico che ha richiesto anni di lavoro e che è stato certificato attraverso vari passaggi sperimentali, secondo metodologie strettamente definite, o gli attribuiamo lo stesso peso di affermazioni estemporanee, magari presentate da improvvisati proponenti di teorie cospiratorie, spesso nascosti dietro l’anonimato. Tolti Copernico e Galileo, ci ritroviamo presto con la terra piatta. Se limitiamo le fonti su cui si esercita l’intelligenza artificiale, per esempio a solo quelle disponibili gratuitamente, è ragionevole pensare che la qualità dell’output peggiori rapidamente. Come si è recentemente interrogata la rivista The Economist, rivista autorevole, naturalmente orientata verso soluzioni di libero mercato: “il copyright permetterà ai robot di imparare?”.
La recente diatriba intorno a ChatGPT ha dato notevole visibilità al fatto che, alla sua origine, i fondatori avevano inteso dare una forma di governo not for profit, non a scopo di lucro. Se ne intuisce la ragione: una struttura indipendente e senza scopo di lucro può di certo meglio garantire che si evolva verso una intelligenza artificiale “universale”, che garantisca la qualità dei contenuti e si arricchisca nel tempo con l’utilizzo di un’ampia diversità di fonti; che si dia regole, magari anche semplificate, di attribuzione dei diritti di autore e che riconosca la paternità dell’atto creativo; che indirizzi il tema dell’inquinamento informativo, senza pregiudicare la ricchezza dei punti di vista. Le recenti vicende hanno però evidenziato anche che l’accanita competizione e il rilevantissimo dispiego di risorse necessario difficilmente sono compatibili con un sistema di governo societario che non preveda la rapida appropriazione dei benefici dello sviluppo della tecnologia.
Tra “tecno-ostili” e “tecno-utopisti” è necessaria, ma difficilissima, una sintesi che mantenga l’innovazione su un binario giusto e controllato, prestando cura a non frenarne eccessivamente la corsa. Una prospettiva possibile, ma che richiede una concordia difficile da ottenere in un’epoca così polarizzata. È da questa prospettiva che si deve guardare all’accordo siglato poco più di un mese fa dal Parlamento Europeo e dal Consiglio Europeo. Il lavoro sull’AI Act oltre alla generative AI, include anche altri temi quali il riconoscimento delle emozioni, il social scoring, le tecniche manipolative e molto altro. Ne è risultato un accordo importante e ambizioso. Insomma, l’Unione Europea è la prima al mondo ad adottare una normativa così ambiziosa che disciplini in maniera organica il settore: un bel traguardo per il mercato unico; si tratta peraltro di una buona sintesi che salvaguarda l’innovazione affiancandovi regole “giuste”. Si può dubitare che questa sia l’ultima parola in materia: come sempre in questi ambiti, le regole andranno scritte, riscritte, aggiornate e modificate per stare al passo con una materia che avrà prevedibilmente rapidissime evoluzioni.