Technology

È possibile addestrare un'IA “eticamente”? Anthropic avrebbe usato libri piratati per allenare Claude


A quanto pare allenare l'IA è impossibile senza violare i diritti d'autore. Almeno questa è l'idea che ci si può fare dopo i continui “scandali” nel mondo dell'intelligenza artificiale generativa.

L'ultimo viene dalla denuncia depositata appena ieri da Andrea Bartz, Carlo Graeber e Il dottor Kirk Wallace Johnson controllo Antropico, che avrebbe utilizzato i loro libri piratati per allenare il suo modello IA Claude, una delle migliore alternativa a GPT di OpenAI.

Una matrioska di database con contenuti estratti dal Web

La denuncia da parte di autore o case editrici controllano le aziende che sviluppare modelli IA sono ormai all'ordine del giorno, ma quest'ultima rivela una debolezza intrinseca di questa tecnologia: la fama di dati e l'utilizzo indiscriminato del Web per ottenerli.

Tutto parte da un database di libri piratati, Libri3che l'hanno scorso è stato oggetto di una causa da parte di diversi scrittori come La vita di Margaret Atwood, Michele Pollan e Zadie Smithche denunciavano l'utilizzo dei loro libri per allenare i modelli di intelligenza artificiale.

La piattaforma che ospitava il set di dati, Bibliotica, ha chiuso, ma Libri3 ha continuato una circolare. È appena di un mese fa la notizia che diversi creatori di YouTube hanno lamentato l'utilizzo dei loro libri per allenare l'IA.

Come sono stati usati i video? Attraverso trascritti contenuti in un set di dati chiamato Il mucchioliberamente disponibile su Internet, e che guarda caso contiene il database Libri3.

Le aziende coinvolte, tra cui Antropico e NVIDIA, si sono giustificate dicendo che loro non hanno raccolto i dati, ma utilizzato quelli raccolti da altri.

Tuttavia, i dati violano il copyright e loro li utilizzano per allenare le loro fameliche IA, sfruttate per guadagnare miliardi di dollari.

Eleuter AIl'organizzazione senza scopo di lucro dietro The Pile, Meta e Microsoft sono già stati denunciati da diversi autori per violazione del copyright l'anno scorso, così come IA aperta.

La causa contro Anthropic potrebbe aprire un vaso di Pandora

Veniamo alla denuncia occidentale.

Tre scrittori hanno denunciato ieri Anthropic, che ricordiamo si vanta di non addestrare i suoi modelli su dati pubblici e di promuovere un'IA “sicura” (e ha beneficiato di un investimento di 4 miliardi di dollari da parte di Amazon).

Si tratta di Andrea Bartzl'autore di Non siamo mai stati qui, Carlo Graeberche ha scritto The Good Nurse, e avvocato Johnson, l'autore di The Feather Thief.

Gli autori ammettono che Books3 non è più presente nella versione ufficiale di The Pile, ma è presente nelle versioni che circolano ancora su Internet, e dichiarano come sia evidente che Antropico abbia “scaricato e riprodotto copie di The Pile and Books3, sapendo che questi set di dati erano costituiti da un tesoro di contenuti protetti da copyright provenienti da siti web pirata come Bibiliotik“, si legge nella causa.

Gli autori vogliono che il tribunale certifichi la class action e la richiesta ad Antropico di pagare i danni propone e impedisce alla società di utilizzare materiale protetto da copyright in futuro.

Ricordiamo che Libri3 contiene libri di migliaia di autori, tra cui Stephen King, per citare un nome famoso. E possiamo immaginare le prospettive che potrebbero aprire se accolta.

Un'IA etica è possibile?

Antropico dovrebbe essere un'azienda etica, ma ci sono troppi incentivi dietro questo settore. I modelli IA devono essere continuamente migliorati, e per migliorarli devono fagocitare sempre più dati.

Ci sono anche i dati creati artificialmente, ma evidentemente non sono abbastanza buoni, o in quantità sufficiente. E poi c'è la questione del denaro, tanto denaro: le aziende vogliono vedere un rapido ritorno sui loro investimenti e massimizzare il profitto.

Le aziende non sono in grado da sole di risolvere questo problema, ed è quindi compito dei governi mettere dei palette. Secondo alcuni esperti, la soluzione potrebbe essere un mix di incentivi positiviVenire agevolazioni fiscali per le aziende che dimostrano di sostenere standard etici, e incentivi negativi, come multiplo per comportamenti scorretti.

Approfondimenti sull'IA

Se l'IA è la tua passione, data un'occhiata ai nostri approfondimenti sull'argomento: scoprirete sicuramente qualche trucco per usarla meglio!



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *