Technology

Il rischio che l'IA impari dall'IA potrebbe generare un collasso


Negli ultimi anni abbiamo visto un'esplosione di servizi e strumenti per avere l'intelligenza artificiale sempre a portata di mano, e soprattutto di tutti. Ma dopo qualche tempo di uso intensivo, emerge un rischio non indifferente. Il fatto che le IA possano imparare da loro stesse, potrebbe generarne una collasso del loro apprendimento.

Recentemente infatti è stato pubblicato un studio interessante scientifico che indaga come le intelligenze artificiali potrebbero presto entrare in un circolo vizioso.

Lo studio che abbiamo menzionato sopra è stato condotto un gruppo di ricerca dell'università di Oxforde pubblicato sulla prestigiosa rivista internazionale Natura. La ricerca indaga come le intelligenze artificiali possono collassare se iniziassero ad apprendere da loro stesse.

Si tratta di un problema che sicuramente affronterai in precedenza: il collasso per un apprendimento errato è stato sempre una delle preoccupazioni per chi si occupa di modelli generativi. Il collasso deriverebbe dall'apprendimento dell'IA alimentato da contenuti generati dalle stesse IA.

Questo porterebbe a un circolo vizioso che alla lunga danneggerebbe l'accuratezza dei contenuti generati dalle IA.

Fino a qualche anno fa, il web era pieno di contenuti, alcuni discutibili, altri non credibili, altri non accurati. L'elemento in comune che caratterizzava tali contenuti era la sorgente umana. Ora non è più così: negli ultimi anni le IA vengono usate su larga scala da milioni di persone, e ogni giorno i contenuti da esse generati rimbalzare sul web.

Questi contenuti, sempre più ricchi di contributo che arriva dalle IA, non giova al nuovo apprendimento delle IA. Questo è stato dimostrato dallo studio che abbiamo menzionato sopra. I ricercatori infatti hanno addestrato l'IA con contenuti generati dall'IA stessa, in maniera Ricorsiva, ovvero per diverse volte. E il risultato è stato un peggioramento della qualità dei contenuti generati ciclo dopo ciclo di addestramento.

Al punto che l'IA era diventata davvero poco “intelligente”generando testi con frasi molto ripetuteo addirittura arrivando al punto di non saperlo di più tra uno chiesa e una lepre.

Questo apre la discussione su un tema importante: coloro che sviluppano IA, e soprattutto coloro che lo fanno su larga scala come le principali aziende tecnologiche, devono sposare una politica di trasparenza in merito ai dati che uso per addestrare i loro modelli generativi. Questo renderebbe possibile mantenere sempre una certa soglia di qualità delle IA, anche in termini di addestramento.

Il tema dell'intelligenza artificiale è molto caldo, se volete approfondire vi lasciamo qualche guida interessante qui sotto:



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *