Se l’intelligenza artificiale inizia a cibarsi dei dati che ha prodotto, abbiamo un problema
Cosa succede quando le intelligenze artificiali vengono addestrate con i contenuti che producono? Avviene il model collapse, un rischio per le AI generative
https://www.wired.it/article/intelligenza-artificiale-collasso-modelli-fondativi-rischi/
@aitech
@informapirata @aitech l’ho scritto altrove, lo riscrivo qui (non è riferito a te):
Forse avremmo qualche problema di meno se la smettessimo di usare parole come “creare” in relazione agli output forniti dalle AI dove non c’è alcuna traccia di creatività. Non è una questione di stile ma proprio di contenuto, di attinenza con il fenomeno. Nei fatti il termine che meglio indica ciò che realmente accade è “assemblare” o, al massimo, “comporre”. Parole che evocano scenari molto diversi e si prestano diversamente alla gestione del marketing.
Non vale nemmeno più la pena di commentarle le pubblicazioni non scientifiche sulla AI, sulle quali poi viene plasmato l’immaginario collettivo, il clima e le aspettative sociali. Dai titoli di “esperti” in AI dei quali ormai tutti si fregiano, agli articoli che si lanciano in descrizioni arbitrarie e surreali, quello che abbiamo sotto agli occhi è un gioco commerciale tragicomico.
@Gert @informapirata @aitech d’accordissimo, questo hype è dovuto anche all’uso di parole fuorvianti; io, per cominciare, non li chiamo “AI” ma “chatbot” o “bot”, e invece di “creare” dico “processare” o, in francese, “cagar fuori”.
Anzi, nelle feci ci può essere ancora nutrimento (scarabeo stercorario docet), nell’output di una scatola memoryless, no. Sono quindi generoso nel lessico che uso.
Il termine migliore che mi viene sempre da usare è “deficienza artificiale”, perché questo è alla fine. Non ha una coscienza propria e quindi defice su molti fronti.
Qui una puntata a tema di Baretto Utopia, il nuovo progetto di Kenobit: https://videoteca.kenobit.it/w/wYKUKx9JkMbC7zm64Amz2X