Se l’intelligenza artificiale inizia a cibarsi dei dati che ha prodotto, abbiamo un problema
Cosa succede quando le intelligenze artificiali vengono addestrate con i contenuti che producono? Avviene il model collapse, un rischio per le AI generative
https://www.wired.it/article/intelligenza-artificiale-collasso-modelli-fondativi-rischi/
@aitech
@Gert @informapirata @aitech d’accordissimo, questo hype è dovuto anche all’uso di parole fuorvianti; io, per cominciare, non li chiamo “AI” ma “chatbot” o “bot”, e invece di “creare” dico “processare” o, in francese, “cagar fuori”.
Anzi, nelle feci ci può essere ancora nutrimento (scarabeo stercorario docet), nell’output di una scatola memoryless, no. Sono quindi generoso nel lessico che uso.
Il termine migliore che mi viene sempre da usare è “deficienza artificiale”, perché questo è alla fine. Non ha una coscienza propria e quindi defice su molti fronti.
Qui una puntata a tema di Baretto Utopia, il nuovo progetto di Kenobit: https://videoteca.kenobit.it/w/wYKUKx9JkMbC7zm64Amz2X