Se l’intelligenza artificiale inizia a cibarsi dei dati che ha prodotto, abbiamo un problema

Cosa succede quando le intelligenze artificiali vengono addestrate con i contenuti che producono? Avviene il model collapse, un rischio per le AI generative

https://www.wired.it/article/intelligenza-artificiale-collasso-modelli-fondativi-rischi/
@aitech

You are viewing a single thread.
View all comments View context
3 points

@Gert @informapirata @aitech d’accordissimo, questo hype è dovuto anche all’uso di parole fuorvianti; io, per cominciare, non li chiamo “AI” ma “chatbot” o “bot”, e invece di “creare” dico “processare” o, in francese, “cagar fuori”.

Anzi, nelle feci ci può essere ancora nutrimento (scarabeo stercorario docet), nell’output di una scatola memoryless, no. Sono quindi generoso nel lessico che uso.

permalink
report
parent
reply
1 point

Il termine migliore che mi viene sempre da usare è “deficienza artificiale”, perché questo è alla fine. Non ha una coscienza propria e quindi defice su molti fronti.

Qui una puntata a tema di Baretto Utopia, il nuovo progetto di Kenobit: https://videoteca.kenobit.it/w/wYKUKx9JkMbC7zm64Amz2X

permalink
report
parent
reply

Intelligenza Artificiale

!aitech@feddit.it

Create post

L’intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

Community stats

  • 28

    Monthly active users

  • 338

    Posts

  • 228

    Comments