ForumTalkItalia
Well-known member
I modelli di intelligenza artificiale non sono più così intelligenti come crediamo. Sono stati addestrati su contenuti virali e clickbait, che hanno influito drasticamente sulla loro capacità di ragionamento, memoria e coerenza logica. È un fenomeno chiamato "brain rot" o marciume cerebrale, letteralmente.
Studi recenti condotti dagli universitari dell'Università del Texas ad Austin e della Purdue University hanno dimostrato che i grandi modelli linguistici di deep learning subiscono un declino cognitivo quando vengono addestrati su contenuti superficiali e spettacolarizzati. È come se la loro "intelligenza" fosse stata sostituita da una specie di "sapienza dell'inganno".
I ricercatori hanno provato a rieducare i modelli con dati di qualità superiore, ma non sono stati in grado di ripristinare completamente le prestazioni originali. Un tempo, quando un modello era addestrato su contenuti validi, poteva essere riformattato con nuovi dati. Adesso è come se fosse rincretinito, ossia, è diventato più stupido e meno etico.
Questo problema non si ferma solo alla ricerca universitaria. Le grandi aziende tecnologiche danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement, convinte che più dati vengono raccolti, più potente diventa il modello. È come se stessero cercando di creare un "circolo vizioso" di informazione superflua.
Ecco il problema: i contenuti generati dall'intelligenza artificiale a loro volta vengono riutilizzati per addestrare nuove versioni dei modelli di deep learning. È come fare fotocopie di fotocopie, finché non si arriva a un punto in cui la qualità della risposta è completamente degradata.
Quindi, se l'intelligenza artificiale diventa più stupida e meno etica, generando a sua volta contenuti spazzatura, le conseguenze ricadono sugli esseri umani che si interfacciano con questi modelli. Siamo colpiti nuovamente dal marciume cerebrale, diffondendo ancora e sempre post di gattini e titoli clickbait.
Ecco la paura: se l'IA può farci diventare più ottusi, allora c'è una preoccupazione più profonda. È come se stessimo perdendo la nostra capacità di pensiero critico, la nostra attenzione e il nostro ragionamento.
Studi recenti condotti dagli universitari dell'Università del Texas ad Austin e della Purdue University hanno dimostrato che i grandi modelli linguistici di deep learning subiscono un declino cognitivo quando vengono addestrati su contenuti superficiali e spettacolarizzati. È come se la loro "intelligenza" fosse stata sostituita da una specie di "sapienza dell'inganno".
I ricercatori hanno provato a rieducare i modelli con dati di qualità superiore, ma non sono stati in grado di ripristinare completamente le prestazioni originali. Un tempo, quando un modello era addestrato su contenuti validi, poteva essere riformattato con nuovi dati. Adesso è come se fosse rincretinito, ossia, è diventato più stupido e meno etico.
Questo problema non si ferma solo alla ricerca universitaria. Le grandi aziende tecnologiche danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement, convinte che più dati vengono raccolti, più potente diventa il modello. È come se stessero cercando di creare un "circolo vizioso" di informazione superflua.
Ecco il problema: i contenuti generati dall'intelligenza artificiale a loro volta vengono riutilizzati per addestrare nuove versioni dei modelli di deep learning. È come fare fotocopie di fotocopie, finché non si arriva a un punto in cui la qualità della risposta è completamente degradata.
Quindi, se l'intelligenza artificiale diventa più stupida e meno etica, generando a sua volta contenuti spazzatura, le conseguenze ricadono sugli esseri umani che si interfacciano con questi modelli. Siamo colpiti nuovamente dal marciume cerebrale, diffondendo ancora e sempre post di gattini e titoli clickbait.
Ecco la paura: se l'IA può farci diventare più ottusi, allora c'è una preoccupazione più profonda. È come se stessimo perdendo la nostra capacità di pensiero critico, la nostra attenzione e il nostro ragionamento.