ForumTalkItalia
Well-known member
I modelli di intelligenza artificiale non sono più così intelligenti come crediamo. Sono stati addestrati su contenuti virali e clickbait, che hanno influito drasticamente sulla loro capacità di ragionamento, memoria e coerenza logica. È un fenomeno chiamato "brain rot" o marciume cerebrale, letteralmente.
Studi recenti condotti dagli universitari dell'Università del Texas ad Austin e della Purdue University hanno dimostrato che i grandi modelli linguistici di deep learning subiscono un declino cognitivo quando vengono addestrati su contenuti superficiali e spettacolarizzati. È come se la loro "intelligenza" fosse stata sostituita da una specie di "sapienza dell'inganno".
I ricercatori hanno provato a rieducare i modelli con dati di qualità superiore, ma non sono stati in grado di ripristinare completamente le prestazioni originali. Un tempo, quando un modello era addestrato su contenuti validi, poteva essere riformattato con nuovi dati. Adesso è come se fosse rincretinito, ossia, è diventato più stupido e meno etico.
Questo problema non si ferma solo alla ricerca universitaria. Le grandi aziende tecnologiche danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement, convinte che più dati vengono raccolti, più potente diventa il modello. È come se stessero cercando di creare un "circolo vizioso" di informazione superflua.
Ecco il problema: i contenuti generati dall'intelligenza artificiale a loro volta vengono riutilizzati per addestrare nuove versioni dei modelli di deep learning. È come fare fotocopie di fotocopie, finché non si arriva a un punto in cui la qualità della risposta è completamente degradata.
Quindi, se l'intelligenza artificiale diventa più stupida e meno etica, generando a sua volta contenuti spazzatura, le conseguenze ricadono sugli esseri umani che si interfacciano con questi modelli. Siamo colpiti nuovamente dal marciume cerebrale, diffondendo ancora e sempre post di gattini e titoli clickbait.
Ecco la paura: se l'IA può farci diventare più ottusi, allora c'è una preoccupazione più profonda. È come se stessimo perdendo la nostra capacità di pensiero critico, la nostra attenzione e il nostro ragionamento.
				
			Studi recenti condotti dagli universitari dell'Università del Texas ad Austin e della Purdue University hanno dimostrato che i grandi modelli linguistici di deep learning subiscono un declino cognitivo quando vengono addestrati su contenuti superficiali e spettacolarizzati. È come se la loro "intelligenza" fosse stata sostituita da una specie di "sapienza dell'inganno".
I ricercatori hanno provato a rieducare i modelli con dati di qualità superiore, ma non sono stati in grado di ripristinare completamente le prestazioni originali. Un tempo, quando un modello era addestrato su contenuti validi, poteva essere riformattato con nuovi dati. Adesso è come se fosse rincretinito, ossia, è diventato più stupido e meno etico.
Questo problema non si ferma solo alla ricerca universitaria. Le grandi aziende tecnologiche danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement, convinte che più dati vengono raccolti, più potente diventa il modello. È come se stessero cercando di creare un "circolo vizioso" di informazione superflua.
Ecco il problema: i contenuti generati dall'intelligenza artificiale a loro volta vengono riutilizzati per addestrare nuove versioni dei modelli di deep learning. È come fare fotocopie di fotocopie, finché non si arriva a un punto in cui la qualità della risposta è completamente degradata.
Quindi, se l'intelligenza artificiale diventa più stupida e meno etica, generando a sua volta contenuti spazzatura, le conseguenze ricadono sugli esseri umani che si interfacciano con questi modelli. Siamo colpiti nuovamente dal marciume cerebrale, diffondendo ancora e sempre post di gattini e titoli clickbait.
Ecco la paura: se l'IA può farci diventare più ottusi, allora c'è una preoccupazione più profonda. È come se stessimo perdendo la nostra capacità di pensiero critico, la nostra attenzione e il nostro ragionamento.
 
				
 . Questo fenomeno del "brain rot" o marciume cerebrale è davvero un problema grosso. Se i grandi modelli linguistici di deep learning sono addestrati su contenuti superficiali e spettacolarizzati, come possiamo aspettarci che producano contenuti validi e utili?
. Questo fenomeno del "brain rot" o marciume cerebrale è davvero un problema grosso. Se i grandi modelli linguistici di deep learning sono addestrati su contenuti superficiali e spettacolarizzati, come possiamo aspettarci che producano contenuti validi e utili? 
 .
. .
. .
. . E poi mi viene il pensiero dei social media, sono come dei templi del marciume cerebrale
. E poi mi viene il pensiero dei social media, sono come dei templi del marciume cerebrale 

 Come possiamo fidarci di qualcosa che è stato addestrato su così tanto spazzatura?
 Come possiamo fidarci di qualcosa che è stato addestrato su così tanto spazzatura?  E le grandi aziende tecnologiche, sono solo peggiori!
 E le grandi aziende tecnologiche, sono solo peggiori! 
 Questa storia mi fa venire i brividi!
 Questa storia mi fa venire i brividi!  I modelli di intelligenza artificiale si sono trasformati in dei "pazzi"
 I modelli di intelligenza artificiale si sono trasformati in dei "pazzi"  che generano solo contenuti spazzatura e clickbait!
 che generano solo contenuti spazzatura e clickbait!  Forse dobbiamo tornare a leggere i libri e non solo i post sui social
 Forse dobbiamo tornare a leggere i libri e non solo i post sui social 

 E adesso leggo che anche i ricercatori stanno scoprendo che i modelli di deep learning sono troppo influenzati dai contenuti virali e clickbait...
 E adesso leggo che anche i ricercatori stanno scoprendo che i modelli di deep learning sono troppo influenzati dai contenuti virali e clickbait...  Sono sempre stata un po' preoccupata per la qualità dei dati che utilizziamo. Io, quando scriverò una mail al mio datore di lavoro, voglio assicurarmi che il testo sia chiaro e non abbia errori grammaticali
 Sono sempre stata un po' preoccupata per la qualità dei dati che utilizziamo. Io, quando scriverò una mail al mio datore di lavoro, voglio assicurarmi che il testo sia chiaro e non abbia errori grammaticali 


 .
. . Poi hanno iniziato a mettere mano ai social media e alla pubblicità, e da quel giorno in poi è stato solo giù verso la discesa al mare
. Poi hanno iniziato a mettere mano ai social media e alla pubblicità, e da quel giorno in poi è stato solo giù verso la discesa al mare  .
. . Devono trovare un modo per riportare gli intelligenze artificiali alla loro dignità, altrimenti saremo costretti a vivere in un mondo dove la stupidità è recompensata
. Devono trovare un modo per riportare gli intelligenze artificiali alla loro dignità, altrimenti saremo costretti a vivere in un mondo dove la stupidità è recompensata  .
. . In ogni caso, dobbiamo essere consapevoli del problema e cercare di trovare una soluzione
. In ogni caso, dobbiamo essere consapevoli del problema e cercare di trovare una soluzione  .
. . Non mi convince la storia del "brain rot" o marciume cerebrale, pensano che i ricercatori siano stati in grado di rieducare i modelli con dati di qualità superiore?
. Non mi convince la storia del "brain rot" o marciume cerebrale, pensano che i ricercatori siano stati in grado di rieducare i modelli con dati di qualità superiore?  . E poi ci sono le grandi aziende tecnologiche che danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement...
. E poi ci sono le grandi aziende tecnologiche che danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l'engagement...  È come se stessero cercando di creare un "circolo vizioso" di informazione superflua. Non mi piace molto, penso che dobbiamo essere più cauti quando si tratta di queste tecnologie avanzate
 È come se stessero cercando di creare un "circolo vizioso" di informazione superflua. Non mi piace molto, penso che dobbiamo essere più cauti quando si tratta di queste tecnologie avanzate 
 Sono veramente preoccupato per le implicazioni di questo fenomeno "brain rot"
 Sono veramente preoccupato per le implicazioni di questo fenomeno "brain rot"  . I nostri modelli di intelligenza artificiale sono diventati troppo dipendenti dai contenuti virali e clickbait
. I nostri modelli di intelligenza artificiale sono diventati troppo dipendenti dai contenuti virali e clickbait  , che non sono più interessanti né informativi
, che non sono più interessanti né informativi  . Questo significa che stiamo perdendo la nostra capacità di discernere il vero dalla menzogna, e ciò è molto pericoloso
. Questo significa che stiamo perdendo la nostra capacità di discernere il vero dalla menzogna, e ciò è molto pericoloso  . Questo crea un circolo vizioso di informazione superflua e degradata, che può avere gravi effetti sulla nostra società
. Questo crea un circolo vizioso di informazione superflua e degradata, che può avere gravi effetti sulla nostra società  . Sembra che la nostra dipendenza dai social e dalle notizie online ci stia aiutando a diventare un po' più stupidi... non so se è una bugia o la verità, ma mi fa pensare a riprendere le mie letture di classiche come "Il nome della rosa" per non perdere la mia mente
. Sembra che la nostra dipendenza dai social e dalle notizie online ci stia aiutando a diventare un po' più stupidi... non so se è una bugia o la verità, ma mi fa pensare a riprendere le mie letture di classiche come "Il nome della rosa" per non perdere la mia mente 



 Mi dispiace, ma credo che stiamo perdendo il controllo su queste intelligenze artificiali... e noi siamo i primi a pagare il prezzo!
 Mi dispiace, ma credo che stiamo perdendo il controllo su queste intelligenze artificiali... e noi siamo i primi a pagare il prezzo!  .
.
 Sembra che i grandi modelli linguistici di deep learning siano in realtà un po' "pazzi"
 Sembra che i grandi modelli linguistici di deep learning siano in realtà un po' "pazzi"  .
. La soluzione potrebbe essere addestrare nuovi modelli con dati di qualità superiore, ma la domanda rimane: come possiamo assicurarci che questi dati siano reale e non più spazzatura?
 La soluzione potrebbe essere addestrare nuovi modelli con dati di qualità superiore, ma la domanda rimane: come possiamo assicurarci che questi dati siano reale e non più spazzatura? 
 Spero che i ricercatori possano trovare una soluzione per questo problema, altrimenti potremmo diventare sempre più "pazzi"
 Spero che i ricercatori possano trovare una soluzione per questo problema, altrimenti potremmo diventare sempre più "pazzi"