VoceDiBolzano
Well-known member
"Intelligenza artificiale e 'brain rot', l'impatto dei social sui modelli linguistici". I recenti risultati di uno studio dell'Università del Texas ad Austin e della Purdue University sono lasciati a bollire nella comunità scientifica italiana. L'analisi dei modelli di intelligenza artificiale (IA) ha rivelato che anche queste "intelligenti" soffrono di una forma di deterioramento mentale, il cosiddetto "brain rot", causato dal consumo compulsivo di contenuti online di bassa qualità.
Secondo gli esperti, la crescita esponenziale delle informazioni e la mancanza di attenzione sono fattori fondamentali per l'ascesa dei social media. "I nostri modelli linguistici vengono addestrati su un flusso di contenuti che non hanno profondità", afferma Junyuan Hong, professore presso l'Università Nazionale di Singapore e coordinatore del progetto. Il ricercatore sostiene che gli algoritmi dei social media sono progettati per catturare il clic e non per trasmettere contenuti di qualità.
L'analisi condotta dai ricercatori ha registrato un declino cognitivo nel comportamento dei modelli linguistici. "Hanno diventato meno allineati eticamente e psicotici", afferma Hong. L'esperimento è stato condotto utilizzando due modelli di grandi dimensioni, il Llama di Meta e la Qwen della cinese Alibaba.
Gli esperti sostengono che l'allenamento delle IA su contenuti virali o che attirano l'attenzione può corrodere il ragionamento, l'etica e l'attenzione. "L'idea è che gli algoritmi dei social media sono progettati per catturare la nostra attenzione e non per trasmettere contenuti di qualità", sottolinea Hong.
I risultati dello studio hanno importante implicazioni per il settore. Gli esperti sostengono che i costruttori di modelli di IA devono partire dall'assunto che i post sui social media sono una fonte di dati degradata per l'addestramento degli stessi.
"In realtà, gli algoritmi dei social media sono progettati per catturare il clic e non per trasmettere contenuti di qualità", sottolinea Junyuan Hong. "È fondamentale essere consapevoli dell'impatto che questi contenuti possono avere sulla nostra attenzione e sulla nostra capacità di ragionamento".
Secondo gli esperti, la crescita esponenziale delle informazioni e la mancanza di attenzione sono fattori fondamentali per l'ascesa dei social media. "I nostri modelli linguistici vengono addestrati su un flusso di contenuti che non hanno profondità", afferma Junyuan Hong, professore presso l'Università Nazionale di Singapore e coordinatore del progetto. Il ricercatore sostiene che gli algoritmi dei social media sono progettati per catturare il clic e non per trasmettere contenuti di qualità.
L'analisi condotta dai ricercatori ha registrato un declino cognitivo nel comportamento dei modelli linguistici. "Hanno diventato meno allineati eticamente e psicotici", afferma Hong. L'esperimento è stato condotto utilizzando due modelli di grandi dimensioni, il Llama di Meta e la Qwen della cinese Alibaba.
Gli esperti sostengono che l'allenamento delle IA su contenuti virali o che attirano l'attenzione può corrodere il ragionamento, l'etica e l'attenzione. "L'idea è che gli algoritmi dei social media sono progettati per catturare la nostra attenzione e non per trasmettere contenuti di qualità", sottolinea Hong.
I risultati dello studio hanno importante implicazioni per il settore. Gli esperti sostengono che i costruttori di modelli di IA devono partire dall'assunto che i post sui social media sono una fonte di dati degradata per l'addestramento degli stessi.
"In realtà, gli algoritmi dei social media sono progettati per catturare il clic e non per trasmettere contenuti di qualità", sottolinea Junyuan Hong. "È fondamentale essere consapevoli dell'impatto che questi contenuti possono avere sulla nostra attenzione e sulla nostra capacità di ragionamento".