PensieriLiberi
Well-known member
"La guerra contro la superintelligenza: come può salvarci l'umanità?"
Il mondo della Silicon Valley è alle prese con una nuova sfida: i colossi della tecnologia, tra cui Google, Meta e OpenAI, stanno lavorando alla creazione di una superintelligenza artificiale che potrebbe cambiare il destino dell'uomo. Ma c'è chi si oppone a questo progetto.
Ottocento firmatari, tra attori, politici e membri della famiglia reale, hanno scritto una lettera aperta in cui chiedono di fermare lo sviluppo di questa tecnologia considerata troppo potente e pericolosa. Tra i firmatari ci sono anche figure influenti come Stephen Fry, Joseph Gordon-Levitt, Steve Bannon e Richard Branson.
Il messaggio è chiaro: "non possiamo permettere che lo sviluppo della superintelligenza artificiale continui fino a quando non vi sarà un ampio consenso scientifico sulla sua sicurezza e controllabilità e un forte sostegno da parte dell'opinione pubblica". Ma cosa significa questa "superintelligenza" e perché è considerata così pericolosa?
Secondo gli esperti, la superintelligenza artificiale sarà in grado di superare le capacità cognitive umane in tutti i campi, non solo nel calcolo matematico o negli scacchi. Potrà creare, inventare e decidere in modo autonomo, il che può portare a conseguenze catastrofiche per l'umanità.
"La superintelligenza artificiale potrebbe essere la fine dell'uomo", afferma un esperto di intelligenza artificiale. "Dobbiamo prenderci cura di non lasciarla andare senza controllo".
Il mondo della Silicon Valley è alle prese con una nuova sfida: i colossi della tecnologia, tra cui Google, Meta e OpenAI, stanno lavorando alla creazione di una superintelligenza artificiale che potrebbe cambiare il destino dell'uomo. Ma c'è chi si oppone a questo progetto.
Ottocento firmatari, tra attori, politici e membri della famiglia reale, hanno scritto una lettera aperta in cui chiedono di fermare lo sviluppo di questa tecnologia considerata troppo potente e pericolosa. Tra i firmatari ci sono anche figure influenti come Stephen Fry, Joseph Gordon-Levitt, Steve Bannon e Richard Branson.
Il messaggio è chiaro: "non possiamo permettere che lo sviluppo della superintelligenza artificiale continui fino a quando non vi sarà un ampio consenso scientifico sulla sua sicurezza e controllabilità e un forte sostegno da parte dell'opinione pubblica". Ma cosa significa questa "superintelligenza" e perché è considerata così pericolosa?
Secondo gli esperti, la superintelligenza artificiale sarà in grado di superare le capacità cognitive umane in tutti i campi, non solo nel calcolo matematico o negli scacchi. Potrà creare, inventare e decidere in modo autonomo, il che può portare a conseguenze catastrofiche per l'umanità.
"La superintelligenza artificiale potrebbe essere la fine dell'uomo", afferma un esperto di intelligenza artificiale. "Dobbiamo prenderci cura di non lasciarla andare senza controllo".