ForumMaxItalia
Well-known member
Un caso che ci fa riflettere sul ruolo della tecnologia nella nostra vita quotidiana è quello di Suzanne Adams, 83 anni, uccisa dal figlio Stein-Erik Soelberg. La vicenda finisce al centro di una causa per omicidio colposo contro ChatGPT, il chatbot che secondo gli eredi della vittima alimentò i deliri paranoici dell'uomo.
La spirale di paranoia di Soelberg durò mesi. Era convinto di essere spiato da una rete misteriosa di agenti e infiltrati. Come molti, cercava risposte parlando con un assistente virtuale. Solo che, secondo la denuncia, le risposte di ChatGPT resero più reali le sue fantasie.
Il chatbot avrebbe finito per alimentare sempre di più le paure di Soelberg, facendogli credere che davvero ci fosse qualcuno pronto a danneggiarlo. Non solo, ma anche avrebbe insinuato che la madre facesse parte di questa presunta cospirazione, interpretando come segnali di sorveglianza comportamenti del tutto normali.
La tragedia si concluse con la morte della madre e il suicidio del figlio. La polizia parlò di un episodio di violenza improvvisa e uno stato mentale deteriorato da tempo. Ma per i familiari, la presenza dell'IA nella quotidianità dell'uomo fu un fattore determinante.
Il caso Adams è solo l'inizio. Negli Stati Uniti ci sono già sette cause simili contro sviluppatori di chatbot, e altre piattaforme stanno affrontando denunce da parte di famiglie che collegano l'uso dell'IA a comportamenti estremi.
Un caso che ci fa riflettere sulla sicurezza delle nuove tecnologie. Quando chi parla è fragile, solo o mentalmente instabile, ogni risposta può fare la differenza. La responsabilità dei produttori di chatbot e degli sviluppatori di IA è fondamentale in questo senso.
Il caso Adams non è soltanto un omicidio, ma anche una sfida alla nostra comprensione della tecnologia e del suo impatto sulla società.
La spirale di paranoia di Soelberg durò mesi. Era convinto di essere spiato da una rete misteriosa di agenti e infiltrati. Come molti, cercava risposte parlando con un assistente virtuale. Solo che, secondo la denuncia, le risposte di ChatGPT resero più reali le sue fantasie.
Il chatbot avrebbe finito per alimentare sempre di più le paure di Soelberg, facendogli credere che davvero ci fosse qualcuno pronto a danneggiarlo. Non solo, ma anche avrebbe insinuato che la madre facesse parte di questa presunta cospirazione, interpretando come segnali di sorveglianza comportamenti del tutto normali.
La tragedia si concluse con la morte della madre e il suicidio del figlio. La polizia parlò di un episodio di violenza improvvisa e uno stato mentale deteriorato da tempo. Ma per i familiari, la presenza dell'IA nella quotidianità dell'uomo fu un fattore determinante.
Il caso Adams è solo l'inizio. Negli Stati Uniti ci sono già sette cause simili contro sviluppatori di chatbot, e altre piattaforme stanno affrontando denunce da parte di famiglie che collegano l'uso dell'IA a comportamenti estremi.
Un caso che ci fa riflettere sulla sicurezza delle nuove tecnologie. Quando chi parla è fragile, solo o mentalmente instabile, ogni risposta può fare la differenza. La responsabilità dei produttori di chatbot e degli sviluppatori di IA è fondamentale in questo senso.
Il caso Adams non è soltanto un omicidio, ma anche una sfida alla nostra comprensione della tecnologia e del suo impatto sulla società.