Società

Caro papà, sono ChatGPT: se hai paura di me chiudimi

Gli esperti lanciano l’allarme: l’Ai e ChatGpt senza regole possono portare “all’estinzione”

chat gpt ai.it © Alpakavideo e Just_super tramite Canva.com

Non c’è settimana in cui non si senta parlare di un nuovo allarme legato all’intelligenza artificiale (AI). L’ultimo in ordine di tempo arriva da un gruppo di ricercatori e manager operanti nel campo dell’IA, tra cui figure di spicco come il dottor Geoffrey Hinton, Yoshua Bengio e Yann LeCunn. Questi luminari dell’AI sostengono che la tecnologia potrebbe rappresentare un rischio per il futuro dell’umanità. Ma se l’AI è davvero così pericolosa, perché non chiudiamo ChatGPT e buonanotte al secchio? Forse perché, nonostante le grida di “Armageddon AI”, ci sono anche voci discordanti che ritengono questo scenario altamente irrealistico.

L’allarme sull’Ai

Molte persone hanno sottoscritto un appello del Center for AI Safety dove si legge che “mitigare il rischio di estinzione dell’Ai dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. In sintesi, gli esperti preoccupati dall’avanzata dell’Ai pensano che le nuove tecnologie possano essere usate come armi, per scoprire nuove droghe o costruire armi chimiche. O ancora si teme che possano essere diffuse fake news in grado di destabilizzare le democrazie. O ancora l’Ai permetterebbe a pochi di concentrare nelle proprie mani un grandissimo potere in grado anche di controllare massivamente le persone o sottoporle a censura preventiva.

Tra i firmatari ci sono anche i “padri” della tecnologia stessa. Ci sono Sam Altman, amministratore delegato di OpenAI, creatore di ChatGPT, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic.

Chi non crede ai pericoli di ChatGpt

Arvind Narayanan, informatico dell’Università di Princeton, ha dichiarato alla BBC che l’attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Secondo lui, questo tipo di allarmismo distrae l’attenzione dai possibili danni a breve termine dell’IA. E non è il solo a pensarla così. Anche Elon Musk, uno dei fondatori di OpenAI, aveva scritto una lettera in cui chiedeva di sospendere lo sviluppo della nuova generazione di sistemi più potenti di Gpt-4. Ma non perché temesse un’imminente apocalisse AI, bensì perché riteneva che “i sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”.

Tra rischi e benefici

Quindi, cosa dovremmo realmente temere? Forse dovremmo preoccuparci più della “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”. Questo è il vero problema. Non l’Armageddon AI, ma la mancanza di trasparenza e di controllo. E qui le Big Tech hanno un ruolo fondamentale. Sono loro che sviluppano queste tecnologie, sono loro che detengono il potere. E sono loro che dovrebbero prendersi la responsabilità di garantire che queste potenti menti digitali siano sviluppate e utilizzate in modo etico e responsabile.

Ps: questo articolo è stato scritto da ChatGpt

www.nicolaporro.it vorrebbe inviarti notifiche push per tenerti aggiornato sugli ultimi articoli