CHAT GPT: I PRINCIPI ETICI ESPOSTI AL FUTURE OF LIFE5 Minuti di Lettura

Scritto da Elisa Poletti

Laureata in Filosofia

Condividi su:

Facebook
Twitter
Pinterest
LinkedIn

Lo scorso novembre è sbarcata la nuova intelligenza artificiale OpenAi, utilizzata da molti nella versione di ChatGPT. Ma in che cosa consiste concretamente?
Questa nuova tecnologia, troppo presto per essere definita innovativa, permette di avere conversazioni tra l’utente e l’intelligenza artificiale stessa. Sottoforma di conversazione via chat, è possibile chiedere quasi qualsiasi cosa sui più disparati argomenti, chiedere di modulare il tono della risposta, tradurre da una lingua all’altra, scrivere testi e molto altro. Ma la domanda che sorge spontanea è la seguente: se un’intelligenza artificiale può darci le risposte che cerchiamo rapidamente, senza neanche lo sforzo di cercare o di selezionare le informazioni, per noi risulta essere un’opportunità o una minaccia?
Una chat che permette di poter scrivere velocemente dei testi può rappresentare un competitor per chi scrive per professione: giornalisti e copywriter ad esempio. Anche se l’uomo mette sempre qualcosa in più, perché è curioso, è creativo e insostituibile, a livello pratico una opportunità come quella di OpenAi può diventare una minaccia. Le sue applicazioni sono molteplici e potenzialmente infinite. Può risultare un supporto per chi lavoro e non un sostituto: avere a disposizione una moltitudine di informazioni in maniera veloce e concisa può aiutare qualsiasi ricerca, dare idee e sviluppare progetti in maniera più rapida ed efficiente, implementando il lavoro e non demolendolo.

Il confine è tuttavia sottile, uno strumento come tutti gli strumenti non è né buono e né cattivo, dipende dall’uso che se ne fa. L’intelligenza artificiale di per sé non è né una minaccia e né una opportunità, sta a noi scegliere che strada imboccare. Il confine etico e morale della sua applicazione non può però essere lasciato al caso. Nel 2017 infatti il Future of Life Institute ha indetto un convegno di esperti che ha avuto come conseguenza la redazione di 23 principi le implicazioni etiche dell’AI. Analizziamo assieme alcuni di questi principi:

Primo principio: lo scopo della ricerca sull’AI deve essere quello di creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo.

Il concetto di scopo è fondamentale anche se la commissione non specifica quale scopo, non viene indicato se lo scopo debba rispettare principi etici e morali. La ricerca deve essere indirizzata verso un miglioramento delle nostre vite, dato che l’investimento non può portare ad un risultato che non ci permette di avere in cambio alcun beneficio.

Ottavo principio: qualsiasi coinvolgimento da parte di un sistema decisionale autonomo in materia di giustizia dovrebbe fornire spiegazioni soddisfacenti e verificabili da parte delle autorità umane competenti.

Dall’ottavo principio si comincia a parlare di cooperazione tra AI ed esseri umani, nello specifico si concentra sulle questioni di giustizia che prevedono una verifica da parte dell’uomo. Le derive distopiche dell’AI ci portano a temere per un controllo da parte di questa nuova tecnologia. Un principio del genere, se applicato correttamente, definisce il suo utilizzo più che individuarla come una sorta di organismo a sé e incontrollabile. E questo viene ben sottolineato nei seguenti principi.

Nono principio: i progettisti e i costruttori dei servizi avanzati di AI sono parte attiva delle implicazioni morali del loro uso e abuso, ma anche delle azioni e hanno la responsabilità e l’opportunità di plasmare tali implicazioni.
Decimo principio: i sistemi di AI altamente autonomi dovrebbero essere progettati affinchè i loro scopi e comportamenti possano garantire di essere allineati con i valori umani a ogni operazione.
Undicesimo principio: i sistemi di AI devono essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, i diritti, le libertà e le diversità culturali.

Se qualcuno ha provato a chiedere o dire qualcosa che possa essere in qualche modo considerata offensiva alla Chat GPT si è reso conto che la risposta ottenuta è in linea con una risposta che si potrebbe ascoltare da un essere umano. Se si domanda un consiglio su come realizzare qualcosa di moralmente discutibile, la risposta che si ottiene è una frase motivazionale sulla cooperazione e sulla collaborazione umana. Ciò è coerente e per un certo verso ovvio, non è possibile mettere sul mercato qualcosa che possa in qualche modo istigare alla violenza, al bullismo o altre forme di comportamenti moralmente non condivisi. Ma su questo punto non avevamo dubbi.
La questione della privacy o del controllo dell’opinione pubblica sono i temi più scottanti. Se noi ci dovessimo abituare a fare le nostre ricerche attraverso la ChatGPT o uno dei sostituti che stanno per entrare in uso, come Bard di Google, saremmo poi portati ad accettare la risposta come corretta? Ci fermeremmo davvero alla prima risposta ottenuta?

Tredicesimo principio: l’applicazione dell’AI ai dati personali non deve limitare irragionevolmente l’idea di libertà delle persone, sia reale sia percepita.
Sedicesimo principio: gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di AI per raggiungere i propri obiettivi.
Ventunesimo principio: i rischi associati ai sistemi AI, in particolare, i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione degli sforzi, affinchè siano commisurati con il loro impatto atteso.

I principi sottolineano più volte che l’obiettivo deve essere il bene comune. Infatti, il potere di una intelligenza del genere è un potere che detiene chi la controlla. Le implicazioni e i rischi potrebbero essere di tipo politico e militare. Per tale ragione è importante sottolineare come sia necessario evitare una corsa continua, uno scontro tra aziende e nazioni per il monopolio di tale risorsa.

Post Simili

Ti potrebbero Piacere...

Scroll to Top