Le implicazioni etiche legate all’Intelligenza Artificiale sono molte e non possono essere ignorate. Abbiamo parlato nello scorso articolo della rubrica Etica Digitale dei 23 principi sanciti dal Future of Life Institute in merito agli obiettivi dell’AI e alla cooperazione tra questa e l’essere umano.
Pensiamo alla nota Chat GPT, un tool che sottoforma di chat risponde alle domande poste in qualsiasi ambito della conoscenza, è inoltre in grado di formulare testi, articoli ed è un ottimo strumento per avere spunti interessanti riguardo alla creazione di contenuti. Questa applicazione dell’AI permette di risparmiare tempo, normalmente impiegato per la ricerca di informazioni. Un passaggio epocale è stato sancito dalla nascita di Internet, dalla necessità di doversi informare attraverso libri e giornali, si è avuta l’opportunità di ricercare le informazioni direttamente online, potendolo fare comodamente da casa, in maniera più celere e diretta. Se vogliamo, l’AI può rappresentare un altro passaggio importante, che sancisce il passaggio dalla ricerca di contenuti online, che comunque richiedono un certo grado di selezione delle informazioni da parte dell’essere umano, ad un tool in grado di rispondere in maniera diretta alle domande sottoposte. La parte attiva, in questo caso, dell’agire umano rimane rilegata al porre una domanda, o eventualmente chiedere di rimodulare la risposta. Le risposte che sono fornite da Chat GPT implicano una passività da parte dell’uomo, se usate come unica fonte per una ricerca.
È interessante analizzare anche la qualità delle risposte fornite, che risulta essere buona. Già in passato erano stati sviluppati tools di questa natura ma il loro limite era rappresentato da una qualità della risposta fornita inferiore rispetto alle aspettative, poiché la conoscenza dell’AI era limitata. È giusto sottolineare che nemmeno Chat GPT possiede una conoscenza infinita su qualsiasi argomento, però è abbastanza variegata da fornire risposte per un gran numero di quesiti. Inoltre, è in grado di apprendere e conservare le nuove conoscenze acquisite in maniera autonoma, implementando così automaticamente, sulla base delle interazioni, il proprio bagaglio di informazioni.
Questo è appunto uno strumento estremamente utile all’uomo ma può rappresentare una minaccia se non trattata nel giusto modo. Il futuro lavorativo di alcuni settori può sicuramente esserne influenzato. Basti pensare a tutti quei lavori quali copywriter, blogger, networker e giornalisti, le cui competenze saranno inevitabilmente comparate con quelle dell’Intelligenza Artificiale. Non per forza questo è qualcosa di totalmente negativo. Il progresso muta e porta alla luce nuove figure lavorative.
La fiumana del progresso
Giovanni Verga, nel suo celebre romanzo ‘I Malavoglia’ fa riferimento alla fiumana del progresso come a qualcosa che travolge indistintamente. Da un lato elogia la grandiosità del progresso, poiché l’uomo perseguendo il proprio interesse personale, agisce inconsapevolmente al benessere di tutto. D’altro canto, sottolinea come il progresso sia un fiume in piena e gli individui che non riescono a riadattarsi ai mutamenti della realtà economica e sociale, sono destinati a soccombere.
L’idea è sempre la stessa: non si può credere di rimare fermi quando invece il progresso avanza, è necessario evolvere con esso. Per questo motivo, anche l’AI può essere vista come una tappa del progresso, e necessita di un cambiamento nell’essere umano. Alcuni lavori come quelli sopra citati potrebbero risentire dei nuovi tools, ma allo stesso potrebbero sfruttare lo strumento per crescere come professionisti, riuscendo a fare lo stesso ma in meno tempo, oppure addirittura potrebbero profilarsi nuovi lavori, ad oggi poco diffusi.
Il rischio della manipolazione delle informazioni
Un discorso un po’ diverso va fatto per il condizionamento che un certo tipo di tecnologia porta nell’opinione pubblica e nelle convinzioni dei cittadini. Uno strumento come Chat GPT non può e non deve cadere nelle mani di chi ha intenzione di sfruttarlo per una manipolazione dell’informazione. Se è vero che le risposte fornite sono dirette e puntuali, il rischio è che sempre più persone si affidino a questo tipo di tool per ricercare le informazioni e conseguentemente creare opinioni riguardo ad un dato argomento. È vero che la manipolazione dell’informazione è presente a qualsiasi livello, sia che ci affidiamo ad un telegiornale, ad un quotidiano o alla ricerca online. Ma il rischio è quello di abituarsi ad accettare come risposte corrette quelle offerte da Chat GPT, senza completare la ricerca con possibili verifiche circa la validità delle risposte ottenute. Se uno strumento del genere dovesse davvero prendere piede su larga scala e dovesse essere controllato da chi vuole mandare un determinato messaggio, può essere veramente una minaccia per la buona informazione e per la capacità delle persone di saper selezionare le informazioni vere da quelle manipolate o false.
La lettera di Elon Musk
In merito a ciò, la scorsa primavere, Elon Musk ha esposto una lettera, pubblicata dal Future of Life Institute, dove esorta ad una battuta d’arresto dello sviluppo di sistemi di Intelligenza Artificiale, quali Chat GPT. Citiamo questo tool perché è diventato davvero famoso, dal momento che il suo utilizzo finora è gratuito e immediato. Ne esistono altri, molto numerosi, che aiutano l’essere umano negli ambiti più disparati: non soltanto nella creazione di testi e contenuti, ma anche nell’editing video, nella creazione di immagini e nella stesura di stringhe di coding.
Elon Mask, nonostante abbia promosso inizialmente l’Intelligenza Artificiale, ha chiesto uno stop di almeno sei mesi a causa dei profondi rischi per l’umanità. Il problema è legato al fatto che l’intelligenza dell’AI è competitiva rispetto a quella dell’uomo e la questione dovrebbe essere pianificata e gestita con cura e con le risorse adeguate.
Alcuni quesiti esposti nella lettera sono i seguenti: “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? “
Le questioni sono importanti e le decisioni non dovrebbero essere lasciate nelle mani di leader tecnologici non eletti.
La visione esposta dalla lettera di Elon Musk delinea uno scenario catastrofico e una paura non commisurata all’attuale stato di sviluppo dell’AI. Sono però questioni che è importante affrontare in sede iniziale, non quando lo scenario peggiore si è già delineato. È fondamentale che i principi esposti dal Future of Life Institute basati sulla cooperazione con l’essere umano e sul perseguimento del fine ultimo che è il bene comune, non siano soltanto delle belle parole, ma si concretizzino in una consapevolezza che guida la direzione del progresso, tenendo conto di tutte le implicazioni etiche del caso.