giovedì, Dicembre 26, 2024

Un robot cosciente dovrebbe avere gli stessi diritti di un essere umano?

Nell’episodio ” Star Trek: The Next Generation ” ” The Measure of a Man ” Data, un membro dell’equipaggio androide dell’Enterprise, deve essere smantellato per scopi di ricerca a meno che il Capitano Picard non possa sostenere che Data merita gli stessi diritti di un essere umano . Naturalmente sorge la domanda: qual è la base su cui qualcosa ha dei diritti? Cosa conferisce a un’entità una posizione morale?

Il filosofo Peter Singer sostiene che le creature che possono provare dolore o soffrire hanno diritto a una posizione morale. Sostiene che gli animali non umani hanno una posizione morale poiché possono provare dolore e soffrire. Limitarla alle persone sarebbe una forma di specismo, qualcosa di simile al razzismo e al sessismo.

Senza approvare il ragionamento di Singer, potremmo chiederci se possa essere esteso ulteriormente a un robot androide come Data. Richiederebbe che i dati possano provare dolore o soffrire. E come rispondi dipende da come comprendi la coscienza e l’intelligenza.

Man mano che la tecnologia della vera intelligenza artificiale avanza verso le versioni immaginate di Hollywood, la questione della posizione morale diventa più importante. Se le intelligenze artificiali hanno una posizione morale, i filosofi come me ragionano, ne potrebbe derivare che hanno diritto alla vita. Ciò significa che non puoi semplicemente smantellarli e potrebbe anche significare che le persone non dovrebbero interferire con il perseguimento dei loro obiettivi.

Due gusti di intelligenza e un test

La macchina per scacchi Deep Blue di IBM è stata addestrata con successo per battere il grande maestro Gary Kasparov. Ma non poteva fare altro. Questo computer aveva quella che viene chiamata intelligenza specifica del dominio.

D’altra parte, c’è il tipo di intelligenza che consente la capacità di fare bene una varietà di cose. Si chiama intelligenza generale del dominio. È ciò che consente alle persone di cucinare, sciare e crescere i bambini: compiti correlati, ma anche molto diversi.

L’intelligenza artificiale generale, AGI, è il termine per le macchine che hanno un’intelligenza generale del dominio. Probabilmente nessuna macchina ha ancora dimostrato quel tipo di intelligenza. Questa estate, una startup chiamata OPENAI ha rilasciato una nuova versione del suo modello linguistico Generative Pre-Training . GPT-3 è un sistema di elaborazione del linguaggio naturale, addestrato a leggere e scrivere in modo che possa essere facilmente compreso dalle persone.

Ha attirato l’attenzione immediata , non solo per la sua impressionante capacità di imitare svolazzi stilistici e mettere insieme contenuti plausibili , ma anche per quanto fosse lontano da una versione precedente. Nonostante questa prestazione impressionante, GPT-3 in realtà non sa nulla oltre a come mettere insieme le parole in vari modi. AGI resta piuttosto lontano.

Prende il nome dal ricercatore pioniere dell’IA Alan Turing, il test di Turing aiuta a determinare quando un’IA è intelligente. Una persona che conversa con un’intelligenza artificiale nascosta può dire se si tratta di un’intelligenza artificiale o di un essere umano? Se non può, allora per tutti gli scopi pratici, l’IA è intelligente. Ma questo test non dice nulla sul fatto che l’IA possa essere cosciente.

Due tipi di coscienza

Ci sono due parti della coscienza. In primo luogo, c’è l’aspetto di un’esperienza che assomiglia a me, la parte sensoriale della coscienza. I filosofi chiamano questa coscienza fenomenica. Riguarda come vivi un fenomeno, come annusare una rosa o provare dolore.

Al contrario, c’è anche l’accesso alla coscienza. Questa è la capacità di segnalare, ragionare, comportarsi e agire in modo coordinato e reattivo agli stimoli basati sugli obiettivi. Ad esempio, quando passo il pallone da calcio a un mio amico che gioca in porta, sto rispondendo a stimoli visivi, agendo dall’allenamento precedente e perseguendo un obiettivo determinato dalle regole del gioco. Faccio il passaggio automaticamente, senza deliberazione cosciente, nel corso del gioco.

La vista cieca illustra bene la differenza tra i due tipi di coscienza. Qualcuno con questa condizione neurologica potrebbe riferire, ad esempio, di non poter vedere nulla sul lato sinistro del proprio campo visivo. Ma se gli viene chiesto di prendere una penna da una serie di oggetti sul lato sinistro del loro campo visivo, possono farlo in modo affidabile. Non possono vedere la penna, ma possono raccoglierla quando richiesto – un esempio di coscienza di accesso senza coscienza fenomenica.

I dati sono un androide. Come si comportano queste distinzioni rispetto a lui?

Il dilemma dei dati

L’androide Data dimostra di essere autocosciente in quanto può monitorare se, ad esempio, è caricato in modo ottimale o se c’è un danno interno al suo braccio robotico.

I dati sono intelligenti anche in senso generale. Fa molte cose distinte ad un alto livello di maestria. Può pilotare l’Enterprise, prendere ordini dal capitano Picard e ragionare con lui sulla strada migliore da prendere.

Può anche giocare a poker con i suoi compagni di bordo, cucinare, discutere questioni di attualità con amici intimi, combattere con i nemici su pianeti alieni e impegnarsi in varie forme di lavoro fisico. I dati hanno accesso alla coscienza. Avrebbe chiaramente superato il test di Turing.

Tuttavia, a Data molto probabilmente manca una coscienza fenomenale: non si diletta, ad esempio, del profumo delle rose né prova dolore. Incarna una versione sovradimensionata della vista cieca. È autocosciente e ha accesso alla coscienza – può afferrare la penna – ma in tutti i suoi sensi manca di coscienza fenomenale.

Ora, se Data non sente dolore, almeno uno dei motivi per cui Singer offre per dare una posizione morale a una creatura non è soddisfatto. Ma Data potrebbe soddisfare l’altra condizione di poter soffrire, anche senza provare dolore. La sofferenza potrebbe non richiedere una coscienza fenomenica come essenzialmente fa il dolore.

Ad esempio, cosa succederebbe se la sofferenza fosse anche definita come l’idea di essere ostacolati dal perseguire una giusta causa senza arrecare danno agli altri? Supponiamo che l’obiettivo di Data sia salvare il suo compagno di squadra, ma non può raggiungerla a causa di un danno a uno dei suoi arti. La riduzione del funzionamento di Data che gli impedisce di salvare il suo compagno di squadra è una sorta di sofferenza non fenomenale. Avrebbe preferito salvare il compagno di squadra e sarebbe stato meglio se lo avesse fatto.

Nell’episodio, la domanda finisce per poggiare non sul fatto che Data sia consapevole di sé – questo non è in dubbio. Né è in questione se sia intelligente: dimostra facilmente di esserlo in senso generale. Ciò che non è chiaro è se sia fenomenalmente cosciente. I dati non vengono smantellati perché, alla fine, i suoi giudici umani non possono essere d’accordo sul significato della coscienza per la posizione morale.

Un’intelligenza artificiale dovrebbe avere una posizione morale?

Data è gentile: agisce per supportare il benessere dei suoi compagni di squadra e di coloro che incontra su pianeti alieni. Obbedisce agli ordini delle persone e sembra improbabile che possa danneggiarle, e sembra proteggere la propria esistenza . Per queste ragioni appare pacifico e più facile da accettare nel regno delle cose che hanno una posizione morale.

Ma che dire di Skynet nei film “Terminator” ? O le preoccupazioni recentemente espresse da Elon Musk su IA essere più pericoloso di armi nucleari , e da Stephen Hawking sul AI fine l’umanità ?

Gli esseri umani non perdono la pretesa di una posizione morale solo perché agiscono contro gli interessi di un’altra persona. Allo stesso modo, non si può dire automaticamente che solo perché un’IA agisce contro gli interessi dell’umanità o di un’altra IA non ha una posizione morale. Potresti essere giustificato nel combattere contro un’IA come Skynet, ma ciò non toglie la sua posizione morale. Se la posizione morale è data in virtù della capacità di soffrire in modo non fenomenale, Skynet e Data la ottengono anche se solo Data vuole aiutare gli esseri umani.

Non esistono ancora macchine di intelligenza artificiale generale. Ma ora è il momento di considerare cosa sarebbe necessario per garantire loro una posizione morale. Il modo in cui l’umanità sceglie di rispondere alla domanda sulla posizione morale per le creature non biologiche avrà grandi implicazioni sul modo in cui affrontiamo le future IA, sia che siano gentili e utili come Data, sia che siano orientati alla distruzione, come Skynet.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: