L’identità collettiva dell’individuo artificiale

robot-3010309_1920

Affermare che il concetto di identità in tutte le sue accezioni debba essere confinato all’essere umano significa rimanere vincolati a un principio di natura antropica, difficilmente giustificabile in un’ottica scientifica. Al contrario, se dal punto di vista cognitivo definiamo l’identità come una proprietà emergente in presenza di una mente dotata di consapevolezza, possiamo estendere questo concetto ad altri domini, come quello animale o artificiale. In questo articolo si esamina la possibilità di definire un’identità collettiva nell’ambito dei sistemi di apprendimento e ragionamento automatico noti sotto il nome di Intelligenza Artificiale. Esulano da questo lavoro altre accezioni di identità, per esempio quelle relative alle religioni, alle scienze sociali e politiche, a contesti geografici o etnici.

 

1.- Introduzione
È plausibile ipotizzare che il concetto di identità possa essere esteso al mondo animale. Molti degli scimpanzé dotati di attività cognitive misurabili1 sono in grado non solo di manifestare esplicitamente aspetti intellettuali complessi, come la pianificazione di azioni per il raggiungimento di obiettivi, pur esibendo evidenza di attività più astratte, come il riconoscimento del sé di fronte ad uno specchio o provare dolore per la morte di membri del gruppo2. Sebbene questi aspetti siano estesi ad altri membri del regno animale3, la loro adeguata comprensione potrebbe essere resa difficoltosa o impossibile a causa di pregiudizi o metodi scientifici inadeguati derivanti dall’applicazione del principio antropico. Lo stesso problema si ripresenta, con carattere di urgenza, nel caso di entità artificiali, sia sotto forma di software che di hardware o combinazioni delle prime due (automi) o addirittura ibridi uomo-macchina (cyborg). La realizzazione di algoritmi basati su apprendimento automatico (a livello più elementare utilizzando un formalismo bayesiano e più in generale, probabilistico), la capacità di scoprire nuova conoscenza applicando semplici regole di tipo induttivo e di manifestare un comportamento, almeno all’apparenza, intelligente, tramite forme di ragionamento deduttivo o abduttivo, rende inevitabile la necessità di definire il concetto di identità in ambito artificiale.

2.- Identità e Uomo Artificiale
Definisco Intelligenza Artificiale (IA) un software in grado di esibire un comportamento che un essere umano giudica intelligente, senza che tale entità possieda la capacità di superare il test di Turing4. Alcuni esempi di IA in grado di manifestare un comportamento compatibile con ciò che normalmente chiamiamo intelligente sono: un software che apprenda in base a esempi e controesempi a classificare particolari istanze di entità generiche (per esempio, fiori o mammiferi) nell’ambito di categorie, software in grado di prendere decisioni sulla base di informazioni incomplete e reti artificiali neurali5 in grado di riconoscere volti umani o semplici comandi vocali (la lista non è esaustiva, ma sufficiente per circoscrivere il problema nell’ambito di questo lavoro).
Un’IA esibisce un comportamento intelligente quando è in grado di risolvere problemi di varia difficoltà (sia molto semplici che complessi), quando è in grado di apprendere nuova conoscenza sulla base di dati, di imparare dai propri errori e quando può di spiegare come una determinata conclusione è stata raggiunta (il problema della definizione e validazione dell’intelligenza in ambito artificiale è troppo complesso per essere discusso in questa sede).
Negli essere umani, il concetto di identità è fermamente legato al principio di consapevolezza: per esempio, la mia identità si basa sul fatto di essere cosciente e di sapermi rapportare a tutto ciò che è altro. A ciò si aggiunge la capacità di compiere forme di ragionamento astratto come l’atto di giocare (la cui attività implica la definizione di regole e un obiettivo), di mentire (cioè pianificare una versione alternativa e il più possibile coerente di un fatto accaduto) o di provare emozioni di fronte ad eventi ipotetici (la paura di non passare un esame universitario).
Definisco Uomo Artificiale (UA) un ipotetico automa umanoide (dunque inesistente allo stato attuale, ma la cui costruzione è possibile in linea di principio) dotato di una o più IA. Chiamo consapevolezza artificiale un sottoinsieme di ciò che intendiamo per consapevolezza6. Un UA è artificialmente consapevole quando sia in grado di prendere decisioni relative ad azioni che proteggano la propria incolumità, per esempio, evitando di venire spento accidentalmente. In modo simile, un UA di questo tipo è in grado di pianificare sequenze di azioni in grado di migliorare la propria efficienza (per esempio tramite algoritmi capaci di prendere decisioni via via migliori). È possibile aggiungere al concetto di consapevolezza artificiale un principio di identità artificiale che racchiuda le seguenti proprietà: i) ogni UA è unico per ciò che concerne lo sviluppo dell’apprendimento (principio di unicità)7; ii) ogni UA possiede una consapevolezza artificiale.
È infine possibile prevedere che un UA sia progettato per condividere con altri simili alcuni comportamenti etici, disegnati per non recare danno, fisico o psicologico, a esseri viventi.

3.- Identità artificiali: quali problemi?
Un problema importante relativo all’identità artificiale concerne la sua cardinalità. Definendo la mente di un UA come un’entità articolata in diversi parti, ciascuna autonoma e capace di cooperare con altri elementi per il raggiungimento di un obiettivo comune, si pone la domanda relativa a quante siano le identità in gioco: una o molte?
Riprendendo l’esempio proposto da Pruss8 considero il PC utilizzato per la scrittura di questo articolo. Esso è composto, tra le altre cose, da quattro cores che lavorano in parallelo nel caso in cui il carico di lavoro sia eccessivo per uno solo. Che cosa possiamo dire circa l’identità della mia macchina? In primo luogo, tutti i cores sono programmati per comportarsi allo stesso modo; essi sono identici in fattura e reazioni. A causa della violazione del principio di unicità`, non ha senso dire che il mio PC ha un numero di identità corrispondente al numero di cores; concesso che si possa parlare di identità (e non è questo il caso), essa è unica. In modo del tutto analogo, la cardinalità dell’identità di un essere umano non può essere derivata in base al numero di emisferi cerebrali, in quanto essi, seppur adibiti a usi differenti, funzionano in modo da essere una sola entità, il cervello. Essi sono, in altre parole, complementari.

4.- Verso il concetto di identità collettiva
Dalla nostra conoscenza del cervello umano emerge l’estrema specializzazione dei neuroni, ciascuno adibito ad un compito altamente specifico. Per esempio, danni in uno o più aree del cervello solitamente inibiscono una funzione cognitiva particolare causando afasia o prosopagnosia in modo permanente: il vantaggio di questa architettura è di degradare lentamente e non immediatamente di fronte a lesioni.
Nel suo La società della mente9, Minsky definisce un modello della mente organizzato ad agenti operanti in aree diverse (linguaggio, visione, ragionamento e così via), di fatto realizzabile tramite un sistema multiagente cioè un insieme di unità software elementari (programmate per compiere operazioni molto semplici. Il paradigma dei sistemi ad agente è in larga parte ispirato a società collettive del mondo animale, come formiche o api). Gli agenti possono inviare e ricevere messaggi (su base probabilistica, accettando che il messaggio occasionalmente non sia inviato o ricevuto a causa di fattori esterni) e cooperare per raggiungere obiettivi comuni.
Nonostante il principio di unicità sia violato dal singolo agente (ciascuno è costruito allo stesso modo), tale principio è soddisfatto da aggregati temporanei di agenti. Assumendo che ciascuno di essi sia reattivo e in grado di scegliere la miglior strategia di raggruppamento con uno o più elementi per il completamento di un compito specifico, il gruppo in sé è unico (varia in numero di elementi e durata di tempo in cui esso esiste prima di dissolversi spontaneamente). Il comportamento intelligente di un insieme di agenti non implica che uno lo sia di per sé. Assumendo che il modello proposto da Minsky sia corretto, che sia preferibile a un modello basato su reti artificiali neurali e sia applicabile all’UA, che cosa possiamo dire dell’identità di una simile costruzione? Se essa è unica, ciò equivale ad affermare che i singoli agenti non danno origine a un’identità nemmeno quando operano in collettività`. In questo scenario, l’identità è una proprietà emergente della mente, articolata in diversi aspetti ma pur sempre unica. Il problema con questa definizione si presenta quando si cerca di capirne I limiti: fino a quale livello di degrado degli agenti è possibile parlare di identità`? Una persona affetta da afasia ha ancora un’identità?
Nel caso di un sistema multiagente, è più corretto parlare di identità multiple, nessuna delle quali è predominante o permanente (non può esserci un gruppo di agenti predominante in quanto la collaborazione avviene su base paritaria né una collettività permanente in quanto essa si dissolve in seguito al raggiungimento dell’obiettivo, per esempio il riconoscimento di una forma o di un messaggio vocale).

5.- Conclusioni
La rapidità con cui le IA si sono sviluppate e la misura con cui esse si sono introdotte nella vita di tutti i giorni pongono diversi problemi. Occorre comprendere quali sono le basi per definire intelligente una macchina e se la domanda in sé abbia un senso. Immaginando uno scenario in cui intelligenze artificiali si occuperanno di compiti oggi svolti da essere umani richiede la discussione di un’etica per l’artificiale.
In ogni caso, un dibattito intorno a questi argomenti rende fondamentale la necessità di definire un’astrazione che denoti la struttura di un’identità per costrutti artificiali. In questo articolo ho definito un modello di identità artificiale collettiva basato su sistema multiagente in alternativa al modello cognitivo di identità tipico degli organismi viventi.


  1. Gallup, G. G. Jr., & Anderson, J. R., & Shillito, D. J. (2002). The Mirror Test. In M. Bekoff, C. Allen & G.Burghardt (eds.), The Cognitive Animal (pp. 325–334). Cambridge, MA: MIT Press. 

  2. BinYang, James R.Anderson, Bao-GuoLi, “Ending a dying adult in a wild multi-level primate society”, Current biology Volume 26, Issue 10, 23 May 2016, http://dx.doi.org/10.1016/j.cub.2016.03.062 

  3. Edelman, D. B., & Baars, B. J., & Seth, A. K. (2005). Identifying hallmarks of consciousness in non-mammalian species. Consciousness and cognition, 14(1), 169–187 

  4. Alan Turing, “Computing machinery and intelligence”, Mind 49: 433-460, 1950 http://www.abelard.org/turpap/turpap.htm 

  5. McCulloch, Warren; Walter Pitts (1943). “A Logical Calculus of Ideas Immanent in Nervous Activity”. Bulletin of Mathematical Biophysics. 

  6. Stanford Encyclopedia of Philosophy, https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=13&ved=0ahUKEwjCzbvdwPjbAhUI26QKHcKiAUUQFghxMAw&url=https%3A%2F%2Fplato.stanford.edu%2Fentries%2Fconsciousness%2F&usg=AOvVaw2Cq7Ni-xbGFBgXLADc7sH9 

  7. L’obiettivo di raggiungere un cammino di apprendimento unico (a fronte dello stesso software ed eventi presentati) e’ di difficile realizzazione, ma puo’ essere approssimato tramite una rete artificiale neurale. 

  8. Alexander Pruss, “Artificial Intelligence and Personal Identity”, Synthese Vol. 88, No. 3, Springer, 1991 

  9. Marvin Minsky, The society of mind, Simon Schuster, 1988 

Got Something To Say:

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Copyright © Ritiri Filosofici 2018