Filosofia dell’intelligenza artificiale

L’intelligenza artificiale ha stretti legami con la filosofia perché entrambi condividono diversi concetti e questi includono intelligenza, azione, coscienza, epistemologia e persino il libero arbitrio. Inoltre, la tecnologia si occupa della creazione di animali artificiali o di persone artificiali (o, almeno, di creature artificiali), quindi la disciplina è di notevole interesse per i filosofi. Questi fattori hanno contribuito all’emergere della filosofia dell’intelligenza artificiale. Alcuni studiosi sostengono che il licenziamento della filosofia da parte della comunità di intelligenza artificiale è dannoso.

La filosofia dell’intelligenza artificiale tenta di rispondere a tali domande come segue:

Una macchina può agire in modo intelligente? Può risolvere qualsiasi problema che una persona potrebbe risolvere pensando?
L’intelligenza umana e l’intelligenza artificiale sono le stesse? Il cervello umano è essenzialmente un computer?
Può una macchina avere una mente, stati mentali e coscienza nello stesso modo in cui un essere umano può? Può sentire come stanno le cose?

Queste tre domande riflettono gli interessi divergenti dei ricercatori di IA, linguisti, scienziati cognitivi e filosofi rispettivamente. Le risposte scientifiche a queste domande dipendono dalla definizione di “intelligenza” e “coscienza” ed esattamente quali “macchine” sono in discussione.

Le proposizioni importanti nella filosofia dell’IA includono:

La “convenzione educata” di Turing: se una macchina si comporta in modo intelligente come un essere umano, allora è intelligente come un essere umano.
La proposta di Dartmouth: “Ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligence può essere così precisamente descritto che una macchina può essere fatta per simularla”.
L’ipotesi del sistema dei simboli fisici di Newell e Simon: “Un sistema di simboli fisici ha i mezzi necessari e sufficienti per un’azione generale intelligente”.
La forte ipotesi di Searle sulla IA: “Il computer adeguatamente programmato con i giusti input e output avrebbe quindi una mente esattamente nello stesso senso in cui gli esseri umani hanno una mente”.
Il meccanismo di Hobbes: “Per” ragione “… non è altro che” calcolare “, cioè aggiungere e sottrarre, le conseguenze dei nomi generali concordati per il” marchio “e il” significato “dei nostri pensieri …”

Una macchina può mostrare intelligenza generale?
È possibile creare una macchina in grado di risolvere tutti i problemi che gli umani risolvono usando la loro intelligenza? Questa domanda definisce la portata di ciò che le macchine saranno in grado di fare in futuro e guida la direzione della ricerca sull’IA. Riguarda solo il comportamento delle macchine e ignora le questioni di interesse per psicologi, scienziati cognitivi e filosofi; per rispondere a questa domanda, non importa se una macchina sta davvero pensando (come pensa una persona) o sta semplicemente agendo come se stesse pensando.

La posizione di base della maggior parte dei ricercatori di IA è riassunta in questa dichiarazione, che è apparso nella proposta per il laboratorio di Dartmouth del 1956:

Ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza può essere descritto in modo così preciso che una macchina può essere fatta per simularla.
Le argomentazioni contro la premessa di base devono dimostrare che la costruzione di un sistema di intelligenza artificiale è impossibile, perché esiste un qualche limite pratico alle capacità dei computer o che esiste una qualità speciale della mente umana che è necessaria per pensare e che non può essere duplicata da un macchina (o con i metodi della ricerca IA attuale). Gli argomenti a favore della premessa di base devono dimostrare che un tale sistema è possibile.

Il primo passo per rispondere alla domanda è definire chiaramente “intelligenza”.

Intelligenza

Test di Turing
Alan Turing ha ridotto il problema della definizione dell’intelligence a una semplice domanda sulla conversazione. Suggerisce che: se una macchina può rispondere a qualsiasi domanda posta ad essa, usando le stesse parole che farebbe una persona normale, allora potremmo chiamare quella macchina intelligente. Una versione moderna del suo design sperimentale userebbe una chat room online, in cui uno dei partecipanti è una persona reale e uno dei partecipanti è un programma per computer. Il programma supera il test se nessuno può dire quale dei due partecipanti è umano. Turing nota che nessuno (tranne i filosofi) pone mai la domanda “la gente può pensare?” Scrive “invece di discutere continuamente su questo punto, è normale avere una convenzione educata che tutti pensano”. Il test di Turing estende questa convenzione educata alle macchine:

Se una macchina agisce in modo intelligente come un essere umano, allora è intelligente come un essere umano.
Una critica al test di Turing è che è esplicitamente antropomorfico. Se il nostro obiettivo finale è quello di creare macchine più intelligenti delle persone, perché dovremmo insistere sul fatto che le nostre macchine devono assomigliare molto alle persone? [Questa citazione ha bisogno di una citazione] Russell e Norvig scrivono che “i testi di ingegneria aeronautica non definiscono l’obiettivo dei loro campo come ‘fare macchine che volano esattamente come piccioni che possono ingannare altri piccioni’ “.

Definizione di agente intelligente

A.I. la ricerca definisce l’intelligenza in termini di agenti intelligenti. Un “agente” è qualcosa che percepisce e agisce in un ambiente. Una “misura di prestazione” definisce ciò che conta come successo per l’agente.

Se un agente agisce in modo da massimizzare il valore atteso di una misura di rendimento basata sull’esperienza e sulla conoscenza passate, allora è intelligente.
Definizioni come questa cercano di catturare l’essenza dell’intelligenza. Hanno il vantaggio che, a differenza del test di Turing, non testano anche i tratti umani che noi [che?] Potremmo non considerare intelligenti, come la capacità di essere insultati o la tentazione di mentire [dubbioso – discutere]. Hanno lo svantaggio di non riuscire a fare la differenza di senso [quando definita come?] Tra “cose ​​che pensano” e “cose ​​che non lo fanno”. Con questa definizione, anche un termostato ha un’intelligenza rudimentale.

Argomenti che una macchina può mostrare informazioni generali

Il cervello può essere simulato
Hubert Dreyfus descrive questo argomento affermando che “se il sistema nervoso obbedisce alle leggi della fisica e della chimica, che abbiamo tutte le ragioni per supporre che lo faccia, allora … dovremmo essere in grado di riprodurre il comportamento del sistema nervoso con qualche dispositivo fisico “. Questo argomento, introdotto per la prima volta nel 1943 e descritto vividamente da Hans Moravec nel 1988, è ora associato al futurista Ray Kurzweil, che stima che il computer sarà sufficiente per una simulazione cerebrale completa entro il 2029. Un tempo non in tempo reale La simulazione di un modello talamocorticale che ha le dimensioni del cervello umano (1011 neuroni) è stata eseguita nel 2005 e ci sono voluti 50 giorni per simulare un secondo di dinamiche cerebrali su un cluster di 27 processori.

Pochi [quantificano] non sono d’accordo sul fatto che una simulazione del cervello sia possibile in teoria, [secondo chi?] Anche i critici di IA come Hubert Dreyfus e John Searle. Tuttavia, Searle sottolinea che, in linea di principio, qualsiasi cosa può essere simulata da un computer; quindi, portando la definizione al suo punto di rottura porta alla conclusione che qualsiasi processo può essere considerato tecnicamente “computazione”. “Quello che volevamo sapere è ciò che distingue la mente dai termostati e dai fegati”, scrive. Quindi, solo imitare il funzionamento di un cervello sarebbe di per sé un’ammissione di ignoranza per quanto riguarda l’intelligenza e la natura della mente.

Il pensiero umano è l’elaborazione dei simboli
Nel 1963, Allen Newell e Herbert A. Simon proposero che la “manipolazione dei simboli” fosse l’essenza dell’intelligenza umana e della macchina. Scrissero:

Un sistema di simboli fisici ha i mezzi necessari e sufficienti per un’azione generale intelligente.
Questa affermazione è molto forte: implica sia che il pensiero umano sia una specie di manipolazione di simboli (perché un sistema di simboli è necessario per l’intelligenza) e che le macchine possono essere intelligenti (perché un sistema di simboli è sufficiente per l’intelligenza). Un’altra versione di questa posizione fu descritta dal filosofo Hubert Dreyfus, che la definì “l’assunto psicologico”:

La mente può essere vista come un dispositivo che funziona su bit di informazioni secondo regole formali.
Di solito viene fatta una distinzione [tra chi?] Tra il tipo di simboli di alto livello che corrispondono direttamente agli oggetti nel mondo, come e e i “simboli” più complessi che sono presenti in una macchina come un rete neurale. La ricerca iniziale sull’intelligenza artificiale, chiamata “buona vecchia intelligenza artificiale” (GOFAI) di John Haugeland, si concentrava su questo tipo di simboli di alto livello.

Argomenti contro l’elaborazione dei simboli
Questi argomenti mostrano che il pensiero umano non consiste (esclusivamente) nella manipolazione di simboli di alto livello. Non mostrano che l’intelligenza artificiale è impossibile, solo che è necessaria più dell’elaborazione dei simboli.

Argomenti Gödeliani anti-meccanici
Nel 1931, Kurt Gödel dimostrò con un teorema di incompletezza che è sempre possibile costruire una “dichiarazione di Gödel” che un dato sistema formale coerente di logica (come un programma di manipolazione di simboli di alto livello) non potesse dimostrare. Nonostante sia una vera affermazione, la dichiarazione di Gödel costruita non è dimostrabile nel sistema dato. (La verità della dichiarazione di Gödel costruita dipende dalla coerenza del sistema dato, l’applicazione dello stesso processo a un sistema sottilmente incoerente sembrerà avere successo, ma produrrà invece una falsa “dichiarazione di Gödel”). Più speculativamente, Gödel ipotizzò che la mente umana possa determinare correttamente la verità o la falsità di qualsiasi affermazione matematica ben fondata (inclusa ogni possibile dichiarazione di Gödel), e che quindi il potere della mente umana non è riducibile a un meccanismo. Il filosofo John Lucas (dal 1961) e Roger Penrose (dal 1989) hanno difeso questa argomentazione filosofica anti-meccanicista. Le argomentazioni anti-meccaniciste di Gödelian tendono a fare affidamento sull’apparente affermazione innocua che un sistema di matematici umani (o qualche idealizzazione dei matematici umani) sia coerente (completamente privo di errori) e crede pienamente nella sua stessa coerenza (e può rendere tutto logico inferenze che derivano dalla sua stessa coerenza, inclusa la credenza nella sua dichiarazione di Gödel). Questo è probabilmente impossibile per una macchina di Turing [chiarimento necessario] (e, per estensione informale, qualsiasi tipo noto di computer meccanico) da fare; quindi, il Gödelian conclude che il ragionamento umano è troppo potente per essere catturato in una macchina [discutibile – discute].

Tuttavia, il consenso moderno nella comunità scientifica e matematica è che il reale ragionamento umano è incoerente; che qualsiasi coerente “versione idealizzata” H del ragionamento umano sarebbe logicamente costretta ad adottare uno scetticismo aperto, sano ma controintuitivo sulla consistenza di H (altrimenti H è provabilmente incoerente); e che i teoremi di Gödel non portano a nessuna valida argomentazione che gli umani abbiano capacità di ragionamento matematico al di là di ciò che una macchina potrebbe mai duplicare. Questo consenso sul fatto che le argomentazioni anti-meccaniciste di Gödel sono condannate al fallimento è fortemente enunciato nell’Intelligenza Artificiale: “qualsiasi tentativo di utilizzare (i risultati di incompletezza di Gödel) per attaccare la tesi computazionista è destinato ad essere illegittimo, poiché questi risultati sono abbastanza coerenti con il computazionalista tesi.”

Più pragmaticamente, Russell e Norvig osservano che l’argomentazione di Gödel si applica solo a ciò che può essere dimostrato teoricamente, data una quantità infinita di memoria e tempo. In pratica, le macchine reali (inclusi gli umani) hanno risorse limitate e avranno difficoltà a dimostrare molti teoremi. Non è necessario dimostrare tutto per essere intelligenti [quando definito come?].

Meno formalmente, Douglas Hofstadter, nel suo libro vincitore del premio Pulitzer Gödel, Escher, Bach: An Eternal Golden Braid, afferma che queste “dichiarazioni di Gödel” fanno sempre riferimento al sistema stesso, facendo un’analogia al modo in cui il paradosso di Epimenide usa affermazioni che riferirsi a se stessi, come “questa affermazione è falsa” o “Sto mentendo”. Ma, naturalmente, il paradosso di Epimenides si applica a tutto ciò che rende dichiarazioni, siano esse macchine o umani, persino lo stesso Lucas. Tenere conto:

Lucas non può affermare la verità di questa affermazione.
Questa affermazione è vera ma non può essere asserita da Lucas. Questo dimostra che Lucas stesso è soggetto agli stessi limiti che descrive per le macchine, come lo sono tutte le persone, e quindi l’argomento di Lucas è inutile.

Dopo aver concluso che il ragionamento umano non è calcolabile, Penrose ha continuato a speculare controverso che alcuni tipi di processi ipotetici non computabili che implicano il collasso degli stati della meccanica quantistica offrono agli esseri umani un vantaggio speciale rispetto ai computer esistenti. I computer quantistici esistenti sono solo in grado di ridurre la complessità delle attività computabili di Turing e sono ancora limitati a compiti nell’ambito delle macchine di Turing. [Chiarimento necessario]. Con le argomentazioni di Penrose e Lucas, i computer quantistici esistenti non sono sufficienti [chiarimento necessario] [perché?], Quindi Penrose cerca qualche altro processo che coinvolge la nuova fisica, ad esempio la gravità quantistica che potrebbe manifestare nuova fisica alla scala della massa di Planck tramite spontanea collasso quantico della funzione d’onda. Questi stati, ha suggerito, si verificano sia all’interno dei neuroni che anche su più di un neurone. Tuttavia, altri scienziati sottolineano che non esiste un meccanismo organico plausibile nel cervello per sfruttare qualsiasi tipo di computazione quantistica, e inoltre che la scala temporale della decoerenza quantistica sembra troppo veloce per influenzare l’attivazione dei neuroni.

Dreyfus: il primato delle abilità inconsce
Hubert Dreyfus sosteneva che l’intelligenza e l’esperienza umana dipendevano principalmente dagli istinti inconsci piuttosto che dalla manipolazione simbolica consapevole e sostenevano che queste abilità inconsce non sarebbero mai state catturate in regole formali.

L’argomentazione di Dreyfus era stata anticipata da Turing nel suo documento cartaceo e nell’intelligenza del 1950, in cui lo aveva classificato come “argomento dell’informalità del comportamento”. Turing sostenne che, solo perché non conosciamo le regole che governano un comportamento complesso, ciò non significa che non esistano tali regole. Ha scritto: “non possiamo facilmente convincerci dell’assenza di leggi di comportamento complete … L’unico modo per cui siamo a conoscenza di tali leggi è l’osservazione scientifica, e certamente non sappiamo in nessuna circostanza in cui potremmo dire: hanno cercato abbastanza, non ci sono leggi del genere ‘”.

Russell e Norvig sottolineano che, negli anni trascorsi da quando Dreyfus ha pubblicato la sua critica, sono stati compiuti progressi verso la scoperta delle “regole” che governano il ragionamento inconscio. Il movimento situato nella ricerca robotica tenta di catturare le nostre abilità inconsce alla percezione e all’attenzione. I paradigmi di intelligenza computazionale, come reti neurali, algoritmi evolutivi e così via, sono per lo più diretti al ragionamento e all’apprendimento inconsci simulati. Gli approcci statistici all’intelligenza artificiale possono fare previsioni che si avvicinano all’accuratezza delle ipotesi intuitive umane. La ricerca sulla conoscenza del senso comune si è concentrata sulla riproduzione dello “sfondo” o contesto di conoscenza. In effetti, la ricerca dell’IA in generale si è spostata dalla manipolazione dei simboli di alto livello o “GOFAI”, verso nuovi modelli che sono destinati a catturare più del nostro ragionamento inconscio [secondo chi?]. Daniel Crevier, storico e ricercatore di intelligenza artificiale, ha scritto che “il tempo ha dimostrato l’accuratezza e la percettività di alcuni dei commenti di Dreyfus: se li avesse formulati in modo meno aggressivo, le azioni costruttive che hanno suggerito potrebbero essere state prese molto prima”.

Una macchina può avere mente, coscienza e stati mentali?
Questa è una domanda filosofica, legata al problema delle altre menti e al duro problema della coscienza. La domanda ruota intorno a una posizione definita da John Searle come “intelligenza artificiale forte”:

Un sistema di simboli fisici può avere una mente e stati mentali.
Searle distinse questa posizione da quella che chiamò “IA debole”:

Un sistema di simboli fisici può agire in modo intelligente.
Searle ha introdotto i termini per isolare l’intelligenza artificiale forte dall’IA debole, in modo che potesse concentrarsi su quello che pensava fosse il problema più interessante e discutibile. Sosteneva che anche supponendo che avessimo un programma per computer che agiva esattamente come una mente umana, ci sarebbe comunque una domanda filosofica difficile a cui bisognava rispondere.

Nessuna delle due posizioni di Searle è di grande interesse per la ricerca di intelligenza artificiale, dal momento che non rispondono direttamente alla domanda “una macchina può mostrare intelligenza generale?” (a meno che non si possa anche dimostrare che la coscienza è necessaria per l’intelligenza). Turing ha scritto: “Non voglio dare l’impressione che io pensi che non ci sia alcun mistero sulla coscienza … ut non penso che questi misteri debbano necessariamente essere risolti prima di poter rispondere alla domanda [se le macchine possono pensare]”. Russell e Norvig concordano: “La maggior parte dei ricercatori di IA prende per scontata la debole ipotesi dell’IA, e non si preoccupa della forte ipotesi dell’IA.”

Ci sono alcuni ricercatori che credono che la coscienza sia un elemento essenziale dell’intelligenza, come Igor Aleksander, Stan Franklin, Ron Sun e Pentti Haikonen, anche se la loro definizione di “coscienza” si allontana molto da “intelligenza”. (Vedi coscienza artificiale).

Prima di poter rispondere a questa domanda, dobbiamo essere chiari che cosa intendiamo per “menti”, “stati mentali” e “coscienza”.

Consapevolezza, menti, stati mentali, significato
Le parole “mente” e “coscienza” sono usate da diverse comunità in modi diversi. Alcuni pensatori new age, per esempio, usano la parola “coscienza” per descrivere qualcosa di simile a “élan vital” di Bergson: un fluido invisibile ed energetico che permea la vita e specialmente la mente. Gli scrittori di fantascienza usano la parola per descrivere alcune proprietà essenziali che ci rendono umani: una macchina o uno straniero che è “cosciente” sarà presentato come un personaggio completamente umano, con intelligenza, desideri, volontà, intuizione, orgoglio e così via. (Gli scrittori di fantascienza usano anche le parole “senzienza”, “sapienza”, “autocoscienza” o “fantasma” – come nel manga Ghost in the Shell e serie anime – per descrivere questa proprietà umana essenziale). Per gli altri [chi?], Le parole “mente” o “coscienza” sono usate come una sorta di sinonimo secolare dell’anima.

Per filosofi, neuroscienziati e scienziati cognitivi, le parole sono usate in un modo che è sia più preciso sia più banale: si riferiscono alla familiare esperienza quotidiana di avere un “pensiero nella tua testa”, come una percezione, un sogno, un intenzione o un piano, e per il modo in cui sappiamo qualcosa, o intendiamo qualcosa o capiamo qualcosa. “Non è difficile dare una definizione di coscienza di buon senso” osserva il filosofo John Searle. Ciò che è misterioso e affascinante non è tanto quello che è, ma come è: come fa un grumo di tessuto adiposo ed elettricità a dare origine a questa (familiare) esperienza di percezione, significato o pensiero?

I filosofi lo chiamano il duro problema della coscienza. È l’ultima versione di un problema classico nella filosofia della mente chiamata “problema mente-corpo”. Un problema correlato è il problema del significato o della comprensione (che i filosofi chiamano “intenzionalità”): qual è la connessione tra i nostri pensieri e ciò a cui stiamo pensando (cioè oggetti e situazioni nel mondo)? Un terzo problema è il problema dell’esperienza (o “fenomenologia”): se due persone vedono la stessa cosa, hanno la stessa esperienza? O ci sono cose “nella loro testa” (chiamate “qualia”) che possono essere diverse da persona a persona?

La stanza cinese di Searle
John Searle ci chiede di considerare un esperimento mentale: supponiamo di aver scritto un programma per computer che supera il test di Turing e dimostra “un’azione generale intelligente”. Supponiamo, in particolare, che il programma possa conversare in cinese fluente. Scrivi il programma su schede 3×5 e consegnale a una persona normale che non parla cinese. Blocca la persona in una stanza e fagli seguire le istruzioni sulle carte. Copierà i caratteri cinesi e li passerà dentro e fuori dalla stanza attraverso uno slot. Dall’esterno, sembrerà che la stanza cinese contenga una persona completamente intelligente che parla cinese. La domanda è questa: c’è qualcuno (o qualcosa) nella stanza che capisce il cinese? Cioè, c’è qualcosa che ha lo stato mentale di comprensione o che ha consapevolezza cosciente di ciò che viene discusso in cinese? L’uomo non è chiaramente consapevole. La stanza non può essere a conoscenza. Le carte certamente non sono a conoscenza. Searle conclude che la stanza cinese, o qualsiasi altro sistema di simboli fisici, non può avere una mente.

Searle prosegue sostenendo che gli stati mentali e la coscienza effettivi richiedono (ancora da descrivere) “effettive proprietà fisico-chimiche dei cervelli umani reali”. Sostiene che ci sono speciali “proprietà causali” del cervello e dei neuroni che danno origine alle menti: nelle sue parole “il cervello causa la mente”.

Gottfried Leibniz fece essenzialmente la stessa argomentazione di Searle nel 1714, usando l’esperimento mentale di espandere il cervello fino a quando non fosse delle dimensioni di un mulino. Nel 1974, Lawrence Davis immaginò di duplicare il cervello usando linee telefoniche e uffici gestiti da persone, e nel 1978 Ned Block immaginò l’intera popolazione della Cina coinvolta in tale simulazione cerebrale. Questo esperimento mentale è chiamato “la nazione cinese” o “la palestra cinese”. Ned Block ha anche proposto il suo argomento Blockhead, che è una versione della stanza cinese in cui il programma è stato rielaborato in un semplice insieme di regole del modulo “guardalo, fallo”, rimuovendo tutto il mistero dal programma.

Le risposte alla stanza cinese
Le risposte alla stanza cinese sottolineano diversi punti.

La risposta del sistema e la risposta della mente virtuale: questa risposta sostiene che il sistema, compreso l’uomo, il programma, la stanza e le carte, è ciò che capisce il cinese. Searle afferma che l’uomo nella stanza è l’unica cosa che potrebbe possibilmente “avere una mente” o “capire”, ma altri non sono d’accordo, sostenendo che è possibile che ci siano due menti nello stesso luogo fisico, simile al modo in cui un computer può contemporaneamente “essere” due macchine contemporaneamente: una fisica (come un Macintosh) e una “virtuale” (come un word processor).
Risposta di velocità, potenza e complessità: diversi critici sottolineano che l’uomo nella stanza impiegherebbe probabilmente milioni di anni per rispondere a una semplice domanda e richiederebbe “schedari” di proporzioni astronomiche. Ciò porta in dubbio la chiarezza dell’intuizione di Searle.
Risposta del robot: per capire veramente, alcuni credono che la stanza cinese abbia bisogno di occhi e mani. Hans Moravec scrive: “Se potessimo innestare un robot in un programma di ragionamento, non avremmo più bisogno di una persona per fornire il significato: verrebbe dal mondo fisico”.
Risposta al simulatore del cervello: Cosa succede se il programma simula la sequenza di impulsi nervosi alle sinapsi di un cervello reale di un vero oratore cinese? L’uomo nella stanza simulerebbe un cervello reale. Questa è una variazione sulla “risposta ai sistemi” che appare più plausibile perché “il sistema” ora funziona chiaramente come un cervello umano, il che rafforza l’intuizione che c’è qualcosa oltre l’uomo nella stanza che potrebbe capire il cinese.
Altre menti rispondono e la risposta dell’epifenomena: molte persone hanno notato che l’argomento di Searle è solo una versione del problema delle altre menti, applicato alle macchine. Dal momento che è difficile decidere se le persone stanno effettivamente “pensando”, non dovremmo sorprenderci se è difficile rispondere alla stessa domanda sulle macchine.

Sta pensando una specie di calcolo?
La teoria computazionale della mente o “computazionalismo” afferma che la relazione tra mente e cervello è simile (se non identica) alla relazione tra un programma in esecuzione e un computer. L’idea ha radici filosofiche in Hobbes (che sosteneva che il ragionamento era “nient’altro che la resa dei conti”), Leibniz (che tentò di creare un calcolo logico di tutte le idee umane), Hume (che pensava che la percezione potesse essere ridotta a “impressioni atomiche”) e anche Kant (che ha analizzato tutte le esperienze come controllate da regole formali). L’ultima versione è associata ai filosofi Hilary Putnam e Jerry Fodor.

Questa domanda si basa sulle nostre precedenti domande: se il cervello umano è un tipo di computer, allora i computer possono essere sia intelligenti che consci, rispondendo a entrambe le domande pratiche e filosofiche dell’IA. Per quanto riguarda la questione pratica dell’IA (“Può una macchina mostrare l’intelligenza generale?”), Alcune versioni del computazionalismo fanno affermare che (come scrisse Hobbes):

Il ragionamento non è altro che la resa dei conti
In altre parole, la nostra intelligenza deriva da una forma di calcolo, simile all’aritmetica. Questa è l’ipotesi del sistema di simboli fisici discussa sopra e implica che l’intelligenza artificiale è possibile. In termini di questione filosofica dell’IA (“Può una macchina avere mente, stati mentali e coscienza?”), La maggior parte delle versioni del computazionalismo afferma che (come lo caratterizza Stevan Harnad):

Gli stati mentali sono solo implementazioni dei (giusti) programmi per computer
Questa è la “forte intelligenza artificiale” di John Searle discussa sopra, ed è il vero obiettivo dell’argomentazione della stanza cinese (secondo Harnad).

Altre domande correlate
Alan Turing ha notato che ci sono molti argomenti nella forma “una macchina non farà mai X”, dove X può essere molte cose, come ad esempio:

Sii gentile, pieno di risorse, bello, amichevole, avere iniziativa, avere un senso dell’umorismo, distinguere il bene dal male, fare errori, innamorarsi, gustare fragole e panna, far innamorare qualcuno, imparare dall’esperienza, usare le parole in modo appropriato , essere il soggetto del proprio pensiero, avere la stessa diversità di comportamento di un uomo, fare qualcosa di veramente nuovo.

Una macchina può avere emozioni?
Se le “emozioni” sono definite solo in termini del loro effetto sul comportamento o su come funzionano all’interno di un organismo, allora le emozioni possono essere viste come un meccanismo che un agente intelligente usa per massimizzare l’utilità delle sue azioni. Data questa definizione di emozione, Hans Moravec ritiene che “in generale i robot saranno molto emozionati nell’essere persone gentili”. La paura è una fonte di urgenza. L’empatia è una componente necessaria di una buona interazione con il computer umano. Dice che i robot “cercheranno di compiacerti in un modo apparentemente altruista perché sarà un brivido da questo rinforzo positivo, che puoi interpretare come una specie di amore”. Daniel Crevier scrive “Il punto di Moravec è che le emozioni sono solo dei dispositivi per canalizzare il comportamento in una direzione benefica per la sopravvivenza della propria specie”.

Tuttavia, le emozioni possono anche essere definite in termini della loro qualità soggettiva, di come ci si sente ad avere un’emozione. La domanda se la macchina percepisca effettivamente un’emozione o se agisca semplicemente come se stesse provando un’emozione è la domanda filosofica, “una macchina può essere cosciente?” in un’altra forma.

Una macchina può essere autocosciente?
La “consapevolezza di sé”, come notato sopra, viene talvolta usata dagli scrittori di fantascienza come un nome per la proprietà umana essenziale che rende un personaggio completamente umano. Turing elimina tutte le altre proprietà degli esseri umani e riduce la domanda a “può una macchina essere il soggetto del proprio pensiero?” Può pensare a se stesso? Visto in questo modo, è possibile scrivere un programma in grado di riportare i propri stati interni, come un debugger. Sebbene presumibilmente la consapevolezza di sé spesso presuma un po ‘più di capacità; una macchina che può attribuire significato in qualche modo non solo al proprio stato ma in generale postulando domande senza risposte solide: la natura contestuale della sua esistenza ora; in che modo si confronta con gli stati o i piani passati per il futuro, i limiti e il valore del suo prodotto di lavoro, come percepisce la sua performance essere valutata o confrontata con altre.

Una macchina può essere originale o creativa?
Turing riduce questo alla domanda se una macchina può “prenderci di sorpresa” e sostiene che questo è ovviamente vero, come può attestare qualsiasi programmatore. Egli osserva che, con una capacità di archiviazione sufficiente, un computer può comportarsi in un numero astronomico di modi diversi. Deve essere possibile, anche banale, per un computer in grado di rappresentare idee per combinarle in modi nuovi. (Il matematico automatizzato di Douglas Lenat, come un esempio, combinava idee per scoprire nuove verità matematiche).

Nel 2009, gli scienziati della Aberystwyth University in Galles e della U.K’s University of Cambridge hanno progettato un robot chiamato Adam che credono essere la prima macchina a produrre autonomamente nuove scoperte scientifiche. Sempre nel 2009, i ricercatori di Cornell hanno sviluppato Eureqa, un programma per computer che estrapola formule per adattarsi ai dati immessi, come trovare le leggi del movimento dal movimento di un pendolo.

Una macchina può essere benevola o ostile?
Questa domanda (come molti altri nella filosofia dell’intelligenza artificiale) può essere presentata in due forme. “Ostilità” può essere definita in termini di funzione o comportamento, nel qual caso “ostile” diventa sinonimo di “pericoloso”. Oppure può essere definito in termini di intenti: può una macchina “deliberatamente” predisposta a fare del male? Quest’ultima è la domanda “una macchina può avere stati coscienti?” (come le intenzioni) in un’altra forma.

La questione se le macchine altamente intelligenti e completamente autonome sarebbero pericolose è stata esaminata in dettaglio dai futuristi (come il Singularity Institute). (L’elemento ovvio del dramma ha anche reso popolare il soggetto nella fantascienza, che ha preso in considerazione molti scenari diversi in cui le macchine intelligenti rappresentano una minaccia per l’umanità).

Un problema è che le macchine possono acquisire l’autonomia e l’intelligenza necessarie per essere pericolose molto rapidamente. Vernor Vinge ha suggerito che nel giro di pochi anni i computer diventeranno improvvisamente migliaia o milioni di volte più intelligenti degli umani. Lo chiama “la Singolarità”. Suggerisce che potrebbe essere alquanto o potenzialmente molto pericoloso per gli umani. Questo è discusso da una filosofia chiamata Singolaritarismo.

Alcuni esperti e accademici hanno messo in dubbio l’uso di robot per il combattimento militare, specialmente quando tali robot hanno un certo grado di funzioni autonome. La Marina degli Stati Uniti ha finanziato un rapporto che indica che, man mano che i robot militari diventano più complessi, dovrebbe essere prestata maggiore attenzione alle implicazioni della loro capacità di prendere decisioni autonome.

Il Presidente dell’Associazione per l’Avanzamento dell’Intelligenza Artificiale ha commissionato uno studio per esaminare questo problema. Indicano programmi come il dispositivo di acquisizione del linguaggio che può emulare l’interazione umana.

Alcuni hanno suggerito la necessità di costruire una “IA amichevole”, il che significa che i progressi che si stanno già verificando con l’intelligenza artificiale dovrebbero includere anche uno sforzo per rendere l’intelligenza artificiale intrinsecamente amichevole e umana.

Una macchina può avere un’anima?
Infine, coloro che credono nell’esistenza di un’anima possono sostenere che “Il pensiero è una funzione dell’anima immortale dell’uomo”. Alan Turing ha definito questa “l’obiezione teologica”. Lui scrive

Nel tentativo di costruire tali macchine non dovremmo essere irriverentemente usurpando il suo potere di creare anime, più di quanto non lo siamo nella procreazione dei bambini: piuttosto siamo, in entrambi i casi, strumenti della Sua volontà che fornisce palazzi per le anime che Egli crea.

Opinioni sul ruolo della filosofia
Alcuni studiosi sostengono che il licenziamento della filosofia da parte della comunità di intelligenza artificiale è dannoso. In the Stanford Encyclopedia of Philosophy, some philosophers argue that the role of philosophy in AI is underappreciated. Physicist David Deutsch argues that without an understanding of philosophy or its concepts, AI development would suffer from a lack of progress.

Bibliography & Conferences
The main bibliography on the subject, with several sub-sections, is on PhilPapers

The main conference series on the issue is “Philosophy and Theory of AI” (PT-AI), run by Vincent C. Müller