कृत्रिम बुद्धि का दर्शन

कृत्रिम बुद्धि के दर्शन के साथ घनिष्ठ संबंध हैं क्योंकि दोनों कई अवधारणाओं को साझा करते हैं और इनमें बुद्धि, क्रिया, चेतना, महामारी विज्ञान और यहां तक ​​कि नि: शुल्क इच्छा भी शामिल है। इसके अलावा, तकनीक कृत्रिम जानवरों या कृत्रिम लोगों (या, कम से कम, कृत्रिम प्राणियों) के निर्माण से संबंधित है, इसलिए अनुशासन दार्शनिकों के लिए काफी रुचि है। इन कारकों ने कृत्रिम बुद्धि के दर्शन के उद्भव में योगदान दिया। कुछ विद्वानों का तर्क है कि एआई समुदाय का दर्शन का बर्खास्तगी हानिकारक है।

कृत्रिम बुद्धि का दर्शन इस तरह के सवालों के जवाब देने का प्रयास करता है:

क्या मशीन समझदारी से काम कर सकती है? क्या यह किसी भी समस्या को हल कर सकता है जिसे कोई व्यक्ति सोचकर हल करेगा?
क्या मानव खुफिया और मशीन की खुफिया समान है? क्या मानव मस्तिष्क अनिवार्य रूप से एक कंप्यूटर है?
क्या एक मशीन में एक दिमाग, मानसिक अवस्था और चेतना उसी तरह से हो सकती है जिससे मनुष्य हो सकता है? क्या यह महसूस कर सकता है कि चीजें कैसे हैं?

ये तीन प्रश्न क्रमश: एआई शोधकर्ताओं, भाषाविदों, संज्ञानात्मक वैज्ञानिकों और दार्शनिकों के अलग-अलग हितों को दर्शाते हैं। इन सवालों के वैज्ञानिक उत्तर “खुफिया” और “चेतना” की परिभाषा पर निर्भर करते हैं और वास्तव में “मशीन” चर्चा में हैं।

एआई के दर्शन में महत्वपूर्ण प्रस्तावों में शामिल हैं:

ट्यूरिंग का “विनम्र सम्मेलन”: यदि एक मशीन इंसान के रूप में बुद्धिमानी से व्यवहार करती है, तो यह इंसान के रूप में बुद्धिमान है।
डार्टमाउथ प्रस्ताव: “सीखने के हर पहलू या बुद्धिमत्ता की किसी भी अन्य विशेषता को इतनी सटीक रूप से वर्णित किया जा सकता है कि इसे अनुकरण करने के लिए एक मशीन बनाई जा सकती है।”
न्यूवेल और साइमन की भौतिक प्रतीक प्रणाली परिकल्पना: “एक भौतिक प्रतीक प्रणाली में सामान्य बुद्धिमान कार्रवाई के आवश्यक और पर्याप्त साधन हैं।”
सरेल की मजबूत एआई परिकल्पना: “उचित इनपुट और आउटपुट के साथ उचित प्रोग्राम किए गए कंप्यूटर को इस तरह के दिमाग में एक ही मन में दिमाग हो सकता है।”
हॉब्स ‘तंत्र: “कारण’ के लिए … कुछ भी नहीं बल्कि ‘गणना’ है, जो सामान्य नामों के परिणामों के बारे में हमारे विचारों के ‘अंकन’ और ‘संकेत’ के लिए सहमत हैं …”

क्या मशीन सामान्य खुफिया प्रदर्शित कर सकती है?
क्या ऐसी मशीन बनाना संभव है जो मनुष्यों को अपनी बुद्धि का उपयोग करके हल करने वाली सभी समस्याओं को हल कर सके? यह प्रश्न भविष्य में कौन सी मशीनें करने में सक्षम होगा और एआई अनुसंधान की दिशा का मार्गदर्शन करने के दायरे को परिभाषित करता है। यह केवल मशीनों के व्यवहार से संबंधित है और मनोवैज्ञानिकों, संज्ञानात्मक वैज्ञानिकों और दार्शनिकों के हित के मुद्दों को अनदेखा करता है; इस सवाल का जवाब देने के लिए, इससे कोई फ़र्क नहीं पड़ता कि कोई मशीन वास्तव में सोच रही है (जैसा कि एक व्यक्ति सोचता है) या बस ऐसा सोच रहा है जैसे सोच रहा है।

अधिकांश एआई शोधकर्ताओं की मूल स्थिति इस कथन में संक्षेप में है, जो 1 9 56 की डार्टमाउथ कार्यशाला के प्रस्ताव में दिखाई दी:

सीखने के हर पहलू या बुद्धिमत्ता की किसी भी अन्य विशेषता को इतनी सटीक रूप से वर्णित किया जा सकता है कि इसे अनुकरण करने के लिए एक मशीन बनाई जा सकती है।
बुनियादी आधार के खिलाफ तर्कों से पता होना चाहिए कि एक कार्यकारी एआई सिस्टम बनाना असंभव है, क्योंकि कंप्यूटर की क्षमताओं के लिए कुछ व्यावहारिक सीमा है या मानव मन की कुछ विशेष गुणवत्ता है जो सोचने के लिए जरूरी है और फिर भी इसे डुप्लिकेट नहीं किया जा सकता है मशीन (या वर्तमान एआई अनुसंधान के तरीकों से)। बुनियादी आधार के पक्ष में तर्कों को यह दिखाना चाहिए कि ऐसी प्रणाली संभव है।

सवाल का जवाब देने का पहला कदम स्पष्ट रूप से “खुफिया” को परिभाषित करना है।

बुद्धि

ट्यूरिंग टेस्ट
एलन ट्यूरिंग ने खुफिया जानकारी को बातचीत के बारे में एक साधारण सवाल पर परिभाषित करने की समस्या को कम कर दिया। वह सुझाव देता है कि: यदि कोई मशीन किसी भी प्रश्न का उत्तर दे सकती है, तो एक सामान्य शब्द के समान शब्दों का उपयोग करके, हम उस मशीन को बुद्धिमान कह सकते हैं। उनके प्रयोगात्मक डिजाइन का एक आधुनिक संस्करण एक ऑनलाइन चैट रूम का उपयोग करेगा, जहां प्रतिभागियों में से एक वास्तविक व्यक्ति है और प्रतिभागियों में से एक कंप्यूटर प्रोग्राम है। कार्यक्रम परीक्षण पास करता है अगर कोई भी नहीं बता सकता कि दो प्रतिभागियों में से कौन सा मानव है। ट्यूरिंग नोट्स कि कोई भी नहीं (दार्शनिकों को छोड़कर) कभी सवाल पूछता है “क्या लोग सोच सकते हैं?” वह लिखते हैं “इस बिंदु पर निरंतर बहस करने के बजाय, यह एक विनम्र सम्मेलन होना सामान्य है जो हर कोई सोचता है”। ट्यूरिंग का परीक्षण मशीनों को इस विनम्र सम्मेलन को बढ़ाता है:

यदि कोई मशीन बुद्धिमानी से इंसान के रूप में कार्य करती है, तो यह इंसान के रूप में बुद्धिमान है।
ट्यूरिंग टेस्ट की एक आलोचना यह है कि यह स्पष्ट रूप से मानववंशीय है। यदि हमारा अंतिम लक्ष्य उन मशीनों को बनाना है जो लोगों की तुलना में अधिक बुद्धिमान हैं, तो हमें क्यों जोर देना चाहिए कि हमारी मशीनों को लोगों के साथ मिलकर मिलना चाहिए? [इस उद्धरण को उद्धरण की आवश्यकता है] रसेल और नॉरविग लिखते हैं कि “एयरोनॉटिकल इंजीनियरिंग ग्रंथ उनके लक्ष्य को परिभाषित नहीं करते हैं क्षेत्र बनाने वाली मशीनें जो कि कबूतरों की तरह उड़ती हैं कि वे अन्य कबूतरों को मूर्ख बना सकते हैं “।

बुद्धिमान एजेंट परिभाषा

हालिया एआई शोध बुद्धिमान एजेंटों के मामले में खुफिया परिभाषित करता है। एक “एजेंट” ऐसा कुछ है जो पर्यावरण में समझता है और कार्य करता है। एक “प्रदर्शन उपाय” परिभाषित करता है कि एजेंट के लिए सफलता के रूप में क्या मायने रखता है।

यदि कोई एजेंट पिछले अनुभव और ज्ञान के आधार पर प्रदर्शन माप के अनुमानित मूल्य को अधिकतम करने के लिए कार्य करता है तो यह बुद्धिमान है।
इस तरह की परिभाषाएं बुद्धि के सार को पकड़ने की कोशिश करती हैं। उनके पास यह लाभ है कि, ट्यूरिंग टेस्ट के विपरीत, वे मानव लक्षणों के लिए भी परीक्षण नहीं करते हैं कि हम [कौन?] बुद्धिमानी पर विचार नहीं करना चाहेंगे, जैसे अपमानित होने की क्षमता या झूठ बोलने का मोह [संदेहपूर्ण चर्चा]। उन्हें नुकसान होता है कि वे “चीजें जो सोचते हैं” और “चीजें जो नहीं करते हैं” के बीच मतभेद [जब परिभाषित किया जाता है]] भिन्नता में विफल रहता है। इस परिभाषा से, यहां तक ​​कि एक थर्मोस्टेट में एक प्राथमिक बुद्धि है।

तर्क है कि एक मशीन सामान्य बुद्धि प्रदर्शित कर सकते हैं

मस्तिष्क अनुकरण किया जा सकता है
हबर्ट ड्रेफस इस तर्क का वर्णन करते हुए दावा करते हैं कि “यदि तंत्रिका तंत्र भौतिकी और रसायन शास्त्र के नियमों का पालन करता है, जो हमारे पास यह मानने का हर कारण है, तो …. हम … के व्यवहार को पुन: उत्पन्न करने में सक्षम होना चाहिए कुछ भौतिक उपकरण के साथ तंत्रिका तंत्र “। यह तर्क, पहली बार 1 9 43 के शुरू में पेश किया गया था और 1 9 88 में हंस मोरावेक द्वारा स्पष्ट रूप से वर्णित किया गया था, अब भविष्यवादी रे कुर्ज़वेइल से जुड़ा हुआ है, जो अनुमान लगाता है कि वर्ष 2029 तक पूरी तरह से मस्तिष्क सिमुलेशन के लिए कंप्यूटर पावर पर्याप्त होगी। एक गैर-वास्तविक समय 2005 में मानव मस्तिष्क (1011 न्यूरॉन्स) का आकार थाममोकॉर्टिकल मॉडल का अनुकरण किया गया था और 27 प्रोसेसर के समूह पर मस्तिष्क गतिशीलता के 1 सेकंड अनुकरण करने में 50 दिन लग गए थे।

कुछ [मात्रा] असहमत हैं कि सिद्धांत में एक मस्तिष्क सिमुलेशन संभव है, [किसके अनुसार?] एआई के आलोचकों जैसे हबर्ट ड्रेफस और जॉन सिरल। हालांकि, सरेल बताते हैं कि, सिद्धांत रूप में, किसी भी कंप्यूटर द्वारा कुछ भी अनुकरण किया जा सकता है; इस प्रकार, परिभाषा को अपने ब्रेकिंग पॉइंट में लाने से निष्कर्ष निकाला जाता है कि किसी भी प्रक्रिया को तकनीकी रूप से “गणना” माना जा सकता है। वह लिखता है, “हम जो जानना चाहते थे वह है थर्मोस्टेट्स और लीवर से दिमाग को अलग करता है।” इस प्रकार, केवल मस्तिष्क के कामकाज की नकल करना ही खुफिया और दिमाग की प्रकृति के बारे में अज्ञानता का प्रवेश होगा।

मानव सोच प्रतीक प्रसंस्करण है
1 9 63 में, एलन न्यूवेल और हरबर्ट ए साइमन ने प्रस्तावित किया कि “प्रतीक हेरफेर” मानव और मशीन दोनों बुद्धि का सार था। उन्होंने लिखा:

एक भौतिक प्रतीक प्रणाली में सामान्य बुद्धिमान कार्रवाई के आवश्यक और पर्याप्त साधन होते हैं।
यह दावा बहुत मजबूत है: इसका तात्पर्य यह है कि मानव सोच एक प्रकार का प्रतीक हेरफेर है (क्योंकि एक प्रतीक प्रणाली बुद्धिमत्ता के लिए जरूरी है) और यह कि मशीन बुद्धिमान हो सकती हैं (क्योंकि एक प्रतीक प्रणाली खुफिया जानकारी के लिए पर्याप्त है)। इस स्थिति का एक अन्य संस्करण दार्शनिक हबर्ट ड्रेफस द्वारा वर्णित किया गया था, जिन्होंने इसे “मनोवैज्ञानिक धारणा” कहा था:

औपचारिक नियमों के अनुसार दिमाग को जानकारी के बिट्स पर चलने वाले डिवाइस के रूप में देखा जा सकता है।
एक भेद आमतौर पर बनाया जाता है [किसके द्वारा?] उच्च स्तरीय प्रतीकों के प्रकार जो सीधे दुनिया में वस्तुओं के साथ मेल खाते हैं, जैसे कि <कुत्ते> और <पूंछ> और अधिक जटिल “प्रतीकों” जो एक मशीन में मौजूद हैं तंत्रिका नेटवर्क। एआई में शुरुआती शोध, जिसे जॉन हौगलैंड द्वारा “अच्छी पुरानी कृत्रिम बुद्धिमानी” (जीओएफएआई) कहा जाता है, ने इस तरह के उच्च स्तरीय प्रतीकों पर ध्यान केंद्रित किया।

प्रतीक प्रसंस्करण के खिलाफ तर्क
इन तर्कों से पता चलता है कि मानव सोच में उच्च स्तरीय प्रतीक हेरफेर शामिल नहीं है (पूरी तरह से)। वे यह नहीं दिखाते कि कृत्रिम बुद्धि असंभव है, केवल प्रतीक प्रसंस्करण की आवश्यकता है।

गोडेलियन विरोधी तंत्रवादी तर्क
1 9 31 में, कर्ट गोडेल ने अपूर्णता प्रमेय के साथ साबित किया कि “गोडेल स्टेटमेंट” बनाना हमेशा संभव है कि तर्क की एक सतत औपचारिक प्रणाली (जैसे उच्च स्तरीय प्रतीक हेरफेर प्रोग्राम) साबित नहीं हो सका। एक सच्चे वक्तव्य होने के बावजूद, निर्मित गोडेल कथन दिया गया सिस्टम में स्वीकार्य है। (निर्मित गोडेल कथन की सच्चाई दी गई प्रणाली की स्थिरता पर आकस्मिक है; एक ही प्रक्रिया को एक उपनिवेशी असंगत प्रणाली में लागू करने के लिए सफल होने लगेंगे, लेकिन वास्तव में इसके बजाय झूठी “गोडेल स्टेटमेंट” उत्पन्न होगा।) अधिक अनुमानतः, गोडेल ने अनुमान लगाया कि मानव दिमाग सही ढंग से किसी भी अच्छी तरह से ग्राउंड किए गए गणितीय कथन (किसी भी संभावित गोदेल कथन सहित) की सच्चाई या झूठीता को निर्धारित कर सकता है, और इसलिए मानव मस्तिष्क की शक्ति एक तंत्र के लिए कमजोर नहीं है। दार्शनिक जॉन लुकास (1 9 61 से) और रोजर पेनरोस (1 9 8 9 से) ने इस दार्शनिक विरोधी-तंत्रवादी तर्क को चैंपियन किया है। गोडेलियन एंटी-मैकेनिस्ट तर्क निर्दोष प्रतीत होने वाले दावे पर भरोसा करते हैं कि मानव गणितज्ञों (या मानव गणितज्ञों के कुछ आदर्शीकरण) दोनों एक प्रणाली (पूरी तरह से त्रुटि से मुक्त) हैं और पूरी तरह से अपनी स्थिरता में विश्वास करते हैं (और सभी तार्किक बना सकते हैं सम्मेलन जो अपने स्वयं के स्थिरता से पालन करते हैं, जिसमें गोडेल स्टेटमेंट में विश्वास भी शामिल है)। यह एक ट्यूरिंग मशीन के लिए असंभव है [स्पष्टीकरण आवश्यक] (और, एक अनौपचारिक विस्तार, किसी भी ज्ञात प्रकार के यांत्रिक कंप्यूटर) करने के लिए; इसलिए, गोडेलियन ने निष्कर्ष निकाला है कि एक मशीन [संदिग्ध – चर्चा] में कब्जा करने के लिए मानव तर्क बहुत शक्तिशाली है।

हालांकि, वैज्ञानिक और गणितीय समुदाय में आधुनिक सर्वसम्मति यह है कि वास्तविक मानव तर्क असंगत है; कि मानव तर्क के किसी भी निरंतर “आदर्शीकृत संस्करण” एच को तार्किक रूप से एच की स्थिरता के बारे में एक स्वस्थ लेकिन प्रतिद्वंद्वी खुले दिमागी संदेह को अपनाने के लिए मजबूर होना होगा (अन्यथा एच उचित रूप से असंगत है); और गोडेल के प्रमेय किसी भी वैध तर्क का कारण नहीं बनते हैं कि मनुष्यों के पास गणितीय तर्क क्षमताओं की एक मशीन जो कभी भी डुप्लिकेट कर सकती है उससे परे है। यह सर्वसम्मति है कि गोडेलियन एंटी-मैकेनिकिस्ट तर्कों को विफलता के लिए बर्बाद कर दिया गया है, आर्टिफिशियल इंटेलिजेंस में दृढ़ता से निर्धारित किया गया है: “कम्प्यूटेशनल थीसिस पर हमला करने के लिए (गोडेल के अपूर्ण परिणाम) का उपयोग करने का कोई भी प्रयास अवैध है, क्योंकि ये परिणाम कम्प्यूटेशनल के साथ काफी संगत हैं थीसिस। ”

अधिक व्यावहारिक रूप से, रसेल और नॉरविग ने ध्यान दिया कि गोडेल का तर्क केवल सैद्धांतिक रूप से साबित हो सकता है, जो स्मृति और समय की अनंत मात्रा को देखते हैं। व्यावहारिक रूप से, वास्तविक मशीनों (मनुष्यों समेत) सीमित संसाधन हैं और कई प्रमेय साबित करने में कठिनाई होगी। बुद्धिमान होने के लिए सब कुछ साबित करना जरूरी नहीं है [जब परिभाषित किया गया है?]।

कम औपचारिक रूप से, डगलस होफास्ट्टर, अपने पुलित्जर पुरस्कार विजेता पुस्तक गोडेल, एस्चर, बाच: एक अनंत गोल्डन ब्रीड में कहते हैं कि ये “गोदेल-स्टेटमेंट” हमेशा सिस्टम को संदर्भित करते हैं, एपिमेनाइड्स विरोधाभास के तरीके के समानता को चित्रित करते हैं कि खुद को देखें, जैसे कि “यह कथन गलत है” या “मैं झूठ बोल रहा हूं”। लेकिन, ज़ाहिर है, एपिमेनाइड्स विरोधाभास किसी भी चीज पर लागू होता है जो बयान देता है, भले ही वे मशीनें या इंसान हों, यहां तक ​​कि लुकास भी। विचार करें:

लुकास इस कथन की सच्चाई पर जोर नहीं दे सकता है।
यह कथन सत्य है लेकिन लुकास द्वारा जोर नहीं दिया जा सकता है। इससे पता चलता है कि लुकास स्वयं ही उसी सीमा के अधीन है जो वह मशीनों के लिए वर्णन करता है, जैसा कि सभी लोग हैं, और इसलिए लुकास का तर्क व्यर्थ है।

यह निष्कर्ष निकालने के बाद कि मानव तर्क गैर-गणना योग्य है, पेनरोस विवादास्पद रूप से अनुमान लगाता है कि क्वांटम मैकेनिकल राज्यों के पतन से जुड़े कुछ प्रकार की काल्पनिक गैर-गणना योग्य प्रक्रियाएं मनुष्यों को मौजूदा कंप्यूटरों पर विशेष लाभ देती हैं। मौजूदा क्वांटम कंप्यूटर केवल ट्यूरिंग कंप्यूटेबल कार्यों की जटिलता को कम करने में सक्षम हैं और अभी भी ट्यूरिंग मशीनों के दायरे में कार्यों तक ही सीमित हैं। [स्पष्टीकरण आवश्यक]। पेनरोस और लुकास के तर्कों से, मौजूदा क्वांटम कंप्यूटर पर्याप्त नहीं हैं [स्पष्टीकरण आवश्यक] [क्यों?], इसलिए पेनरोस नई भौतिकी से जुड़ी कुछ अन्य प्रक्रियाओं की तलाश करता है, उदाहरण के लिए क्वांटम गुरुत्वाकर्षण जो प्लैंक द्रव्यमान के पैमाने पर नए भौतिकी को प्रकट कर सकता है तरंग समारोह के क्वांटम पतन। उन्होंने कहा कि इन राज्यों ने न्यूरॉन्स के भीतर और एक से अधिक न्यूरॉन फैलाने का सुझाव दिया है। हालांकि, अन्य वैज्ञानिकों का कहना है कि किसी भी प्रकार की क्वांटम गणना का उपयोग करने के लिए मस्तिष्क में कोई व्यावहारिक कार्बनिक तंत्र नहीं है, और इसके अलावा क्वांटम विघटन का समय-समय पर न्यूरॉन फायरिंग को प्रभावित करने के लिए बहुत तेज़ लगता है।

ड्रेफस: बेहोश कौशल की प्राथमिकता
हबर्ट ड्रेफस ने तर्क दिया कि मानव खुफिया और विशेषज्ञता मुख्य रूप से जागरूक प्रतीकात्मक हेरफेर के बजाय बेहोश प्रवृत्तियों पर निर्भर थी, और तर्क दिया कि इन बेहोश कौशल औपचारिक नियमों में कभी नहीं पकड़े जाएंगे।

ड्रेफस के तर्क की उनकी 1 9 50 के पेपर कंप्यूटिंग मशीनरी और इंटेलिजेंस में ट्यूरिंग ने अनुमान लगाया था, जहां उन्होंने इसे “व्यवहार की अनौपचारिकता से तर्क” के रूप में वर्गीकृत किया था। ट्यूरिंग ने जवाब में तर्क दिया कि, सिर्फ इसलिए कि हम जटिल व्यवहार को नियंत्रित करने वाले नियमों को नहीं जानते हैं, इसका मतलब यह नहीं है कि ऐसे कोई नियम मौजूद नहीं हैं। उन्होंने लिखा: “हम व्यवहार के पूर्ण कानूनों की अनुपस्थिति के बारे में खुद को आसानी से समझ नहीं सकते हैं … ऐसे कानूनों को खोजने के लिए हमें एकमात्र तरीका वैज्ञानिक अवलोकन है, और हम निश्चित रूप से किसी भी परिस्थिति के बारे में नहीं जानते जिसके अंतर्गत हम कह सकते हैं, ‘हम पर्याप्त खोज की है। ऐसे कोई कानून नहीं हैं। ‘”

रसेल और नॉरविग ने इंगित किया कि, ड्रेफस ने अपनी आलोचना प्रकाशित होने के बाद से, “नियम” की खोज करने की दिशा में प्रगति की है जो बेहोश तर्क को नियंत्रित करता है। रोबोटिक्स अनुसंधान में स्थित आंदोलन धारणा और ध्यान में हमारे बेहोश कौशल को पकड़ने का प्रयास करता है। कम्प्यूटेशनल इंटेलिजेंस प्रतिमान, जैसे तंत्रिका जाल, विकासवादी एल्गोरिदम और इतने पर अधिकतर अनुरूपित बेहोश तर्क और सीखने पर निर्देशित होते हैं। एआई के सांख्यिकीय दृष्टिकोण भविष्यवाणी कर सकते हैं जो मानव अंतर्ज्ञानी अनुमानों की सटीकता तक पहुंचते हैं। कॉमन्सेंस ज्ञान में अनुसंधान ने “पृष्ठभूमि” या ज्ञान के संदर्भ को पुन: पेश करने पर ध्यान केंद्रित किया है। वास्तव में, सामान्य रूप से एआई शोध उच्च स्तर के प्रतीक हेरफेर या “जीओएफएआई” से दूर हो गया है, जो हमारे नए बेहोश तर्क [किसके अनुसार?] पर कब्जा करने के इरादे से नए मॉडल की तरफ है। इतिहासकार और एआई शोधकर्ता डैनियल क्रेवियर ने लिखा है कि “समय ने ड्रेफस की कुछ टिप्पणियों की शुद्धता और समझदारी साबित कर दी है। अगर उन्होंने उन्हें कम आक्रामक रूप से तैयार किया, तो उन्होंने सुझाव दिया कि रचनात्मक कार्रवाइयां बहुत पहले ले ली गई हैं।”

क्या मशीन में दिमाग, चेतना और मानसिक अवस्थाएं हो सकती हैं?
यह एक दार्शनिक प्रश्न है, जो अन्य दिमाग की समस्या और चेतना की कठोर समस्या से संबंधित है। प्रश्न जॉन सियरल द्वारा परिभाषित स्थिति के चारों ओर घूमता है “मजबूत एआई”:

एक भौतिक प्रतीक प्रणाली में एक दिमाग और मानसिक अवस्था हो सकती है।
सरेल ने इस स्थिति को “कमजोर एआई” कहलाता से अलग किया:

एक भौतिक प्रतीक प्रणाली समझदारी से कार्य कर सकती है।
सरेल ने कमजोर एआई से मजबूत एआई को अलग करने के लिए शर्तों की शुरुआत की ताकि वह उस पर ध्यान केंद्रित कर सकें जो उन्होंने सोचा था कि वह और अधिक रोचक और बहस योग्य मुद्दा था। उन्होंने तर्क दिया कि भले ही हम मान लें कि हमारे पास एक कंप्यूटर प्रोग्राम था जो वास्तव में मानव दिमाग की तरह काम करता था, फिर भी एक कठिन दार्शनिक प्रश्न होगा जिसे उत्तर देने की आवश्यकता थी।

सीरेल की दो पदों में से कोई भी एआई शोध के लिए बहुत चिंता का विषय नहीं है, क्योंकि वे सीधे सवाल का जवाब नहीं देते हैं “क्या मशीन सामान्य बुद्धिमानी दिखा सकती है?” (जब तक यह भी दिखाया जा सकता है कि बुद्धि के लिए चेतना आवश्यक है)। ट्यूरिंग ने लिखा “मैं इस धारणा को नहीं देना चाहता हूं कि मुझे लगता है कि चेतना के बारे में कोई रहस्य नहीं है … क्योंकि मुझे नहीं लगता कि इन रहस्यों को हल करने की आवश्यकता है इससे पहले कि हम सवाल का जवाब दे सकें [चाहे मशीन सोचें]।” रसेल और नॉरविग इस बात से सहमत हैं: “अधिकांश एआई शोधकर्ता कमजोर एआई परिकल्पना को मंजूरी देते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।”

ऐसे कुछ शोधकर्ता हैं जो मानते हैं कि चेतना बुद्धिमानी में एक आवश्यक तत्व है, जैसे इगोर अलेक्जेंडर, स्टेन फ्रैंकलिन, रॉन सन और पेंटी हाइकोनन, हालांकि “चेतना” की उनकी परिभाषा “खुफिया” के करीब है। (कृत्रिम चेतना देखें।)

इससे पहले कि हम इस सवाल का जवाब दे सकें, हमें स्पष्ट होना चाहिए कि हमारा मतलब “दिमाग”, “मानसिक अवस्था” और “चेतना” से क्या है।

चेतना, दिमाग, मानसिक अवस्था, अर्थ
अलग-अलग समुदायों द्वारा विभिन्न तरीकों से “दिमाग” और “चेतना” शब्द का उपयोग किया जाता है। उदाहरण के लिए, कुछ नए युग के विचारक, बर्गसन के “एलन महत्वपूर्ण” के समान कुछ वर्णन करने के लिए “चेतना” शब्द का उपयोग करते हैं: एक अदृश्य, ऊर्जावान तरल पदार्थ जो जीवन और विशेष रूप से दिमाग में प्रवेश करता है। विज्ञान कथा लेखकों ने कुछ आवश्यक संपत्ति का वर्णन करने के लिए शब्द का उपयोग किया जो हमें मानव बनाता है: एक मशीन या विदेशी जो “सचेत” है, उसे पूरी तरह मानव चरित्र के रूप में प्रस्तुत किया जाएगा, जिसमें बुद्धि, इच्छा, इच्छा, अंतर्दृष्टि, गर्व और अन्य कुछ भी शामिल होंगे। (साइंस फिक्शन लेखकों ने “संवेदनशीलता”, “सैपियंस,” “आत्म-जागरूकता” या “भूत” शब्द का प्रयोग भी किया – जैसा कि घोस्ट इन द शैल मंगा और एनीम श्रृंखला – इस आवश्यक मानव संपत्ति का वर्णन करने के लिए)। दूसरों के लिए [कौन?], शब्द “दिमाग” या “चेतना” को आत्मा के लिए धर्मनिरपेक्ष समानार्थी के रूप में उपयोग किया जाता है।

दार्शनिकों, न्यूरोसाइजिस्ट और संज्ञानात्मक वैज्ञानिकों के लिए, शब्दों का उपयोग इस तरह से किया जाता है कि दोनों अधिक सटीक और अधिक सांसारिक हैं: वे “आपके सिर में सोचा”, एक धारणा, एक सपना, के परिचित, रोजमर्रा के अनुभव को संदर्भित करते हैं। इरादा या योजना, और जिस तरह से हम कुछ जानते हैं, या कुछ मतलब है या कुछ समझते हैं। दार्शनिक जॉन सरेल का कहना है, “चेतना की एक कॉमन्सेंस परिभाषा देना मुश्किल नहीं है”। रहस्यमय और आकर्षक क्या है, यह इतना नहीं है कि यह क्या है, लेकिन यह कैसे है: फैटी ऊतक और बिजली का एक टुकड़ा कैसे समझने, अर्थ या सोचने के इस (परिचित) अनुभव को जन्म देता है?

दार्शनिक इसे चेतना की कठोर समस्या कहते हैं। यह दिमाग के दर्शन में एक क्लासिक समस्या का नवीनतम संस्करण है जिसे “दिमाग-शरीर की समस्या” कहा जाता है। एक संबंधित समस्या अर्थ या समझ की समस्या है (जो दार्शनिक “जानबूझकर” कहते हैं): हमारे विचारों के बीच संबंध क्या है और हम किस बारे में सोच रहे हैं (यानी दुनिया में वस्तुओं और परिस्थितियों में)? तीसरा मुद्दा अनुभव की समस्या है (या “phenomenology”): यदि दो लोग एक ही चीज़ देखते हैं, तो क्या उनके पास एक ही अनुभव है? या क्या चीजें हैं “उनके सिर के अंदर” (जिसे “क्वालिआ” कहा जाता है) जो व्यक्ति से अलग हो सकते हैं?

सरेल का चीनी कमरा
जॉन सरेल हमें एक विचार प्रयोग पर विचार करने के लिए कहते हैं: मान लीजिए कि हमने एक कंप्यूटर प्रोग्राम लिखा है जो ट्यूरिंग टेस्ट पास करता है और “सामान्य बुद्धिमान कार्रवाई” प्रदर्शित करता है। मान लीजिए, विशेष रूप से कार्यक्रम धाराप्रवाह चीनी में बातचीत कर सकते हैं। कार्यक्रम को 3×5 कार्ड पर लिखें और उन्हें एक सामान्य व्यक्ति को दें जो चीनी नहीं बोलता है। व्यक्ति को कमरे में लॉक करें और उसे कार्ड पर निर्देशों का पालन करें। वह चीनी पात्रों की प्रतिलिपि बनायेगा और उन्हें स्लॉट के माध्यम से कमरे में और बाहर भेज देगा। बाहर से, यह दिखाई देगा कि चीनी कमरे में एक पूरी तरह से बुद्धिमान व्यक्ति है जो चीनी बोलता है। सवाल यह है: क्या चीनी में समझने वाले कमरे में कोई भी (या कुछ भी) है? यही है, क्या ऐसी कोई चीज है जिसमें समझने की मानसिक स्थिति है, या चीनी में चर्चा की जा रही है इसके बारे में जागरूक जागरूकता है? आदमी स्पष्ट रूप से अवगत नहीं है। कमरा जागरूक नहीं हो सकता है। कार्ड निश्चित रूप से अवगत नहीं हैं। Searle निष्कर्ष निकाला है कि चीनी कमरे, या किसी अन्य भौतिक प्रतीक प्रणाली, एक दिमाग नहीं हो सकता है।

सरेल बहस करता है कि वास्तविक मानसिक अवस्था और चेतना की आवश्यकता होती है (अभी तक वर्णित किया जाना चाहिए) “वास्तविक मानव मस्तिष्क के वास्तविक भौतिक-रासायनिक गुण।” उनका तर्क है कि मस्तिष्क और न्यूरॉन्स के विशेष “कारण गुण” हैं जो दिमाग को जन्म देते हैं: उनके शब्दों में “दिमाग दिमाग का कारण बनता है।”

गॉटफ्राइड लीबनिज़ ने 1714 में सर्कल के रूप में अनिवार्य रूप से वही तर्क दिया, जब तक यह एक मिल का आकार नहीं था, तब तक मस्तिष्क का विस्तार करने के विचार प्रयोग का उपयोग करते हुए। 1 9 74 में, लॉरेंस डेविस ने लोगों द्वारा कर्मचारियों की टेलीफोन लाइनों और कार्यालयों का उपयोग करके मस्तिष्क को डुप्लिकेट करने की कल्पना की, और 1 9 78 में नेड ब्लॉक ने इस तरह के मस्तिष्क सिमुलेशन में शामिल चीन की पूरी आबादी की कल्पना की। इस विचार प्रयोग को “चीनी राष्ट्र” या “चीनी जिम” कहा जाता है। नेड ब्लॉक ने अपने ब्लॉकहेड तर्क का भी प्रस्ताव दिया, जो चीनी कमरे का एक संस्करण है जिसमें कार्यक्रम को “इसे देखें, ऐसा करें” फ़ॉर्म के नियमों के एक साधारण सेट में फिर से पहचाना गया है, कार्यक्रम से सभी रहस्यों को हटा रहा है।

चीनी कमरे के जवाब
चीनी कमरे के जवाब कई अलग-अलग बिंदुओं पर जोर देते हैं।

सिस्टम उत्तर और आभासी दिमाग उत्तर: यह उत्तर तर्क देता है कि आदमी, कार्यक्रम, कमरा, और कार्ड समेत प्रणाली, चीनी को समझती है। Searle का दावा है कि कमरे में आदमी एकमात्र चीज है जो संभवतः “दिमाग है” या “समझ” सकता है, लेकिन अन्य असहमत हैं, बहस करते हैं कि एक ही भौतिक जगह में दो दिमाग होने के लिए संभव है, वैसे ही एक कंप्यूटर एक साथ दो मशीनों को “एक साथ” बना सकता है: एक भौतिक (मैकिंटोश की तरह) और एक “आभासी” (एक शब्द प्रोसेसर की तरह)।
गति, शक्ति और जटिलता उत्तर: कई आलोचकों का कहना है कि कमरे में आदमी शायद एक साधारण प्रश्न का जवाब देने के लिए लाखों साल लगेंगे, और खगोलीय अनुपात के “फाइलिंग अलमारियाँ” की आवश्यकता होगी। इससे सियर के अंतर्ज्ञान को संदेह में स्पष्टता मिलती है।
रोबोट उत्तर: वास्तव में समझने के लिए, कुछ मानते हैं कि चीनी कक्ष को आंखों और हाथों की आवश्यकता है। हंस मोरावेक लिखते हैं: ‘अगर हम किसी तर्क कार्यक्रम के लिए रोबोट तैयार कर सकते हैं, तो हमें अब अर्थ प्रदान करने के लिए किसी व्यक्ति की आवश्यकता नहीं होगी: यह भौतिक संसार से आएगा। ”
मस्तिष्क सिम्युलेटर उत्तर: क्या होगा यदि कार्यक्रम वास्तविक चीनी स्पीकर के वास्तविक मस्तिष्क के synapses पर तंत्रिका firings के अनुक्रम अनुकरण करता है? कमरे में आदमी एक वास्तविक मस्तिष्क अनुकरण करेगा। यह “सिस्टम उत्तर” पर एक भिन्नता है जो अधिक व्यावहारिक प्रतीत होता है क्योंकि “सिस्टम” अब मानव मस्तिष्क की तरह स्पष्ट रूप से संचालित होता है, जो अंतर्ज्ञान को मजबूत करता है कि उस कमरे में आदमी के अलावा कुछ है जो चीनी समझ सकता है।
अन्य दिमाग जवाब और epiphenomena जवाब: कई लोगों ने ध्यान दिया है कि Searle का तर्क मशीनों पर लागू अन्य दिमाग की समस्या का एक संस्करण है। चूंकि यह तय करना मुश्किल है कि लोग “वास्तव में” सोच रहे हैं, हमें आश्चर्य नहीं होना चाहिए कि मशीनों के बारे में एक ही सवाल का जवाब देना मुश्किल है।

एक तरह की गणना सोच रहा है?
दिमाग के कम्प्यूटेशनल सिद्धांत या “कम्प्यूटेशनलिज्म” का दावा है कि एक चल रहे कार्यक्रम और कंप्यूटर के बीच संबंधों के लिए दिमाग और मस्तिष्क के बीच संबंध समान (यदि समान नहीं है) समान है। इस विचार में हॉब्स में दार्शनिक जड़ें हैं (जिन्होंने दावा किया था कि “गणना के मुकाबले कुछ और नहीं”), लिबनिज़ (जिन्होंने सभी मानवीय विचारों का तार्किक गणक बनाने का प्रयास किया), ह्यूम (जिन्होंने सोचा था कि धारणा को “परमाणु इंप्रेशन” तक कम किया जा सकता है) यहां तक ​​कि कंट (औपचारिक नियमों द्वारा नियंत्रित सभी अनुभवों का विश्लेषण किया)। नवीनतम संस्करण दार्शनिक हिलेरी पुट्टम और जैरी फोडर से जुड़ा हुआ है।

यह प्रश्न हमारे पिछले प्रश्नों पर भालू है: यदि मानव मस्तिष्क एक प्रकार का कंप्यूटर है तो कंप्यूटर बुद्धिमान और जागरूक दोनों हो सकते हैं, एआई के व्यावहारिक और दार्शनिक दोनों सवालों का जवाब दे सकते हैं। एआई के व्यावहारिक प्रश्न के संदर्भ में (“क्या मशीन एक सामान्य डिस्प्ले प्रदर्शित कर सकती है?”), कम्प्यूटेशनलिज्म के कुछ संस्करण दावा करते हैं कि (जैसे हॉब्स ने लिखा था):

तर्क कुछ भी नहीं बल्कि गणना है
दूसरे शब्दों में, हमारी बुद्धि गणित के समान गणना के रूप से प्राप्त होती है। यह ऊपर वर्णित भौतिक प्रतीक प्रणाली परिकल्पना है, और इसका तात्पर्य है कि कृत्रिम बुद्धि संभव है। एआई के दार्शनिक प्रश्न के संदर्भ में (“क्या मशीन में दिमाग, मानसिक अवस्था और चेतना हो सकती है?”), कम्प्यूटेशनलवाद के अधिकांश संस्करण दावा करते हैं कि (जैसे स्टीवन हरनाद इसे चित्रित करते हैं):

मानसिक राज्य केवल (दाएं) कंप्यूटर प्रोग्राम के कार्यान्वयन हैं
यह जॉन सरेल की “मजबूत एआई” ऊपर चर्चा की गई है, और यह चीनी कमरे के तर्क का वास्तविक लक्ष्य है (हरनाद के अनुसार)।

अन्य संबंधित प्रश्न
एलन ट्यूरिंग ने नोट किया कि “मशीन कभी एक्स नहीं करेगी” फॉर्म के कई तर्क हैं, जहां एक्स कई चीजें हो सकती हैं, जैसे कि:

दयालु, संसाधनपूर्ण, सुंदर, मित्रवत, पहल करें, हास्य की भावना है, गलत से सही बताएं, गलतियां करें, प्यार में पड़ें, स्ट्रॉबेरी और क्रीम का आनंद लें, किसी को इसके साथ प्यार में पड़ें, अनुभव से सीखें, शब्दों का सही ढंग से उपयोग करें , अपने विचारों का विषय बनें, एक आदमी के रूप में व्यवहार की विविधता है, वास्तव में कुछ नया करें।

क्या मशीन में भावनाएं हो सकती हैं?
यदि “भावनाएं” केवल व्यवहार पर उनके प्रभाव के संदर्भ में या किसी जीव के अंदर कार्य करने के तरीके के रूप में परिभाषित की जाती हैं, तो भावनाओं को एक तंत्र के रूप में देखा जा सकता है जो एक बुद्धिमान एजेंट अपने कार्यों की उपयोगिता को अधिकतम करने के लिए उपयोग करता है। भावना की इस परिभाषा को देखते हुए, हंस मोरावेक का मानना ​​है कि “सामान्य रूप से रोबोट अच्छे लोगों के बारे में काफी भावनात्मक होंगे”। भय तात्कालिकता का स्रोत है। सहानुभूति अच्छी मानव कंप्यूटर बातचीत का एक आवश्यक घटक है। वह कहते हैं कि रोबोट “आपको स्पष्ट रूप से निःस्वार्थ तरीके से खुश करने की कोशिश करेंगे क्योंकि यह इस सकारात्मक सुदृढ़ीकरण से रोमांच प्राप्त करेगा। आप इसे एक तरह के प्यार के रूप में समझ सकते हैं।” डैनियल क्रेवियर लिखते हैं, “मोरावेक का मुद्दा यह है कि भावनाएं केवल एक प्रजाति के व्यवहार के लिए फायदेमंद दिशा में व्यवहार करने के लिए उपकरण हैं।”

हालांकि, भावनाओं को उनकी व्यक्तिपरक गुणवत्ता के संदर्भ में भी परिभाषित किया जा सकता है, जो कि भावनाओं की तरह लगता है। सवाल यह है कि मशीन वास्तव में भावना महसूस करती है, या क्या यह केवल कार्य करता है जैसे कि यह भावना महसूस कर रहा है दार्शनिक सवाल है, “क्या एक मशीन सचेत हो सकती है?” एक और रूप में।

क्या एक मशीन स्वयं जागरूक हो सकती है?
जैसा ऊपर बताया गया है, “स्वयं जागरूकता” कभी-कभी विज्ञान कथा लेखकों द्वारा आवश्यक मानव संपत्ति के नाम के रूप में उपयोग की जाती है जो एक चरित्र को पूरी तरह मानव बनाती है। ट्यूरिंग मनुष्यों के सभी अन्य गुणों को दूर करता है और सवाल को कम करता है “क्या कोई मशीन अपने विचार का विषय हो सकती है?” क्या यह अपने बारे में सोच सकता है? इस तरह से देखा गया है, एक प्रोग्राम लिखा जा सकता है जो एक डीबगर जैसे अपने आंतरिक राज्यों पर रिपोर्ट कर सकता है। हालांकि तर्कसंगत रूप से आत्म-जागरूकता अक्सर थोड़ा अधिक क्षमता मानती है; एक मशीन जो न केवल अपने राज्य के लिए किसी भी तरह से अर्थ का वर्णन कर सकती है, लेकिन ठोस उत्तर के बिना सामान्य पोस्टलेटिंग प्रश्नों में: अब इसके अस्तित्व की प्रासंगिक प्रकृति; यह पिछले राज्यों या भविष्य के लिए योजनाओं, इसकी कार्यप्रणाली की सीमाओं और मूल्यों की तुलना में कैसे तुलना करता है, यह अपने प्रदर्शन को दूसरों के मूल्यवान या तुलना में कैसे समझा जाता है।

क्या मशीन मूल या रचनात्मक हो सकती है?
ट्यूरिंग इस सवाल को कम कर देता है कि कोई मशीन “हमें आश्चर्य से ले सकती है” और तर्क देती है कि यह स्पष्ट रूप से सच है, क्योंकि कोई भी प्रोग्रामर प्रमाणित कर सकता है। उन्होंने नोट किया कि, पर्याप्त भंडारण क्षमता के साथ, कंप्यूटर विभिन्न तरीकों की खगोलीय संख्या में व्यवहार कर सकता है। यह एक कंप्यूटर के लिए भी संभव है, यहां तक ​​कि मामूली, जो नए तरीकों से उन्हें गठबंधन करने के लिए विचारों का प्रतिनिधित्व कर सकता है। (डगलस लेनैट के स्वचालित गणितज्ञ, एक उदाहरण के रूप में, नए गणितीय सत्य खोजने के लिए संयुक्त विचार।)

200 9 में, वेल्स में एबरिस्टविथ विश्वविद्यालय के वैज्ञानिकों और ब्रिटेन के कैम्ब्रिज विश्वविद्यालय ने एडम नामक एक रोबोट बनाया जिसे वे स्वतंत्र रूप से नए वैज्ञानिक निष्कर्षों के साथ आने वाली पहली मशीन मानते हैं। 200 9 में, कॉर्नेल के शोधकर्ताओं ने यूरेका विकसित किया, एक कंप्यूटर प्रोग्राम जो इनपुट किए गए डेटा को फिट करने के लिए सूत्रों को बाहर निकाला जाता है, जैसे कि पेंडुलम की गति से गति के नियमों को ढूंढना।

क्या मशीन उदार या शत्रु हो सकती है?
यह प्रश्न (कृत्रिम बुद्धि के दर्शन में कई अन्य लोगों की तरह) को दो रूपों में प्रस्तुत किया जा सकता है। “शत्रुता” को कार्य या व्यवहार के संदर्भ में परिभाषित किया जा सकता है, जिस स्थिति में “शत्रुतापूर्ण” “खतरनाक” का पर्याय बन जाता है। या इसे मंशा के संदर्भ में परिभाषित किया जा सकता है: क्या मशीन “जानबूझकर” नुकसान पहुंचा सकती है? उत्तरार्द्ध सवाल है “क्या एक मशीन में सचेत राज्य हो सकते हैं?” (जैसे इरादे) किसी अन्य रूप में।

सवाल यह है कि क्या बेहद बुद्धिमान और पूरी तरह से स्वायत्त मशीनें खतरनाक होंगी, भविष्यवाणियों (जैसे सिंगुल्युलिटी इंस्टीट्यूट) द्वारा विस्तार से जांच की गई है। (नाटक के स्पष्ट तत्व ने विज्ञान कथा में विषय को लोकप्रिय बना दिया है, जिसने कई अलग-अलग संभावित परिदृश्यों पर विचार किया है जहां बुद्धिमान मशीनें मानव जाति के लिए खतरा पैदा करती हैं।)

एक मुद्दा यह है कि मशीन स्वायत्तता और खुफिया जानकारी को बहुत जल्दी खतरनाक होने की आवश्यकता हो सकती है। वर्नर विंग ने सुझाव दिया है कि कुछ ही वर्षों में, कंप्यूटर अचानक इंसानों की तुलना में हजारों या लाखों बुद्धिमान बन जाएंगे। वह इसे “एकवचन” कहते हैं। वह सुझाव देता है कि यह मनुष्यों के लिए कुछ हद तक या संभवतः बहुत खतरनाक हो सकता है। इस पर एकवचनवादवाद नामक एक दर्शन द्वारा चर्चा की जाती है।

कुछ विशेषज्ञों और शिक्षाविदों ने सैन्य युद्ध के लिए रोबोटों के उपयोग पर सवाल उठाया है, खासकर जब ऐसे रोबोटों को स्वायत्त कार्यों की कुछ डिग्री दी जाती है। अमेरिकी नौसेना ने एक रिपोर्ट को वित्त पोषित किया है जो इंगित करता है कि सैन्य रोबोट अधिक जटिल हो जाते हैं, स्वायत्त निर्णय लेने की उनकी क्षमता के प्रभावों पर अधिक ध्यान देना चाहिए।

आर्टिफिशियल इंटेलिजेंस के एडवांसमेंट के लिए एसोसिएशन के अध्यक्ष ने इस मुद्दे को देखने के लिए एक अध्ययन शुरू किया है। वे भाषा अधिग्रहण डिवाइस जैसे कार्यक्रमों को इंगित करते हैं जो मानव बातचीत का अनुकरण कर सकते हैं।

कुछ ने “फ्रेंडली एआई” बनाने की आवश्यकता का सुझाव दिया है, जिसका अर्थ है कि एआई के साथ पहले से होने वाली प्रगति में एआई को आंतरिक रूप से अनुकूल और मानवीय बनाने का प्रयास भी शामिल होना चाहिए।

क्या एक मशीन में आत्मा हो सकती है?
अंत में, जो आत्मा के अस्तित्व में विश्वास करते हैं, वे तर्क दे सकते हैं कि “सोच मनुष्य की अमर आत्मा का कार्य है।” एलन ट्यूरिंग ने इसे “धार्मिक आपत्ति” कहा। वह लिखता है

ऐसी मशीनों को बनाने की कोशिश में हमें आत्माओं को बनाने की अपनी शक्ति को अपरिवर्तनीय रूप से उपयोग नहीं करना चाहिए, हम बच्चों की प्रजनन में कहीं अधिक हैं: बल्कि हम किसी भी मामले में, उनकी इच्छा के साधनों को आत्माओं के लिए मकान प्रदान करते हैं जो वह बनाता है।

दर्शन की भूमिका पर विचार
कुछ विद्वानों का तर्क है कि एआई समुदाय का दर्शन का बर्खास्तगी हानिकारक है। दर्शनशास्त्र के स्टैनफोर्ड विश्वकोष में, कुछ दार्शनिकों का तर्क है कि एआई में दर्शन की भूमिका को कम किया जाता है। भौतिक विज्ञानी डेविड Deutsch का तर्क है कि दर्शन या इसकी अवधारणाओं को समझने के बिना, एआई विकास प्रगति की कमी से ग्रस्त होगा।

ग्रंथसूची और सम्मेलन
इस विषय पर मुख्य ग्रंथसूची, कई उप-वर्गों के साथ फिलिपर्स

पर है, इस मुद्दे पर मुख्य सम्मेलन श्रृंखला “फिलॉसफी और थ्योरी ऑफ एआई” (पीटीआई-एआई) है, जो विन्सेंट सी। मुलर द्वारा संचालित है।