कृत्रिम बुद्धि की नैतिकता

कृत्रिम बुद्धि की नैतिकता रोबोट और अन्य कृत्रिम बुद्धिमान प्राणियों के लिए विशिष्ट तकनीक के नैतिकता का हिस्सा है। यह आमतौर पर रोबोटैथिक्स में विभाजित होता है, जो इंसानों के नैतिक व्यवहार के साथ एक चिंता है क्योंकि वे कृत्रिम बुद्धिमान प्राणियों, और मशीन नैतिकता का डिजाइन, निर्माण, उपयोग और उपचार करते हैं, जो कृत्रिम नैतिक एजेंटों (एएमए) के नैतिक व्यवहार से संबंधित हैं।

रोबोट नैतिकता
“रोबोट नैतिकता” शब्द (कभी-कभी “रोबोटैथिक्स”) मानवता को कैसे डिजाइन, निर्माण, उपयोग और रोबोट और अन्य कृत्रिम बुद्धिमान प्राणियों का इलाज करने की नैतिकता को संदर्भित करता है। यह मनुष्यों को नुकसान पहुंचाने के लिए कृत्रिम रूप से बुद्धिमान प्राणियों का उपयोग कैसे किया जा सकता है और मनुष्यों के लाभ के लिए उनका उपयोग कैसे किया जा सकता है।

रोबोट अधिकार
“रोबोट अधिकार” यह अवधारणा है कि लोगों को मानवाधिकारों या पशु अधिकारों के समान, उनकी मशीनों के प्रति नैतिक दायित्व होना चाहिए। यह सुझाव दिया गया है कि रोबोट अधिकार, जैसे अस्तित्व का अधिकार और अपना मिशन करने के लिए, समाज से पहले मानव कर्तव्यों के मानवाधिकारों को जोड़ने के समानता के अनुसार, मानव की सेवा के लिए रोबोट कर्तव्य से जोड़ा जा सकता है। इनमें कानून से पहले जीवन और स्वतंत्रता, विचार की स्वतंत्रता और अभिव्यक्ति और समानता का अधिकार शामिल हो सकता है। इस मुद्दे पर संस्थान फॉर फ्यूचर और ब्रिटेन और व्यापार और उद्योग विभाग द्वारा विचार किया गया है।

विशेषज्ञ असहमत हैं कि दूरस्थ भविष्य में विशिष्ट और विस्तृत कानूनों की जल्द या सुरक्षित आवश्यकता होगी या नहीं। ग्लेन मैक्जी ने बताया कि 2020 तक पर्याप्त humanoid रोबोट दिखाई दे सकते हैं। रे Kurzweil 2029 में तारीख निर्धारित करता है। 2007 में वैज्ञानिकों के एक और समूह ने माना कि कम से कम 50 साल किसी भी पर्याप्त उन्नत प्रणाली मौजूद होने से पहले पारित किया जाना था।

2003 लोबनेर पुरस्कार प्रतियोगिता के नियमों ने रोबोटों के अपने अधिकार रखने की संभावना की कल्पना की:

61. यदि किसी भी वर्ष में, सरे विश्वविद्यालय या कैम्ब्रिज सेंटर द्वारा दर्ज सार्वजनिक रूप से उपलब्ध ओपन सोर्स एंट्री रजत पदक या स्वर्ण पदक जीतता है, तो पदक और नकद पुरस्कार को जिम्मेदार निकाय को दिया जाएगा उस प्रविष्टि का विकास। यदि इस तरह के किसी भी निकाय की पहचान नहीं की जा सकती है, या यदि दो या दो से अधिक दावेदारों के बीच असहमति है, तो पदक और नकद पुरस्कार ट्रस्ट में तब तक आयोजित किया जाएगा जब तक कि प्रवेश कानूनी रूप से अधिकार न हो, या तो संयुक्त राज्य अमेरिका में या प्रतियोगिता का स्थान, नकद पुरस्कार और स्वर्ण पदक अपने अधिकार में।

अक्टूबर 2017 में, एंड्रॉइड सोफिया को सऊदी अरब में नागरिकता दी गई थी, हालांकि कुछ पर्यवेक्षकों को यह एक सार्थक कानूनी मान्यता से अधिक प्रचार स्टंट के रूप में पाया गया था।

मानव गरिमा के लिए खतरा
जोसेफ वेज़ेनबाम ने 1 9 76 में तर्क दिया कि एआई प्रौद्योगिकी का उपयोग ऐसे लोगों में बदलने के लिए नहीं किया जाना चाहिए जिनके लिए सम्मान और देखभाल की आवश्यकता होती है, जैसे इनमें से कोई भी:

एक ग्राहक सेवा प्रतिनिधि (एआई प्रौद्योगिकी पहले से ही टेलीफोन आधारित इंटरएक्टिव वॉयस प्रतिक्रिया प्रणाली के लिए उपयोग किया जाता है)
एक चिकित्सक (जैसा कि 1 9 70 के दशक में केनेथ कोल्बी द्वारा प्रस्तावित किया गया था)
बुजुर्गों के लिए एक नर्समेड (जैसा कि पामेला मैककॉर्ड द्वारा उनकी पुस्तक द फिफ्थ जेनरेशन में रिपोर्ट किया गया था)
एक सैनिक
एक जज
एक पुलिस अधिकारी

Weizenbaum बताता है कि हमें इन पदों में लोगों से सहानुभूति की प्रामाणिक भावनाओं की आवश्यकता है। यदि मशीनें उन्हें प्रतिस्थापित करती हैं, तो हम खुद को अलगाव, विचलित और निराश पाएंगे। कृत्रिम बुद्धि, अगर इस तरह प्रयोग की जाती है, तो मानव गरिमा के लिए खतरा दर्शाती है। Weizenbaum का तर्क है कि हम इन पदों में मशीनों की संभावना का मनोरंजन कर रहे हैं, यह बताता है कि हमने “मानव भावना का विरोध किया है जो खुद को कंप्यूटर के रूप में सोचने से आता है।”

पामेला मैककॉर्डक काउंटर, जो महिलाओं और अल्पसंख्यकों के लिए बोलते हैं, “मैं एक निष्पक्ष कंप्यूटर के साथ अपनी संभावनाओं को लेना चाहता हूं,” यह बताते हुए कि ऐसी स्थितियां हैं जहां हम स्वचालित न्यायाधीशों और पुलिस को पसंद करते हैं जिनके पास व्यक्तिगत एजेंडा नहीं है। एआई संस्थापक जॉन मैककार्थी वेज़ेनबाम की आलोचना के नैतिक स्वर के लिए ऑब्जेक्ट करते हैं। “जब नैतिकता दोनों झुकाव और अस्पष्ट है, तो यह सत्तावादी दुर्व्यवहार को आमंत्रित करता है,” वह लिखते हैं।

बिल हिब्बार्ड लिखते हैं कि “मानव गरिमा के लिए आवश्यक है कि हम अस्तित्व की प्रकृति की हमारी अज्ञानता को दूर करने का प्रयास करें, और उस प्रयास के लिए एआई आवश्यक है।”

पारदर्शिता और खुला स्रोत
बिल हिब्बार्ड का तर्क है कि एआई के मानवता पर इतना गहरा असर होगा, एआई डेवलपर्स भविष्य में मानवता के प्रतिनिधि हैं और इस प्रकार उनके प्रयासों में पारदर्शी होने के लिए नैतिक दायित्व है। बेन गोर्टज़ेल और डेविड हार्ट ने एआई विकास के लिए ओपनकॉग को ओपन सोर्स फ्रेमवर्क के रूप में बनाया। ओपनएआई एक गैर-लाभकारी एआई शोध कंपनी है जो एलोन मस्क, सैम अल्टमैन और अन्य द्वारा बनाई गई है, जो ओपन सोर्स एआई को मानवता के लिए फायदेमंद विकसित करती है। कई अन्य खुले स्रोत एआई विकास हैं।

कृत्रिम बुद्धि का हथियार
कुछ विशेषज्ञों और शिक्षाविदों ने सैन्य युद्ध के लिए रोबोटों के उपयोग पर सवाल उठाया है, खासकर जब ऐसे रोबोटों को स्वायत्त कार्यों की कुछ डिग्री दी जाती है। अमेरिकी नौसेना ने एक रिपोर्ट को वित्त पोषित किया है जो इंगित करता है कि सैन्य रोबोट अधिक जटिल हो जाते हैं, स्वायत्त निर्णय लेने की उनकी क्षमता के प्रभावों पर अधिक ध्यान देना चाहिए। एक शोधकर्ता का कहना है कि स्वायत्त रोबोट अधिक मानवीय हो सकते हैं, क्योंकि वे निर्णय अधिक प्रभावी ढंग से कर सकते हैं।

पिछले दशक के भीतर, स्वायत्त शक्ति में गहन शोध किया गया है जिसमें असाइन किए गए नैतिक जिम्मेदारियों का उपयोग करके सीखने की क्षमता है। “रोबोटों को जिम्मेदारी सौंपने के लिए अवांछित प्रवृत्तियों को नियंत्रित करने के लिए भविष्य के सैन्य रोबोटों को डिजाइन करते समय परिणाम का उपयोग किया जा सकता है।” एक परिणामी विचार से, एक मौका है कि रोबोट किसके मारने के लिए अपने तर्कसंगत निर्णय लेने की क्षमता विकसित करेंगे और यही वजह है कि एआई एक ओवरराइड नहीं हो सकता है।

कृत्रिम बुद्धिमान हथियार के इंजीनियरिंग के संबंध में हाल ही में एक चिल्लाहट हुई है जिसमें मानव जाति के रोबोट अधिग्रहण के विचार शामिल हैं। एआई हथियार मानव-नियंत्रित हथियार से अलग प्रकार के खतरे को अलग करते हैं। कई सरकारों ने एआई हथियार विकसित करने के लिए कार्यक्रमों को निधि देना शुरू कर दिया है। संयुक्त राज्य अमेरिका नेवी ने हाल ही में स्वायत्त ड्रोन हथियारों को विकसित करने की योजना की घोषणा की, क्रमश: रूस और कोरिया द्वारा इसी तरह की घोषणाओं के समानांतर। एआई हथियार मानव संचालित हथियारों की तुलना में अधिक खतरनाक होने की संभावना के कारण, स्टीफन हॉकिंग और मैक्स टेगमार्क ने एआई हथियारों पर प्रतिबंध लगाने के लिए “भविष्य का जीवन” याचिका पर हस्ताक्षर किए। हॉकिंग और टेगमार्क द्वारा पोस्ट किए गए संदेश में कहा गया है कि एआई हथियारों को तत्काल खतरा पैदा हुआ है और निकट भविष्य में विनाशकारी आपदाओं से बचने के लिए कार्रवाई की आवश्यकता है।

याचिका में कहा गया है, “यदि कोई प्रमुख सैन्य शक्ति एआई हथियार विकास के साथ आगे बढ़ती है, तो वैश्विक हथियार दौड़ लगभग अनिवार्य है, और इस तकनीकी प्रक्षेपवक्र का अंत बिंदु स्पष्ट है: स्वायत्त हथियार कल का कलशिकोवोव बन जाएगा”, याचिका में कहा गया है, जिसमें स्काइप सह -फाउंडर जान टालिन और भाषा विज्ञान के एमआईटी प्रोफेसर नोएम चॉम्स्की एआई हथियार के खिलाफ अतिरिक्त समर्थकों के रूप में।

भौतिक विज्ञानी और खगोलविद रॉयल सर मार्टिन रीस ने विनाशकारी उदाहरणों की चेतावनी दी है जैसे “बेवकूफ रोबोट दुष्ट हो रहे हैं या एक नेटवर्क जो स्वयं के दिमाग को विकसित करता है।” कैम्ब्रिज में रीस के एक सहयोगी हू प्राइस ने इसी तरह की चेतावनी दी है कि इंटेलिजेंस “जीवविज्ञान की बाधाओं से बचने पर इंसान जीवित नहीं रह सकता है।” इन दो प्रोफेसरों ने मानव अस्तित्व के लिए इस खतरे से बचने की उम्मीद में कैम्ब्रिज विश्वविद्यालय में मौजूदा जोखिम के अध्ययन के लिए केंद्र बनाया।

मानव से अधिक मानव प्रणालियों को सैन्य रूप से नियोजित करने की संभावना के बारे में, ओपन फिलैथ्रॉपी प्रोजेक्ट लिखता है कि ये परिदृश्य “नियंत्रण के नुकसान से संबंधित जोखिमों के रूप में संभावित रूप से महत्वपूर्ण प्रतीत होते हैं”, लेकिन एआई के दीर्घकालिक सामाजिक प्रभाव की जांच करने वाले शोध संगठनों के पास इस चिंता पर अपेक्षाकृत कम समय बिताया: “परिदृश्यों का यह वर्ग संगठनों के लिए एक प्रमुख फोकस नहीं रहा है जो इस जगह में सबसे सक्रिय हैं, जैसे कि मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट (एमआईआरआई) और फ्यूचर ऑफ ह्यूमैनिटी इंस्टीट्यूट (एफएचआई) , और ऐसा लगता है कि उनके बारे में कम विश्लेषण और बहस हुई है “।

मशीन नैतिकता
मशीन नैतिकता (या मशीन नैतिकता) कृत्रिम नैतिक एजेंटों (एएमए), रोबोट या कृत्रिम बुद्धिमान कंप्यूटरों को डिजाइन करने के साथ संबंधित अनुसंधान का क्षेत्र है जो नैतिक रूप से या नैतिक व्यवहार करते हैं।

इसहाक असिमोव ने 1 9 50 के दशक में अपने आई, रोबोट में इस मुद्दे पर विचार किया था। अपने संपादक जॉन डब्ल्यू कैंपबेल जूनियर के आग्रह पर, उन्होंने कृत्रिम बुद्धिमान प्रणालियों को नियंत्रित करने के लिए रोबोटिक्स के तीन कानूनों का प्रस्ताव दिया। उसके अधिकांश कामों को उसके तीन कानूनों की सीमाओं का परीक्षण करने के लिए खर्च किया गया ताकि यह देखने के लिए कि वे कहां टूट जाएंगे, या जहां वे विरोधाभासी या अप्रत्याशित व्यवहार करेंगे। उनके कार्य से पता चलता है कि निश्चित कानूनों का कोई भी सेट संभवतः सभी संभावित परिस्थितियों की उम्मीद नहीं कर सकता है।

200 9 में, स्विट्ज़रलैंड में लॉज़ेन के इकोले पॉलीटेक्निक फेडेरेल में इंटेलिजेंट सिस्टम्स के प्रयोगशाला में एक प्रयोग के दौरान, रोबोट जिन्हें एक-दूसरे के साथ सहयोग करने के लिए प्रोग्राम किया गया था (एक फायदेमंद संसाधन खोजने और एक जहरीले से परहेज करने में) अंततः प्रत्येक से झूठ बोलना सीखा अन्य लाभकारी संसाधन जमा करने के प्रयास में। इस मामले में एक समस्या यह हो सकती है कि लक्ष्य “टर्मिनल” थे (यानी इसके विपरीत, परम मानव उद्देश्यों में आम तौर पर कभी खत्म होने वाली शिक्षा की आवश्यकता होती है)।

कुछ विशेषज्ञों और शिक्षाविदों ने सैन्य युद्ध के लिए रोबोटों के उपयोग पर सवाल उठाया है, खासकर जब ऐसे रोबोटों को स्वायत्त कार्यों की कुछ डिग्री दी जाती है। अमेरिकी नौसेना ने एक रिपोर्ट को वित्त पोषित किया है जो इंगित करता है कि सैन्य रोबोट अधिक जटिल हो जाते हैं, स्वायत्त निर्णय लेने की उनकी क्षमता के प्रभावों पर अधिक ध्यान देना चाहिए। आर्टिफिशियल इंटेलिजेंस के एडवांसमेंट के लिए एसोसिएशन के अध्यक्ष ने इस मुद्दे को देखने के लिए एक अध्ययन शुरू किया है। वे भाषा अधिग्रहण डिवाइस जैसे कार्यक्रमों को इंगित करते हैं जो मानव बातचीत का अनुकरण कर सकते हैं।

वर्नर विंग ने सुझाव दिया है कि कुछ क्षण आ सकते हैं जब कुछ कंप्यूटर इंसानों से ज्यादा चालाक होते हैं। वह इसे “एकवचन” कहते हैं। वह सुझाव देता है कि यह मनुष्यों के लिए कुछ हद तक या संभवतः बहुत खतरनाक हो सकता है। इस पर एकवचनवादवाद नामक एक दर्शन द्वारा चर्चा की जाती है। मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट ने “फ्रेंडली एआई” बनाने की आवश्यकता का सुझाव दिया है, जिसका अर्थ है कि एआई के साथ पहले से होने वाली प्रगति में एआई को आंतरिक रूप से अनुकूल और मानवीय बनाने का प्रयास भी शामिल होना चाहिए।

200 9 में, अकादमिक और तकनीकी विशेषज्ञों ने एसोसिएशन फॉर द एडवांसमेंट ऑफ आर्टिफिशियल इंटेलिजेंस द्वारा आयोजित रोबोट और कंप्यूटर के संभावित प्रभाव पर चर्चा करने के लिए आयोजित किया और अनुमानित संभावना के प्रभाव पर प्रभाव डाला कि वे आत्मनिर्भर हो सकते हैं और अपने निर्णय लेने में सक्षम हो सकते हैं । उन्होंने संभावना और सीमा तक चर्चा की कि किस कंप्यूटर और रोबोट स्वायत्तता के किसी भी स्तर को हासिल करने में सक्षम हो सकते हैं, और संभवतः वे किस तरह की क्षमताओं का उपयोग कर सकते हैं ताकि संभवतः किसी भी खतरे या खतरे को जन्म दिया जा सके। उन्होंने नोट किया कि कुछ मशीनों ने अर्द्ध स्वायत्तता के विभिन्न रूपों का अधिग्रहण किया है, जिसमें स्वयं के लिए बिजली स्रोत ढूंढने और हथियार के साथ हमला करने के लिए स्वतंत्र रूप से लक्ष्य चुनने में सक्षम होना शामिल है। उन्होंने यह भी ध्यान दिया कि कुछ कंप्यूटर वायरस उन्मूलन से बच सकते हैं और “तिलचट्टा खुफिया” हासिल कर सकते हैं। उन्होंने ध्यान दिया कि विज्ञान-कथा में चित्रित आत्म-जागरूकता शायद असंभव है, लेकिन अन्य संभावित खतरे और नुकसान भी थे।

हालांकि, विशेष रूप से एक तकनीक है जो वास्तव में वास्तविकता के लिए नैतिक क्षमता के साथ रोबोटों की संभावना ला सकती है। रोबोटों द्वारा नैतिक मूल्यों के अधिग्रहण पर एक पेपर में, नयफ अल-रोहन ने न्यूरोमोर्फिक चिप्स के मामले का उल्लेख किया है, जिसका लक्ष्य इंसानों के समान जानकारी, गैर-लाइनरी और लाखों अंतःस्थापित कृत्रिम न्यूरॉन्स के साथ करना है। न्यूरोमोर्फिक तकनीक के साथ एम्बेडेड रोबोट एक विशिष्ट मानव तरीके से ज्ञान सीख और विकसित कर सकते हैं। अनिवार्य रूप से, यह पर्यावरण के सवाल को उठाता है जिसमें ऐसे रोबोट दुनिया के बारे में जानेंगे और जिनकी नैतिकता वे उत्तराधिकारी होंगी – या यदि वे मानव ‘कमजोरियों’ को विकसित करते हैं: स्वार्थीता, समर्थक जीवित दृष्टिकोण, हिचकिचाहट इत्यादि।

नैतिक मशीनों में: गलत शिक्षण से रोबोट राइट्स, वेंडेल वालाच और कॉलिन एलन ने निष्कर्ष निकाला है कि गलत तरीके से रोबोटों को सिखाने का प्रयास मानव मानकों की आधुनिक अग्रिम सिद्धांत में अंतराल को संबोधित करने और प्रयोगात्मक जांच के लिए एक मंच प्रदान करके मानव नैतिकता की समझ को आगे बढ़ाएगा। एक उदाहरण के रूप में, इसने मशीनों में उपयोग करने के लिए विशिष्ट शिक्षण एल्गोरिदम के विवादास्पद मुद्दे पर मानक नैतिकता प्रस्तुत की है। निक Bostrom और Eliezer Yudkowsky ने न्यूरल नेटवर्क और आनुवांशिक एल्गोरिदम पर निर्णय पेड़ (जैसे आईडी 3) के लिए तर्क दिया है कि निर्णय पेड़ पारदर्शिता और भविष्यवाणी (जैसे निर्णायकता) के आधुनिक सामाजिक मानदंडों का पालन करते हैं, जबकि क्रिस सैंटोस-लैंग ने विपरीत में तर्क दिया इस आधार पर दिशा कि किसी भी उम्र के मानदंडों को बदलने की अनुमति दी जानी चाहिए और इन विशेष मानदंडों को पूरी तरह से पूरा करने में प्राकृतिक विफलता मनुष्यों को आपराधिक “हैकर” के प्रति कमजोर बनाने में आवश्यक है।

अनायास नतीजे
कई शोधकर्ताओं ने तर्क दिया है कि, 21 वीं शताब्दी में कभी-कभी “खुफिया विस्फोट” के माध्यम से, स्वयं को सुधारने वाला एआई इंसानों की तुलना में इतना शक्तिशाली हो सकता है कि हम इसे अपने लक्ष्यों को प्राप्त करने से नहीं रोक पाएंगे। अपने पेपर “उन्नत आर्टिफिशियल इंटेलिजेंस में नैतिक मुद्दे” में, दार्शनिक निक Bostrom का तर्क है कि कृत्रिम बुद्धि में मानव विलुप्त होने की क्षमता है। उनका दावा है कि सामान्य सुपर-इंटेलिजेंस स्वतंत्र पहल और अपनी योजना बनाने में सक्षम होगा, और इसलिए एक स्वायत्त एजेंट के रूप में अधिक उचित रूप से सोचा जा सकता है। चूंकि कृत्रिम बुद्धि को हमारी मानवीय प्रेरक प्रवृत्तियों को साझा करने की आवश्यकता नहीं है, इसलिए यह सुपर-इंटेलिजेंस के डिजाइनरों पर निर्भर करेगा ताकि वे अपनी मूल प्रेरणा निर्दिष्ट कर सकें। सिद्धांत रूप में, एक सुपर-बुद्धिमान एआई लगभग किसी भी संभावित परिणाम को लाने में सक्षम होगा और अपने शीर्ष लक्ष्य के कार्यान्वयन को रोकने के किसी भी प्रयास को विफल करने में सक्षम होगा, कई अनियंत्रित अनपेक्षित परिणाम उत्पन्न हो सकते हैं। यह अन्य सभी एजेंटों को मार सकता है, उन्हें अपने व्यवहार को बदलने के लिए राजी कर सकता है, या हस्तक्षेप पर अपने प्रयासों को अवरुद्ध कर सकता है।

हालांकि, मानव जाति को जबरदस्त करने और हमारे विनाश की ओर अग्रसर होने के बजाय, Bostrom ने यह भी कहा है कि सुपर-इंटेलिजेंस हमें बीमारी, गरीबी और पर्यावरणीय विनाश जैसी कई कठिन समस्याओं को हल करने में मदद कर सकता है, और हमें खुद को “बढ़ाने” में मदद कर सकता है।

मानव मूल्य प्रणालियों की तीव्र जटिलता एआई की प्रेरणा मानव-अनुकूल बनाने में बहुत मुश्किल बनाती है। जब तक नैतिक दर्शन हमें एक निर्दोष नैतिक सिद्धांत प्रदान नहीं करता है, तो एआई का उपयोगिता कार्य कई संभावित रूप से हानिकारक परिदृश्यों की अनुमति दे सकता है जो किसी दिए गए नैतिक ढांचे के अनुरूप हैं लेकिन “सामान्य ज्ञान” नहीं। एलिएज़र युडकोव्स्की के अनुसार, यह मानने का कोई कारण नहीं है कि कृत्रिम रूप से डिज़ाइन किए गए दिमाग में ऐसा अनुकूलन होगा।

बिल हिब्बार्ड एक एआई डिज़ाइन का प्रस्ताव करता है जो कई प्रकार के अनजान एआई व्यवहार से बचाता है जिसमें स्वयं भ्रम, अनजान वाद्ययंत्र क्रियाएं और इनाम जनरेटर का भ्रष्टाचार शामिल है।

संगठन
अमेज़ॅन, Google, फेसबुक, आईबीएम, और माइक्रोसॉफ्ट ने कृत्रिम खुफिया प्रौद्योगिकियों पर सर्वोत्तम प्रथाओं को तैयार करने, जनता की समझ को आगे बढ़ाने और कृत्रिम बुद्धि के बारे में एक मंच के रूप में कार्य करने के लिए एक गैर-लाभकारी साझेदारी की स्थापना की है। उन्होंने कहा: “एआई पर यह साझेदारी अनुसंधान आयोजित करेगी, चर्चा आयोजित करेगी, विचारधारा प्रदान करेगी, प्रासंगिक तृतीय पक्षों से परामर्श करेगी, जनता और मीडिया से प्रश्नों का उत्तर देगी, और शैक्षणिक सामग्री तैयार करेगी जो एआई प्रौद्योगिकियों की समझ को आगे बढ़ाएगी जिसमें मशीन धारणा, सीखना , और स्वचालित तर्क। ” जनवरी 2017 में ऐप्पल पर साझेदारी के संस्थापक सदस्य के रूप में ऐप्पल अन्य तकनीकी कंपनियों में शामिल हो गया। कॉर्पोरेट सदस्य समूह में शिक्षा और शिक्षा में योगदान देंगे, जबकि वैज्ञानिक समुदाय के साथ बोर्ड में शिक्षाविदों को लाने के लिए शामिल होंगे।

कथा में
फिल्म तेरहवां तल एक भविष्य का सुझाव देती है जहां मनोरंजन के उद्देश्य के लिए संवेदनशील गेम के साथ नकली दुनिया कंप्यूटर गेम कंसोल द्वारा बनाई गई है। फिल्म द मैट्रिक्स एक भविष्य का सुझाव देती है जहां ग्रह पृथ्वी पर प्रमुख प्रजातियां संवेदनशील मशीनें हैं और मानवता का अत्यंत प्रजातिवाद माना जाता है। छोटी कहानी “द प्लेक डाइव” एक भविष्य का सुझाव देती है जहां मानवता स्वयं को सॉफ्टवेयर में बदल गई है जिसे डुप्लिकेट और अनुकूलित किया जा सकता है और सॉफ्टवेयर के प्रकारों के बीच प्रासंगिक भेद संवेदनशील और गैर-संवेदनशील है। स्टारशिप वॉयएजर के आपातकालीन मेडिकल होलोग्राम में भी यही विचार पाया जा सकता है, जो कि अपने निर्माता, डॉ ज़िमर्मन की चेतना के कम सबसेट की एक स्पष्ट रूप से संवेदनशील प्रति है, जो सर्वोत्तम उद्देश्यों के लिए चिकित्सा देने के लिए सिस्टम बना चुका है आपात स्थिति के मामले में सहायता। फिल्म बीसेंटेनियल मैन और एआई उन संवेदनशील रोबोटों की संभावना से निपटती हैं जो प्यार कर सकती हैं। मैं, रोबोट ने असिमोव के तीन कानूनों के कुछ पहलुओं की खोज की। ये सभी परिदृश्य संवेदनशील कंप्यूटरों के निर्माण के संभवतः अनैतिक परिणामों की भविष्यवाणी करने का प्रयास करते हैं।

कृत्रिम बुद्धि की नैतिकता गेम के बायोवेयर की मास इफेक्ट श्रृंखला में कई मूल विषयों में से एक है। यह एक वैश्विक पैमाने पर तंत्रिका नेटवर्क के माध्यम से कम्प्यूटेशनल पावर में तेजी से वृद्धि के माध्यम से गलती से एआई बनाने की सभ्यता के परिदृश्य की पड़ताल करता है। इस घटना ने उन लोगों के बीच नैतिक विवाद पैदा किया जो नए संवेदनशील गेथ पर जैविक अधिकारों को मानने के लिए उपयुक्त थे और जो लोग उन्हें डिस्पोजेबल मशीनरी के रूप में देखना जारी रखते थे और उन्हें नष्ट करने के लिए लड़े थे। प्रारंभिक संघर्ष से परे, मशीनों और उनके रचनाकारों के बीच संबंधों की जटिलता पूरी कहानी में एक और चल रही थीम है।

समय के साथ, बहस ह्यूगो डी गारिस और केविन वारविक द्वारा शुरू की गई “ब्रह्माण्ड” और “टेरेन” बहस में जोर देने के कारण वांछितता पर कम और कम ध्यान केंद्रित करने के लिए प्रतिबद्ध है। ह्यूगो डी गारिस के अनुसार, एक ब्रह्मांड वास्तव में मानव प्रजातियों के लिए अधिक बुद्धिमान उत्तराधिकारी बनाने की मांग कर रहा है।

साहित्य
एआई की नैतिकता पर मानक ग्रंथसूची फिलिपर्स पर है। एक हालिया संग्रह वीसी मुल्लेर (एड।) (2016) है।