فلسفة الذكاء الاصطناعي

للذكاء الاصطناعي صلات وثيقة بالفلسفة لأن كلاهما يتشارك في عدة مفاهيم وتشمل الذكاء والعمل والإدراك ونظرية المعرفة وحتى الإرادة الحرة. علاوة على ذلك ، فإن التكنولوجيا معنية بإنشاء حيوانات اصطناعية أو اصطناعية (أو ، على الأقل ، مخلوقات صناعية) لذا فإن الانضباط هو محل اهتمام كبير للفلاسفة. ساهمت هذه العوامل في ظهور فلسفة الذكاء الاصطناعي. يجادل بعض الباحثين بأن طرد منظمة العفو الدولية للفلسفة أمر ضار.

تحاول فلسفة الذكاء الاصطناعي الإجابة عن الأسئلة التالية على النحو التالي:

هل يمكن للآلة أن تتصرف بذكاء؟ هل يمكن أن يحل أي مشكلة يمكن أن يحلها الشخص بالتفكير؟
هل الذكاء البشري والذكاء الآلي متشابهان؟ هل الدماغ البشري في الأساس كمبيوتر؟
هل يمكن للآلة أن تمتلك عقلاً وحالات ذهنية ووعيًا بنفس الطريقة التي يستطيع بها الإنسان؟ هل يمكن أن تشعر كيف تسير الأمور؟

تعكس هذه الأسئلة الثلاثة المصالح المتباينة لباحثى الذكاء الاصطناعى ، واللغويين ، والعلماء الإدراكيين والفلاسفة على التوالي. تعتمد الإجابات العلمية على هذه الأسئلة على تعريف “الذكاء” و “الوعي” وتحديد أي “الأجهزة” قيد المناقشة.

تتضمن المقترحات الهامة في فلسفة الذكاء الاصطناعى:

“اتفاقية مهذبة” لتورنج: إذا تصرفت الآلة بذكاء كإنسان ، فعندئذ فهي ذكية كإنسان.
اقتراح دارتموث: “يمكن وصف كل جانب من جوانب التعلم أو أي سمة أخرى من سمات الذكاء بدقة تامة بحيث يمكن صنع آلة لمحاكاتها”.
فرضية نظام نيويل وسيمون للرموز الفيزيائية: “يتمتع نظام الرموز الفيزيائية بالوسائل اللازمة والكافية للعمل الذكي العام.”
فرضية الذكاء الاصطناعى القوية ل Searle: “إن الكمبيوتر المبرمج بشكل مناسب مع المدخلات والمخرجات الصحيحة سوف يكون له عقل في نفس المعنى بالضبط لدى البشر عقولهم.”
آلية هوبز: “من أجل” السبب “… ليس إلا” الحساب “، الذي يضيف ويطرح ، من عواقب الأسماء العامة المتفق عليها لـ” التأشير “و” الدلالة “على أفكارنا …”

يمكن للآلة عرض ذكاء عام؟
هل من الممكن إنشاء آلة يمكنها حل جميع المشاكل التي يحلها البشر باستخدام ذكائهم؟ يحدد هذا السؤال نطاق ما يمكن للآلات عمله في المستقبل ويرشد اتجاه أبحاث الذكاء الاصطناعى. يتعلق فقط بسلوك الآلات ويتجاهل القضايا التي تهم علماء النفس والعلماء الفلاسفة والفلاسفة. للإجابة على هذا السؤال ، لا يهم ما إذا كانت الآلة تفكر بالفعل (كما يعتقد الشخص) أم أنها تتصرف مثلما تفكر.

يتم تلخيص الموقف الأساسي لمعظم الباحثين في الذكاء الاصطناعي في هذا البيان ، الذي ظهر في اقتراح ورشة دارتموث لعام 1956:

يمكن وصف كل جانب من جوانب التعلم أو أي سمة أخرى من سمات الذكاء بدقة تامة بحيث يمكن صنع آلة لمحاكاتها.
يجب أن تثبت الحجج ضد الفرضية الأساسية أن بناء نظام الذكاء الاصطناعي الفعال أمر مستحيل ، لأن هناك حدوداً عملية لقدرات الحواسيب أو أن هناك بعض الجودة الخاصة للعقل البشري الضروري للتفكير ومع ذلك لا يمكن تكراره. آلة (أو من خلال أساليب البحث الحالي لمنظمة العفو الدولية). يجب أن تظهر الحجج المؤيدة للفرضية الأساسية أن مثل هذا النظام ممكن.

الخطوة الأولى للإجابة على السؤال هي تحديد “الذكاء” بوضوح.

المخابرات

اختبار تورينج
قلل آلان تورينج من مشكلة تعريف الذكاء إلى سؤال بسيط حول المحادثة. يقترح أنه: إذا كان بإمكان أي آلة الإجابة عن أي سؤال يطرح عليه ، باستخدام نفس الكلمات التي قد يستخدمها شخص عادي ، عندئذ قد نطلق على هذا الجهاز ذكاءً. تستخدم النسخة الحديثة من تصميمه التجريبي غرفة دردشة عبر الإنترنت ، حيث يكون أحد المشاركين شخصًا حقيقيًا ، وأحد المشاركين هو برنامج كمبيوتر. يمرر البرنامج الاختبار إذا لم يستطع أحد معرفة أي من المشاركين اثنين هو الإنسان. يشير تورنج إلى أن لا أحد (باستثناء الفلاسفة) يسأل السؤال “هل يمكن أن يفكر الناس؟” يكتب “بدلاً من الجدال باستمرار حول هذه النقطة ، من المعتاد أن يكون هناك مؤدب مهذب يفكر فيه الجميع”. يوسع اختبار تورينغ هذه الاتفاقية المؤدبة إلى الآلات:

إذا كانت الآلة تعمل بذكاء مثل الإنسان ، فعندئذ تكون ذكية كإنسان.
أحد الانتقادات لاختبار Turing هو أنه مجسم بشكل صريح. إذا كان هدفنا النهائي هو إنشاء آلات أكثر ذكاءً من الناس ، فلماذا يجب أن نصر على أن آلاتنا يجب أن تشبه الناس تقريبًا؟ [هذا الاقتباس يحتاج إلى اقتباس] راسل ونورفيج يكتبان أن “نصوص هندسة الطيران لا تحدد هدف الحقل “صنع الآلات التي تطير تماما مثل الحمام التي يمكن أن تخدع الحمام الأخرى”.

تعريف الوكيل الذكي

تقوم أبحاث الذكاء الاصطناعي الحديثة بتحديد الذكاء من حيث العوامل الذكية. “وكيل” هو شيء يدرك ويتصرف في بيئة. يعرّف “مقياس الأداء” ما يعد نجاحًا للوكيل.

إذا تصرف أحد الوكلاء لتعظيم القيمة المتوقعة لقياس الأداء بناء على الخبرة والمعرفة السابقة ، فهو ذكي.
وتحاول مثل هذه التعاريف التقاط جوهر الذكاء. لديهم ميزة أنه ، على عكس اختبار تورينج ، لا يختبرون أيضًا الصفات البشرية التي قد لا نرغب في اعتبارها ذكية ، مثل القدرة على الإهانة أو إغراء الكذب [مناقشة مشبوهة]. لديهم عيوب أنهم يفشلون في جعل هذا المفهوم [عند تعريفه على أنه “] تمايز بين” الأشياء التي تفكر “و” الأشياء التي لا تفعل “. بهذا التعريف ، حتى منظم الحرارة لديه ذكاء بدائي.

الحجج التي يمكن للآلة عرض الذكاء العام

يمكن محاكاة الدماغ
يصف Hubert Dreyfus هذه الحجة كزعم أنه “إذا كان النظام العصبي يطيع قوانين الفيزياء والكيمياء ، والتي لدينا كل سبب لفرض أنها تفعل ، ثم … نحن … يجب أن نكون قادرين على إعادة إنتاج سلوك الجهاز العصبي مع بعض الأجهزة المادية “. هذه الحجة ، التي قدمت لأول مرة في عام 1943 والتي وصفها هانز مورافيك عام 1988 ، ترتبط الآن بالمستقبل راي كورزويل ، الذي يقدر أن طاقة الكمبيوتر ستكون كافية لمحاكاة دماغية كاملة بحلول عام 2029. غير حقيقي تم تنفيذ محاكاة نموذج المهاد العقلي الذي لديه حجم الدماغ البشري (1011 الخلايا العصبية) في عام 2005 واستغرق 50 يوما لمحاكاة 1 ثانية من ديناميات الدماغ على مجموعة من 27 المعالجات.

يختلف القليل [quantify] عن الاختلاف في إمكانية محاكاة الدماغ من الناحية النظرية ، [وفق من؟] حتى نقاد الذكاء الاصطناعى مثل Hubert Dreyfus و John Searle. ومع ذلك ، يشير سيرل إلى أنه ، من حيث المبدأ ، يمكن محاكاة أي شيء بواسطة جهاز كمبيوتر ؛ وبالتالي ، فإن إدخال التعريف إلى نقطة الانهيار يؤدي إلى استنتاج أن أي عملية على الإطلاق يمكن اعتبارها “حسابًا” تقنيًا. “ما أردنا معرفته هو ما يميز العقل عن منظمات الحرارة والكبد” ، كما يكتب. وهكذا ، فإن مجرد محاكاة عمل الدماغ يكون بحد ذاته اعترافا بالجهل فيما يتعلق بالمعلومات الاستخبارية وطبيعة العقل.

التفكير البشري هو معالجة الرمز
في عام 1963 ، اقترح ألن نيويل وهربرت أيه سيمون أن “التلاعب بالرمز” كان جوهر الذكاء البشري والآلي. كتبوا:

نظام الرمز المادي لديه الوسائل الضرورية والكافية للعمل الذكي العام.
هذا الادعاء قوي للغاية: فهو يشير ضمنا إلى أن التفكير البشري هو نوع من التلاعب بالرمز (لأن نظام الرموز ضروري للذكاء) ، وأن الأجهزة يمكن أن تكون ذكية (لأن نظام الرمز يكفي للذكاء). ووصف الفيلسوف هوبرت دريفوس نسخة أخرى من هذا الموقف ، ووصفها بأنها “الافتراض النفسي”:

يمكن النظر إلى العقل على أنه جهاز يعمل على أجزاء من المعلومات وفقًا للقواعد الرسمية.
عادة ما يتم التمييز [بين من؟] بين نوع الرموز عالية المستوى التي تتوافق مباشرة مع الكائنات في العالم ، مثل و والرموز الأكثر تعقيدًا الموجودة في جهاز مثل الشبكة العصبية. وقد ركزت أبحاث مبكرة على الذكاء الاصطناعي ، يطلق عليها “الذكاء الاصطناعي الجيد القديم” (جون جو هوجلاند) ، على هذا النوع من الرموز عالية المستوى.

الحجج ضد معالجة الرمز
تظهر هذه الحجج أن التفكير البشري لا يتكون (فقط) من التلاعب بالرموز عالية المستوى. إنها لا تُظهر أن الذكاء الاصطناعي مستحيل ، بل يتطلب الأمر أكثر من معالجة الرمز.

حجج Gödelian المضادة للميكانيكية
في عام 1931 ، أثبت كورت جودل مع نظرية غير كاملة أنه من الممكن دائمًا بناء “بيان غودل” بأن نظامًا رسميًا ثابتًا من المنطق (مثل برنامج تلاعب بالرموز عالي المستوى) لا يمكن إثباته. على الرغم من كونه بيانًا صحيحًا ، فإن بيان Gödel الذي تم إنشاؤه غير قابل للحفظ في النظام المعطى. (إن حقيقة بيان Gödel المبني مبنية على تناسق النظام المعطى ؛ فإن تطبيق نفس العملية على نظام غير متناسق بشكل بارئ سيبدو ناجحًا ، لكنه سيؤدي في الواقع إلى “بيان Gödel” زائف بدلاً من ذلك). أن العقل البشري يستطيع بشكل صحيح تحديد حقيقة أو زيف أي بيان رياضي متجذر (بما في ذلك أي بيان Gödel) ، وبالتالي فإن قوة العقل البشري لا يمكن اختزالها إلى الآلية. وقد دافع الفيلسوف جون لوكاس (منذ عام 1961) وروجر بنروز (منذ عام 1989) هذه الحجة الفلسفية المناهضة للميكانيكية. تميل حجج Gödelian المناهضة للميكانيكية إلى الاعتماد على الحجة غير المؤذية الظاهرة بأن نظام علماء الرياضيات البشريين (أو بعض المثالية لعلماء الرياضيات البشريين) متناسق (خالي تمامًا من الخطأ) ويؤمن تمامًا في اتساقه (ويمكن أن يجعل كل شيء منطقيًا). الاستنتاجات التي تتبع من التناسق الخاص بها ، بما في ذلك الاعتقاد في بيان Gödel). هذا مستحيل إلى حد كبير لجهاز تورنج [بحاجة إلى توضيح] (وبتوسيع غير رسمي لأي نوع معروف من الحواسيب الميكانيكية) ؛ لذلك ، يخلص غودليان إلى أن التفكير البشري أكثر قوة من أن يتم القبض عليه في آلة [مشكوك فيه – مناقشة].

ومع ذلك ، فإن الإجماع الحديث في المجتمع العلمي والرياضي هو أن التفكير البشري الفعلي غير متناسق. أن أي “صيغة مثالية” متسقة ستجبر منطقياً على تبني تشكيك منفتح وعاطفي من الناحية النظرية ولكن غير متناغمة حول تناسق H (خلاف ذلك H غير متناسق بشكل متفهم) ؛ وأن نظريات غودل لا تؤدي إلى أي حجة صحيحة مفادها أن البشر لديهم قدرات تفكير رياضية تفوق ما يمكن للآلة أن تتكرر. هذا الإجماع على أن حجج Gödelian المناهضة للميكانيكية محكوم عليها بالفشل تم وضعها بقوة في الذكاء الاصطناعي: “أي محاولة للاستفادة من (نتائج عدم اكتمال Gödel) لمهاجمة الأطروحة الحسابية لا بد أن تكون غير شرعية ، لأن هذه النتائج تتفق تماما مع الحوسبة أطروحة.”

وبصورة أكثر براغماتية ، يشير رسل ونورفيج إلى أن حجة جودل تنطبق فقط على ما يمكن إثباته نظريًا ، نظرًا لمقدار الذاكرة والوقت اللانهائيين. في الممارسة العملية ، فإن الآلات الحقيقية (بما في ذلك البشر) لديها موارد محدودة وستواجه صعوبة في إثبات العديد من النظريات. ليس من الضروري إثبات كل شيء لكي نكون أذكياء [عند تعريفه على أنه “].

بشكل أقل رسمية ، يقول دوغلاس هوفستاتر ، في كتابه الحائز على جائزة بوليتزر Gödel ، أيشر ، باخ: جديلة ذهبية أبدية ، أن هذه “عبارات غودل” تشير دائمًا إلى النظام نفسه ، مما يشير إلى الطريقة التي تستخدم بها مفارقة Epimenides عبارات الرجوع إلى أنفسهم ، مثل “هذا البيان هو كاذب” أو “أنا الكذب”. ولكن ، بالطبع ، تنطبق مفارقة Epimenides على أي شيء يجعل التصريحات ، سواء كانت آلات أو بشر ، حتى لوكاس نفسه. يعتبر:

لا يمكن لوكاس تأكيد حقيقة هذا البيان.
هذا البيان صحيح ولكن لا يمكن تأكيده من قبل لوكاس. هذا يدل على أن لوكاس نفسه يخضع لنفس الحدود التي يصفها للآلات ، مثلها مثل كل الناس ، وبالتالي فإن حجة لوكاس لا معنى لها.

بعد الاستنتاج بأن العقل البشري غير قابل للحساب ، ذهب بينروز إلى تكهنات مثيرة للجدل بأن نوعًا من العمليات الافتراضية غير القابلة للحساب التي تنطوي على انهيار الحالات الميكانيكية الكوانتية تعطي البشر ميزة خاصة على أجهزة الكمبيوتر الموجودة. لا تستطيع أجهزة الكومبيوتر الحالية فقط الحد من تعقيد مهام تورينج الحسابية ، ولا تزال مقتصرة على المهام داخل نطاق أجهزة تورين T. [توضيح ضروري]. من خلال حجج بنروز ولوكاس ، فإن الحواسيب الكمومية الموجودة ليست كافية [بحاجة للتوضيح] [لماذا؟] ، لذلك يسعى بنروز إلى بعض العمليات الأخرى التي تنطوي على فيزياء جديدة ، على سبيل المثال الجاذبية الكمومية التي قد تظهر فيزياء جديدة على نطاق كتلة بلانك عن طريق العفوية الانهيار الكمومي لوظيفة الموجة. هذه الحالات ، كما اقترح ، تحدث داخل الخلايا العصبية وأيضا تمتد عبر أكثر من عصبون واحد. ومع ذلك ، يشير علماء آخرون إلى أنه لا توجد آلية عضوية مقبولة في الدماغ لتسخير أي نوع من الحوسبة الكمومية ، وعلاوة على ذلك ، فإن الجدول الزمني للالتصاق الكمومي يبدو سريعًا جدًا للتأثير على إطلاق العصبون.

دريفوس: أسبقية المهارات اللاواعية
جادل هوبرت دريفوس أن الذكاء والخبرات البشرية تعتمد في المقام الأول على الغرائز اللاواعية بدلاً من التلاعب الرمزي الواعي ، وجادل بأن هذه المهارات اللاواعية لن يتم التقاطها في القواعد الرسمية.

كانت حجة دريفوس متوقعة من قبل تورينج في بحثه الحاسبات وذكائه عام 1950 ، حيث صنفها على أنها “حجة من السلوك غير الرسمي للسلوك”. جادل تورينج ردا على ذلك ، فقط لأننا لا نعرف القواعد التي تحكم سلوك معقد ، وهذا لا يعني أنه لا توجد مثل هذه القواعد. كتب: “لا يمكننا بسهولة أن نقنع أنفسنا بعدم وجود قوانين سلوك كاملة … الطريقة الوحيدة التي نعرف بها لإيجاد مثل هذه القوانين هي المراقبة العلمية ، ونحن بالتأكيد لا نعرف أي ظروف يمكننا أن نقول:” نحن لقد بحثت بما فيه الكفاية. لا توجد مثل هذه القوانين “.

يشير راسل ونورفيغ إلى أنه في السنوات التي مضت منذ نشر درايفوس نقده ، تم إحراز تقدم نحو اكتشاف “القواعد” التي تحكم المنطق اللاواعي. تحاول الحركة الموجودة في أبحاث الروبوتات التقاط مهاراتنا اللاواعية في الإدراك والانتباه. إن نماذج الذكاء الحسابي ، مثل الشبكات العصبية ، والخوارزميات التطورية ، إلخ ، موجهة في الغالب إلى التفكير والتعلم غير الواعي المحاكى. يمكن للنهج الإحصائية لمنظمة العفو الدولية إجراء تنبؤات تقترب من دقة التخمينات البديهية للإنسان. وقد ركزت البحوث في المعرفة المنطقية على استنساخ “الخلفية” أو سياق المعرفة. في الواقع ، لقد ابتعدت أبحاث الذكاء الاصطناعى بشكل عام عن التلاعب بالرموز عالية المستوى أو “GOFAI” ، نحو النماذج الجديدة التي تهدف إلى التقاط المزيد من الاستدلال اللاشعوري [وفقا لمن؟]. كتب الباحث دانيال كريفير مؤرخ وذكاء الذكاء الاصطناعى ان “الوقت قد اثبت دقة ومدى فطنة بعض تعليقات دريفوس. لو أنه صاغها بشكل اقل قوة ، الا ان الاجراءات البناءة التى اشاروا اليها قد تكون قد اتخذت فى وقت مبكر”.

هل يمكن للآلة أن تمتلك الذهن والوعي والحالات العقلية؟
هذا سؤال فلسفي ، يتعلق بمشكلة العقول الأخرى ومشكلة الوعي الصعبة. يدور السؤال حول موقف حدده جون سيرل باسم “الذكاء الاصطناعي القوي”:

يمكن أن يكون لنظام الرموز الفيزيائية حالات ذهنية وعقلية.
تميز سيرل بهذا المنصب مما أسماه “الذكاء الاصطناعي الضعيف”:

يمكن لنظام الرمز المادي أن يتصرف بذكاء.
قدم سيرل المصطلحات لعزل الذكاء الاصطناعي القوي من الذكاء الاصطناعي الضعيف حتى يتمكن من التركيز على ما كان يعتقد أنه أكثر إثارة للاهتمام وقضية قابلة للنقاش. وقال إنه حتى لو افترضنا أن لدينا برنامج كمبيوتر يعمل تمامًا كعقل بشري ، فسيظل هناك سؤال فلسفي صعب يحتاج إلى إجابة.

لا يعتبر أي من موقف سيرل هما مصدر قلق كبير لأبحاث الذكاء الاصطناعى ، حيث أنها لا تجيب مباشرة على السؤال “هل يمكن للآلة أن تعرض ذكاءها العام؟” (ما لم يكن من الممكن أيضًا إثبات أن الوعي ضروري للذكاء). كتب تورنج “لا أرغب في إعطاء الانطباع بأنني أعتقد أنه لا يوجد أي لغز حول الوعي … أو لا أعتقد أن هذه الألغاز تحتاج بالضرورة إلى حل قبل أن نتمكن من الإجابة عن السؤال [عما إذا كانت الآلات يمكنها التفكير].” يوافق راسل ونورفيغ على أن: “معظم الباحثين في الذكاء الاصطناعي يأخذون فرضية الذكاء الاصطناعي الضعيفة كأمر مفروغ منه ، ولا يهتمون بفرضية الذكاء الاصطناعي القوية”.

هناك عدد قليل من الباحثين الذين يعتقدون أن الوعي هو عنصر أساسي في الذكاء ، مثل إيغور ألكسندر ، ستان فرانكلين ، رون سون ، وبينتي هايكونن ، على الرغم من أن تعريفهم “للوعي” يبتعد كثيراً عن “الذكاء”. (انظر الوعي الاصطناعي.)

قبل أن نتمكن من الإجابة على هذا السؤال ، يجب أن نكون واضحين فيما نعنيه بـ “العقول” ، “الحالات العقلية” و “الوعي”.

الوعي والعقول والحالات العقلية والمعنى
تستخدم كلمات “العقل” و “الوعي” من قبل المجتمعات المختلفة بطرق مختلفة. فبعض المفكرين في عصر جديد ، على سبيل المثال ، يستخدمون كلمة “الوعي” لوصف شيء مشابه لـ “بيرلسون الحيوي”: وهو سائل حيوي غير مرئي يتخلل الحياة وخاصة العقل. يستخدم كتاب الخيال العلمي هذه الكلمة لوصف بعض الممتلكات الأساسية التي تجعلنا بشرا: سيتم تقديم آلة أو أجنبي “واع” كطابع بشري كامل ، مع الذكاء والرغبات والإرادة والبصيرة والفخر وهلم جرا. (يستخدم كتاب الخيال العلمي أيضًا كلمات “sentience” أو “sapience” أو “self self awareness” أو “ghost” – كما هو الحال في Ghost in the Shell manga و animé series – لوصف هذه الخاصية البشرية الأساسية). بالنسبة للآخرين [الذين؟] ، يتم استخدام كلمات “العقل” أو “الوعي” كنوع من مرادف علماني للروح.

بالنسبة للفلاسفة وعلماء الأعصاب والعلماء المعرفيين ، يتم استخدام الكلمات بطريقة أكثر دقة وأكثر دنيوية: فهي تشير إلى تجربة يومية مألوفة من وجود “فكر في رأسك” ، مثل التصور ، الحلم ، نية أو خطة ، والطريقة التي نعرف بها شيء ما ، أو تعني شيئًا أو نفهم شيئًا. “ليس من الصعب إعطاء تعريف منطقي للوعي” يلاحظ الفيلسوف جون سيرل. ما هو غامض ورائع ليس ما هو عليه بل كيف هو: كيف يمكن أن يؤدي وجود كتلة من الأنسجة الدهنية والكهرباء إلى هذه التجربة (المألوفة) في الإدراك أو المعنى أو التفكير؟

يسمي الفلاسفة هذه المشكلة الصعبة للوعي. إنها أحدث نسخة من مشكلة كلاسيكية في فلسفة العقل تسمى “مشكلة العقل والجسد”. مشكلة ذات صلة هي مشكلة المعنى أو الفهم (التي يطلق عليها الفلاسفة “القصدية”): ما العلاقة بين أفكارنا وما نفكر فيه (أي الأشياء والمواقف في العالم)؟ القضية الثالثة هي مشكلة التجربة (أو “الظاهرية”): إذا رأى شخصان الأمر نفسه ، فهل لديهما نفس التجربة؟ أم أن هناك أشياء “داخل رؤوسهم” (تسمى “qualia”) يمكن أن تكون مختلفة من شخص لآخر؟

غرفة Searle الصينية
يطلب منا جون سيرل التفكير في تجربة فكرية: لنفترض أننا قمنا بكتابة برنامج كمبيوتر يمر عبر اختبار تورينج ويوضح “الإجراء الذكي العام”. افترض ، على وجه التحديد أن البرنامج يمكن التحدث باللغة الصينية بطلاقة. اكتب البرنامج على بطاقات 3×5 واعطها لشخص عادي لا يتكلم الصينية. اقفل الشخص في غرفة واطلب منه اتباع التعليمات الموجودة على البطاقات. سوف ينسخ الشخصيات الصينية ويمررها داخل وخارج الغرفة من خلال فتحة. من الخارج ، سيظهر أن الغرفة الصينية تحتوي على شخص ذكي بالكامل يتحدث الصينية. السؤال هو: هل هناك أي شخص (أو أي شيء) في الغرفة يفهم الصينية؟ أي ، هل هناك أي شيء لديه حالة تفاهم عقلية ، أو الذي لديه وعي ووعي بما يجري مناقشته باللغة الصينية؟ من الواضح أن الرجل ليس على علم بذلك. لا يمكن أن تكون الغرفة مدركة. البطاقات بالتأكيد ليست على علم. يخلص سيرل إلى أن الغرفة الصينية ، أو أي نظام رمزي آخر ، لا يمكن أن يكون لها عقل.

يستمر سيرل في القول بأن الحالات الذهنية والوعي الفعليين يتطلبان (حتى الآن وصفها) “الخصائص الفيزيائية الكيميائية الفعلية لأدمغة البشر الفعلية”. يجادل بأن هناك “خصائص سببية” خاصة للأدمغة والخلايا العصبية التي تثير العقول: في كلماته “العقول تسبب العقول”.

قدم جوتفريد ليبنيز أساسا نفس الحجة مثل سيرل في عام 1714 ، وذلك باستخدام التجربة الفكرية لتوسيع الدماغ حتى كان حجم الطاحونة. في عام 1974 ، تصور لورانس ديفيس تكرارًا للدماغ باستخدام خطوط الهاتف والمكاتب التي يعمل بها الأشخاص ، وفي عام 1978 ، تصور نيد بلوك جميع سكان الصين المشاركين في مثل هذه المحاكاة الدماغية. تسمى هذه التجربة الفكرية “الأمة الصينية” أو “الصالة الرياضية الصينية”. كما اقترح نيد بلوك حجة Blockhead له ، والتي هي نسخة من الغرفة الصينية التي أعيد فيها البرنامج في مجموعة بسيطة من القواعد من النموذج “انظر هذا ، افعل ذلك” ، إزالة كل الغموض من البرنامج.

ردود على الغرفة الصينية
تؤكد الردود على الغرفة الصينية عدة نقاط مختلفة.

رد الأنظمة ورد العقل الافتراضي: يجادل هذا الرد بأن النظام ، بما في ذلك الرجل ، البرنامج ، الغرفة ، والبطاقات ، هو ما يفهم الصينية. يدّعي سيرل أن الرجل الموجود في الغرفة هو الشيء الوحيد الذي يمكن أن “يكون لديه عقل” أو “يفهم” ، لكن آخرين يختلفون ، بحجة أنه من الممكن أن يكون هناك عقلين في نفس المكان المادي ، على غرار الطريق يمكن لجهاز الكمبيوتر في وقت واحد “أن يكون” جهازين في وقت واحد: واحد المادية (مثل ماكنتوش) و “الظاهري” واحد (مثل معالج النصوص).
ردود السرعة والقوة والتعقيد: يشير العديد من المنتقدين إلى أن الرجل في الغرفة ربما يستغرق ملايين السنين للرد على سؤال بسيط ، وسوف يتطلب “خزائن لحفظ الملفات” ذات أبعاد فلكية. هذا يجعل وضوح الحدس في سيرل موضع شك.
روبوت الرد: لكي نفهم حقًا ، يعتقد البعض أن الغرفة الصينية تحتاج إلى عيون وأيدي. كتب هانز مورافيك: “إذا تمكنا من إنشاء روبوت لبرنامج تفكير ، فلن نحتاج إلى شخص لتقديم المعنى بعد الآن: إنه سيأتي من العالم المادي”.
رد فعل جهاز محاكاة الدماغ: ماذا لو كان البرنامج يحاكي تسلسل عمليات إطلاق الأعصاب في نقاط الاشتباك العصبي للدماغ الفعلي لمتحدث صيني حقيقي؟ الرجل في الغرفة سيكون محاكاة دماغ حقيقي. هذا هو الاختلاف في “رد الأنظمة” الذي يبدو أكثر قبولا لأن “النظام” يعمل الآن بشكل واضح مثل دماغ بشري ، مما يقوي الحدس بأن هناك شيئا ما إلى جانب الرجل في الغرفة الذي يمكن أن يفهم الصينية.
رد فعل العقول الأخرى ورد الرد على الأفاعي: لاحظ العديد من الناس أن حجة سيرل هي مجرد نسخة من مشكلة العقول الأخرى ، المطبقة على الآلات. وبما أنه من الصعب تحديد ما إذا كان الناس “يفكرون” في الواقع ، يجب ألا نفاجأ بأنه من الصعب الإجابة على نفس السؤال حول الآلات.

هل يفكر بنوع من الحساب؟
تدّعي النظرية الحسابية للعقل أو “الحوسبة” أن العلاقة بين العقل والدماغ متشابهة (إن لم تكن متطابقة) مع العلاقة بين البرنامج الجاري والكمبيوتر. الفكرة لها جذور فلسفية في هوبز (الذي ادعى أن المنطق “لا شيء أكثر من الحساب”) ، لايبنيز (الذي حاول إنشاء حساب منطقي لكل الأفكار البشرية) ، هيوم (الذي اعتقد أن الإدراك يمكن اختزاله إلى “الانطباعات الذرية”). حتى كانط (الذي حلل جميع التجارب على أنها تخضع لقواعد رسمية). ويرتبط أحدث نسخة بالفلاسفة هيلاري بوتنام وجيري فودور.

هذا السؤال يتعلق بأسئلتنا السابقة: إذا كان الدماغ البشري هو نوع من الكمبيوتر ، فيمكن للحواسيب أن تكون ذكية واعية في آن واحد ، الإجابة على كل من الأسئلة العملية والفلسفية للذكاء الاصطناعي. من حيث السؤال العملي لمنظمة العفو الدولية (“هل يمكن للماكينة أن تُظهر ذكاءً عامًا؟”) ، فإن بعض إصدارات الحوسبة computationalism تدعي أن (كما كتب هوبز):

التفكير ليس سوى حساب
بعبارة أخرى ، ينبع استخباراتنا من شكل حساب ، شبيه بالعمليات الحسابية. هذه هي فرضية نظام الرمز المادي التي نوقشت أعلاه ، وهذا يعني أن الذكاء الاصطناعي ممكن. من حيث السؤال الفلسفي للذكاء الاصطناعى (“هل يمكن للآلة أن تمتلك عقلية ، وحالات ذهنية ووعي؟”) ، فإن معظم صيغ الحوسبة تدعي (كما يصفها ستيفان هارناد):

الحالات العقلية هي مجرد تطبيقات لبرامج الكمبيوتر (الحق)
هذا هو “الذكاء الاصطناعي القوي” لجون سيرل الذي نوقش أعلاه ، وهو الهدف الحقيقي لحجة الغرفة الصينية (حسب هارناد).

أسئلة أخرى ذات صلة
لاحظ آلان تورينج أن هناك العديد من الحجج من النموذج “لن تفعل الآلة أبداً X” ، حيث يمكن أن تكون X أشياء كثيرة ، مثل:

كن لطيفًا ، حيويًا ، جميل ، ودود ، لديه مبادرة ، لديه روح مرحة ، أخبره عن الخطأ ، ارتكب الأخطاء ، وقع في الحب ، استمتع بالفراولة والقشدة ، اجعل شخصًا ما يقع في حبها ، تعلم من التجربة ، استخدم الكلمات بشكل صحيح ، يكون موضوع الفكر الخاص بها ، لديها قدر من تنوع السلوك كرجل ، تفعل شيئا جديدا حقا.

هل يمكن للآلة أن تكون لديها مشاعر؟
إذا تم تعريف “العواطف” فقط من حيث تأثيرها على السلوك أو على طريقة عملها داخل الكائن الحي ، فيمكن عندئذٍ اعتبار العواطف آلية يستخدمها العامل الذكي لتحقيق أقصى فائدة لأفعاله. وبالنظر إلى هذا التعريف للعاطفة ، يعتقد هانز مورافيك أن “الروبوتات بشكل عام ستكون عاطفية إلى حد ما حول كونها شخص لطيف”. الخوف هو مصدر الإلحاح. التعاطف هو عنصر ضروري للتفاعل الجيد للكمبيوتر البشري. ويقول إن الروبوتات “ستحاول إرضاءك بطريقة تبدو غير أنانية لأنها ستشعر بالتشويق من هذا التعزيز الإيجابي. يمكنك تفسير ذلك على أنه نوع من الحب”. كتب دانييل كريفييه “إن نقطة مورافيك هي أن العواطف هي مجرد أدوات لتوجيه السلوك في اتجاه مفيد لبقاء جنس الفرد”.

ومع ذلك ، يمكن تعريف العواطف أيضًا من حيث جودتها الذاتية ، وما تشعر به أن يكون لديك عاطفة. إن السؤال حول ما إذا كان الجهاز يشعر فعلاً بالعاطفة ، أو ما إذا كان مجرد تصرف وكأنه شعور مشاعر هو السؤال الفلسفي ، “هل يمكن للآلة أن تكون واعية؟” في شكل آخر.

هل يمكن للآلة أن تكون على علم بذاتها؟
“الوعي الذاتي” ، كما هو مذكور أعلاه ، يستخدم أحيانًا من قبل كتّاب الخيال العلمي كاسم للملكية البشرية الأساسية التي تجعل شخصية الإنسان كاملة. يضع شرائط تورينج جميع الخصائص الأخرى للبشر ويقلل من السؤال إلى “هل يمكن للآلة أن تكون موضوع تفكيرها؟” هل يمكنه التفكير في نفسه؟ نظرًا لهذه الطريقة ، يمكن كتابة برنامج يمكنه الإبلاغ عن حالاته الداخلية ، مثل مصحح الأخطاء. على الرغم من أن الوعي الذاتي غالبا ما يفترض قدرة أكثر قليلا ؛ آلة يمكن أن تعزو معنى بطريقة ما ليس فقط لحالتها الخاصة ولكن في طرح أسئلة عامة بدون إجابات قوية: الطبيعة المحيطة لوجودها الآن ؛ كيف يقارن ذلك بالحالات أو الخطط السابقة للمستقبل ، وقيود وقيمة منتج العمل الخاص بها ، وكيف يدرك أن أدائه يتم تقييمه أو مقارنته بالآخرين.

هل يمكن للآلة أن تكون أصلية أم مبدعة؟
يقلل تورينج هذا الأمر إلى مسألة ما إذا كانت الآلة يمكنها “أن تفاجئنا” ، وتزعم أن هذا صحيح تمامًا ، كما يمكن لأي مبرمج أن يشهد. ويلاحظ أنه ، مع سعة تخزين كافية ، يمكن للكمبيوتر أن يتصرف بعدد فلكي من الطرق المختلفة. يجب أن يكون ممكنا ، حتى تافها ، لجهاز كمبيوتر يمكن أن يمثل أفكارًا لدمجها بطرق جديدة. (مثل رياضيات دوغلاس لينات الآلي ، على سبيل المثال ، دمج الأفكار لاكتشاف حقائق رياضية جديدة).

في عام 2009 ، صمم العلماء في جامعة آبيريستويث في ويلز وجامعة كامبردج في المملكة المتحدة روبوتًا يدعى آدم يعتقدون أنه أول جهاز يكتشف بشكل مستقل نتائج علمية جديدة. أيضا في عام 2009 ، طور الباحثون في جامعة كورنيل برنامج Eureqa ، وهو برنامج كمبيوتر يستنبط الصيغ لتلائم البيانات المدخلة ، مثل العثور على قوانين الحركة من حركة البندول.

هل يمكن للآلة أن تكون خيّرة أم معادية؟
يمكن تقديم هذا السؤال (مثل العديد من الفلسفات الأخرى في فلسفة الذكاء الاصطناعي) في شكلين. يمكن تعريف “العداء” في وظيفة أو سلوك ، في هذه الحالة يصبح “عدائي” مرادفا “خطير”. أو يمكن تعريفها من حيث النوايا: هل يمكن للآلة “بشكل متعمد” أن تضع ضررًا؟ هذا الأخير هو السؤال “هل يمكن للآلة أن تكون لديها حالات واعية؟” (مثل النوايا) في شكل آخر.

إن مسألة ما إذا كانت الأجهزة عالية الذكاء والأوتوماتيكية الكاملة ستكون خطرة تم فحصها بالتفصيل من قبل المستقبليين (مثل معهد التفرد). (كما أن العنصر الدرامي الواضح جعل من الموضوع شائعًا في الخيال العلمي ، والذي نظر في العديد من السيناريوهات المحتملة بشكل مختلف حيث تشكل الآلات الذكية تهديدًا للبشرية).

قضية واحدة هي أن الآلات قد تحصل على الحكم الذاتي والاستخبارات المطلوبة لتكون خطرة بسرعة كبيرة. اقترح فيرنور فينجي أنه على مدى بضع سنوات ، سوف تصبح أجهزة الكمبيوتر فجأة أكثر ذكاءً من البشر بملايين أو ملايين المرات. يسمي هذا “التفرد”. يقترح أنه قد يكون نوعًا ما أو خطيرًا جدًا على البشر. يناقش هذا من قبل فلسفة تسمى Singularitarianism.

شكك بعض الخبراء والأكاديميين في استخدام الروبوتات للقتال العسكري ، خاصة عندما يتم منح هذه الروبوتات درجة معينة من الوظائف المستقلة. قامت البحرية الأمريكية بتمويل تقرير يشير إلى أنه كلما أصبحت الروبوتات العسكرية أكثر تعقيدًا ، يجب أن يكون هناك اهتمام أكبر بالآثار المترتبة على قدرتها على اتخاذ قرارات مستقلة.

كلف رئيس جمعية النهوض بالذكاء الاصطناعي بإجراء دراسة للنظر في هذه المسألة. يشيرون إلى برامج مثل “جهاز اكتساب اللغة” التي يمكن أن تحاكي التفاعل البشري.

اقترح البعض الحاجة إلى بناء “منظمة العفو الدولية الصديقة” ، وهذا يعني أن التقدم الذي يحدث بالفعل مع الذكاء الاصطناعي يجب أن يتضمن أيضًا جهدًا لجعل منظمة العفو الدولية صديقة بشكل جوهري وإنسانية.

هل يمكن للآلة أن تمتلك روحًا؟
أخيراً ، أولئك الذين يؤمنون بوجود روح قد يجادلون بأن “التفكير هو وظيفة النفس الخالدة للإنسان.” ووصف آلان تورينج هذا “بالاعتراض اللاهوتي”. هو يكتب

في محاولتنا لبناء مثل هذه الآلات ، لا ينبغي لنا أن نستغل سلطته في خلق الأرواح ، أكثر من أننا في إنجاب الأطفال: بل إننا ، في كلتا الحالتين ، صكوك لإرادته توفر قصوراً للأرواح التي يخلقها.

آراء حول دور الفلسفة
يجادل بعض الباحثين بأن طرد منظمة العفو الدولية للفلسفة أمر ضار. في موسوعة ستانفورد للفلسفة ، يجادل بعض الفلاسفة بأن دور الفلسفة في الذكاء الاصطناعي لا يُقَدَر منه.يجادل الفيزيائي ديفيد دويتش بأنه بدون فهم للفلسفة أو مفاهيمها ، فإن تنمية الذكاء الاصطناعي قد تعاني من عدم إحراز تقدم.

الببليوغرافيا والمؤتمرات
المراجع الرئيسية حول هذا الموضوع ، مع العديد من الأقسام الفرعية ، على PhilPapers

سلسلة المؤتمرات الرئيسية حول هذه القضية هي “فلسفة ونظرية AI” (PT-AI) ، يديرها فنسنت س. مولر