تأثير الذكاء الاصطناعي

الذكاء الاصطناعي (الذكاء الاصطناعي) هو الذكاء الذي تعرضه الآلات. في علوم الكمبيوتر ، فإن الآلة “الذكية” المثالية هي عامل عقلاني مرن يدرك بيئته وينفذ أعمالاً تزيد من فرص النجاح في بعض الأهداف أو المهام. بالعامية ، يتم تطبيق مصطلح الذكاء الاصطناعي عندما تقلد آلة وظائف “المعرفية” التي يرتبط بها البشر مع عقول بشرية أخرى ، مثل: “تعلم” و “حل المشاكل”. أصبحت آلات 2As قادرة على نحو متزايد ، يتم إزالة التكنولوجيا التي كان يعتقد في وقت سابق أن تتطلب الذكاء من التعريف. على سبيل المثال ، لم يعد ينظر إلى التعرف البصري على الأحرف كمثال على “الذكاء الاصطناعي” بعد أن أصبح تكنولوجيا شائعة. التطورات التكنولوجية لا تزال تصنف على أنها ذكاء اصطناعي هي أنظمة قيادة مستقلة أو تلك القادرة على لعب الشطرنج أو الذهاب.

وفقا ل Takeyas (2007) ، AI هو فرع من العلوم الحاسوبية المسؤولة عن دراسة نماذج الكمبيوتر قادرة على القيام بأنشطة البشر على أساس اثنين من خصائصه الرئيسية: التفكير والسلوك.

في عام 1956 ، صاغ جون مكارثي مصطلح “الذكاء الاصطناعي” وعرّفه بأنه “علم وبراعة صنع الآلات الذكية ، خاصة برامج الكمبيوتر الذكية”.

بالنسبة إلى Nils John Nilsson ، هناك أربع ركائز أساسية يقوم عليها الذكاء الاصطناعي:

ابحث عن الحالة المطلوبة في مجموعة الحالات التي تنتجها الإجراءات المحتملة.
الخوارزميات الجينية (مشابه لعملية تطور سلاسل الحمض النووي).
الشبكات العصبية الاصطناعية (مماثلة للأداء البدني لدماغ الحيوانات والبشر).
التفكير من خلال المنطق الرسمي المماثل للتفكير التجريدي البشري.

وهناك أيضًا أنواع مختلفة من التصورات والإجراءات ، والتي يمكن الحصول عليها وإنتاجها ، على التوالي ، بواسطة أجهزة استشعار ماسية وأجهزة استشعار ميكانيكية في الآلات ، أو نبضات كهربائية أو ضوئية في أجهزة الكمبيوتر ، وكذلك عن طريق مدخلات ومخرجات برامج وبيئة برمجياتها. .

يوجد العديد من الأمثلة في مجال مراقبة الأنظمة والتخطيط التلقائي والقدرة على الاستجابة للتشخيص واستفسارات المستهلكين والتعرف على الكتابة اليدوية والتعرف على الكلام والتعرف على الأنماط. تعتبر أنظمة الذكاء الاصطناعي جزءًا من الروتين الحالي في مجالات مثل الاقتصاد والطب والهندسة والجيش ، وقد تم استخدامها في مجموعة متنوعة من تطبيقات البرامج والألعاب الاستراتيجية ، مثل شطرنج الكمبيوتر وألعاب الفيديو الأخرى.

التاريخ
ظهرت كائنات اصطناعية قادرة على التفكير كأدوات سرد القصص في العصور القديمة ، وكانت شائعة في الخيال ، كما في فرانكنشتاين ماري شيلي أو كارل رالف Čapek RUR (Robum’s Universal Robots). أثارت هذه الشخصيات وأقدارها العديد من القضايا نفسها التي نوقشت الآن في أخلاقيات الذكاء الاصطناعي.

بدأت دراسة المنطق الميكانيكي أو “الرسمي” مع الفلاسفة وعلماء الرياضيات في العصور القديمة. أدت دراسة المنطق الرياضي مباشرة إلى نظرية الحوسبة ألان تورينج ، والتي تشير إلى أن الآلة ، عن طريق خلط رموز بسيطة مثل “0” و “1” ، يمكن أن تحاكي أي فعل يمكن تصوره من الاستنتاج الرياضي. هذه النظرة ، التي يمكن للحواسيب الرقمية أن تحاكي أي عملية من التفكير المنطقي ، تُعرف باسم أطروحة الكنيسة – تورينج. جنبا إلى جنب مع الاكتشافات المتزامنة في علم الأعصاب ونظرية المعلومات وعلم التحكم الآلي ، أدى هذا الباحثين إلى النظر في إمكانية بناء دماغ الكتروني. اقترح تورينج أنه “إذا كان الإنسان لا يستطيع التمييز بين الاستجابات من آلة وإنسان ، يمكن اعتبار الآلة” ذكية “. كان العمل الأول المعترف به عمومًا باسم منظمة العفو الدولية هو التصميم الرسمي الذي وضعه مكولوتش وبيتس في عام 1943 من أجل “الخلايا العصبية الاصطناعية” في تورينج.

ولد مجال أبحاث الذكاء الاصطناعي في ورشة عمل في كلية دارتموث في عام 1956. أصبح الحاضرون Allen Newell (CMU) ، و Herbert Simon (CMU) ، و John McCarthy (MIT) ، و Marvin Minsky (MIT) و Arthur Samuel (IBM) المؤسسين و قادة البحوث منظمة العفو الدولية. أنتجت هم وطلابهم البرامج التي وصفتها الصحافة بأنها “مدهشة”: كانت أجهزة الكمبيوتر تتعلم استراتيجيات المدققون (عام 1954) (وبحلول عام 1959 كان يلعب بشكل أفضل من الإنسان العادي) ، حل مشاكل الكلمات في الجبر ، إثبات النظريات المنطقية (المنطق Theorist، first run c. 1956) and speaking english. بحلول منتصف الستينيات ، تم تمويل الأبحاث في الولايات المتحدة بشكل كبير من قبل وزارة الدفاع والمختبرات التي أنشئت في جميع أنحاء العالم. لقد كان مؤسسو منظمة العفو الدولية متفائلين بشأن المستقبل: تنبأ هيربرت سايمون بأن “الآلات ستكون قادرة ، في غضون عشرين عاماً ، على القيام بأي عمل يمكن أن يقوم به الإنسان”. ووافق مارفن مينسكي على ذلك قائلاً “خلال جيل … ستحل مشكلة خلق” الذكاء الاصطناعي “بشكل جوهري.

فشلوا في إدراك صعوبة بعض المهام المتبقية. تباطأ التقدم وفي عام 1974 ، رداً على انتقادات السير جيمس لنتيل والضغط المستمر من الكونغرس الأميركي لتمويل مشاريع أكثر إنتاجية ، قامت الحكومتان الأمريكية والبريطانية بقطع الأبحاث الاستكشافية في منظمة العفو الدولية. وفي وقت لاحق ، ستطلق السنوات القليلة القادمة على “فصل الشتاء لمنظمة العفو الدولية” ، وهي فترة كان من الصعب فيها الحصول على تمويل لمشاريع الذكاء الاصطناعي.

في أوائل الثمانينات ، تم إحياء أبحاث الذكاء الاصطناعي من خلال النجاح التجاري للأنظمة الخبيرة ، وهو شكل من أشكال برنامج الذكاء الاصطناعي الذي يحاكي مهارات المعرفة والتحليل لدى الخبراء البشريين. بحلول عام 1985 ، بلغ سوق الذكاء الاصطناعي أكثر من مليار دولار. في نفس الوقت ، ألهم مشروع الجيل الخامس في اليابان الحكومتين الأمريكية والبريطانية لاستعادة التمويل للبحث الأكاديمي. ومع ذلك ، ابتداء من انهيار سوق آلة Lisp في عام 1987 ، سقطت منظمة العفو الدولية مرة أخرى في سمعة سيئة ، وبدأت ثغرة ثانية تدوم لفترة أطول.

في أواخر التسعينيات وأوائل القرن الحادي والعشرين ، بدأت منظمة العفو الدولية تستخدم في النقل والإمداد والتنقيب عن البيانات والتشخيص الطبي والمجالات الأخرى. كان النجاح نتيجة لزيادة القوة الحسابية (انظر قانون مور) ، وزيادة التركيز على حل مشاكل معينة ، وروابط جديدة بين منظمة العفو الدولية وغيرها من المجالات (مثل الإحصاء والاقتصاد والرياضيات) ، والالتزام من قبل الباحثين على الأساليب الرياضية والمعايير العلمية. أصبح ديب بلو أول نظام للعب الشطرنج في الكمبيوتر للفوز على بطل العالم الشطرنج العالمي ، غاري كاسباروف ، في 11 مايو 1997.

في عام 2011 ، خطر! مباراة مسابقة المعرض المعرض ، نظام الرد على السؤال IBM ، واتسون ، هزم اثنين من أكبر Jeopardy! أبطال ، براد روتر وكين جينينغز ، بهامش كبير. تمكنت أجهزة الكمبيوتر السريعة والتحسينات الخوارزمية والوصول إلى كميات كبيرة من البيانات من التقدم في تعلم الآلة وإدراكها ؛ بدأت أساليب التعلم العميق المتعطشة للبيانات بالسيطرة على معايير الدقة في عام 2012. تستخدم Kinect ، التي توفر واجهة ثلاثية الأبعاد للحركة والأجسام لأجهزة Xbox 360 و Xbox One ، الخوارزميات التي انبثقت من أبحاث الذكاء الاصطناعي الطويلة كما يفعل المساعدون الشخصيون الذكيون في الهواتف الذكية. في مارس 2016 ، فاز AlphaGo 4 من أصل 5 مباريات من Go في مباراة مع بطل Go Go ، ليصبح أول نظام Go-playing للكمبيوتر يتفوق على لاعب Go محترف بدون إعاقات. في قمة مستقبل الذهاب 2017 ، فاز AlphaGo في مباراة من ثلاث مباريات مع Ke Jie ، الذي كان يحتل في الوقت الحالي الترتيب العالمي رقم 1 لمدة عامين. هذا يمثل إنجاز معلم بارز في تطوير الذكاء الاصطناعي كما هو Go لعبة معقدة للغاية ، أكثر من لعبة الشطرنج.

وفقًا لجاك كلارك من بلومبرج ، كان عام 2015 عامًا بارزًا بالنسبة للذكاء الاصطناعي ، حيث ارتفع عدد مشروعات البرامج التي تستخدم AI داخل Google من “الاستخدام المتقطع” في عام 2012 إلى أكثر من 2700 مشروع. كما يقدم كلارك بيانات واقعية تشير إلى أن معدلات الخطأ في مهام معالجة الصور قد انخفضت بشكل كبير منذ عام 2011. وهو يعزو ذلك إلى زيادة في الشبكات العصبية المعقولة التكلفة ، وذلك بسبب ارتفاع البنية التحتية للحوسبة السحابية وإلى زيادة أدوات البحث ومجموعات البيانات. وتشمل الأمثلة الأخرى المذكورة تطوير Microsoft لنظام Skype يمكن أن يترجم تلقائيًا من لغة إلى أخرى ونظام Facebook الذي يمكنه وصف الصور للمكفوفين. في مسح عام 2017 ، ذكرت واحدة من كل خمس شركات أنها “أدرجت الذكاء الاصطناعي في بعض العروض أو العمليات”. في حوالي عام 2016 ، سارعت الصين إلى تسريع تمويلها الحكومي. نظرًا لإمدادها الكبير بالبيانات وناتج الأبحاث المتزايد بسرعة ، يعتقد بعض المراقبين أنه قد يكون في طريقه إلى أن يصبح “قوة عظمى لمنظمة العفو الدولية”.

مبادئ
تنظر منظمة العفو الدولية النموذجية إلى بيئتها وتتخذ إجراءات تزيد من فرصتها في تحقيق أهدافها بنجاح. يمكن أن تكون وظيفة الهدف المقصود لمنظمة العفو الدولية بسيطة (“1 إذا فازت منظمة العفو الدولية بلعبة Go ، 0 خلاف ذلك”) أو معقدة (“هل تتشابه رياضياً مع الإجراءات التي حصلت على مكافآت في الماضي”). يمكن تحديد الأهداف بشكل واضح ، أو يمكن تحريضها. إذا تمت برمجة الذكاء الاصطناعي من أجل “التعلم التعزيزي” ، يمكن أن تكون الأهداف محرضة ضمنيًا من خلال مكافأة بعض أنواع السلوك ومعاقبة الآخرين. بدلا من ذلك ، يمكن للنظام التطوري أن يحفز الأهداف باستخدام “وظيفة اللياقة البدنية” للتحول وتكرار تفضيلا لأنظمة الذكاء الاصطناعي ذات الدرجات العالية. وهذا يشبه الطريقة التي تطورت بها الحيوانات لتلبية رغبات أهداف معينة مثل العثور على الطعام ، أو كيف يمكن تربية الكلاب عن طريق الانتقاء الاصطناعي لامتلاك الصفات المرغوبة. بعض أنظمة الذكاء الاصطناعي ، مثل أقرب الجيران ، بدلا من ذلك عن طريق القياس ؛ لا يتم إعطاء هذه الأنظمة الأهداف بشكل عام ، باستثناء درجة أن الأهداف مضمنة بشكل ما في بيانات التدريب الخاصة بهم. لا يزال من الممكن قياس مثل هذه الأنظمة إذا تم تأطير النظام غير الهدف كنظام “هدفه” هو تحقيق مهمته التصنيفية الناجحة بنجاح.

غالبًا ما تدور الذكاء الاصطناعي حول استخدام الخوارزميات. الخوارزمية هي مجموعة من الإرشادات التي لا لبس فيها والتي يمكن أن يقوم الكمبيوتر الميكانيكي بتنفيذها. غالبًا ما يتم إنشاء خوارزمية معقدة فوق خوارزميات أخرى أكثر بساطة. مثال بسيط لخوارزمية هو الوصفة التالية للعب الأمثل في tic-tac-toe:

إذا كان شخص ما لديه “تهديد” (أي اثنين على التوالي) ، خذ المربع المتبقي. غير ذلك،
إذا كان هناك تحرك “forks” لإنشاء تهديدين في وقت واحد ، فقم بتشغيل هذه الخطوة. غير ذلك،
خذ ساحة المركز إذا كانت مجانية. غير ذلك،
إذا لعب خصمك في زاوية ، خذ الزاوية المقابلة. غير ذلك،
خذ زاوية فارغة إن وجدت. غير ذلك،
خذ أي مربع فارغ.

العديد من خوارزميات الذكاء الاصطناعي قادرة على التعلم من البيانات ؛ يمكن أن يعززوا أنفسهم من خلال تعلم أساليب جديدة (استراتيجيات ، أو “قواعد إبداعية” ، التي عملت بشكل جيد في الماضي) ، أو يمكن أن يكتبوا أنفسهم خوارزميات أخرى. بعض من “المتعلمين” الموصوفين أدناه ، بما في ذلك شبكات بايزي ، وأشجار القرار ، وأقرب الجيران ، يمكن نظريا ، إذا أعطيت بيانات لا حصر لها ، والوقت ، والذاكرة ، تعلم لتقريب أي وظيفة ، بما في ذلك أي تركيبة من وظائف رياضية تصف أفضل وصف العالم بأكمله. ومن ثم ، يستطيع هؤلاء المتعلمون نظريًا أن يستمدوا كل المعرفة الممكنة ، من خلال النظر في كل فرضية ممكنة ومطابقتها مع البيانات. من الناحية العملية ، لا يمكن أبداً تقريباً النظر في كل الاحتمالات ، بسبب ظاهرة “الانفجار التوافقي” ، حيث يزداد حجم الوقت اللازم لحل المشكلة بشكل كبير. يتضمن الكثير من أبحاث الذكاء الاصطناعى معرفة كيفية تحديد وتجنب التفكير في مساحات واسعة من الاحتمالات التي من غير المرجح أن تكون مثمرة. على سبيل المثال ، عند عرض خريطة والبحث عن أقصر طريق قيادة من دنفر إلى نيويورك في الشرق ، يمكن للمرء في معظم الحالات تخطي النظر إلى أي مسار عبر سان فرانسيسكو أو مناطق أخرى بعيدة إلى الغرب. وبالتالي ، فإن الذكاء الاصطناعي الذي يستخدم خوارزمية تحديد المسار مثل A * يمكن أن يتجنب الانفجار التوافيقي الذي يمكن أن يترتب عليه إذا كان كل مسار محتمل يجب أن يُنظر فيه بتفصيل.

كان أقرب نهج (وأسهل في الفهم) تجاه الذكاء الاصطناعي هو الرمزية (مثل المنطق الرسمي): “إذا كان الشخص البالغ الأصحاء لديه الحمى ، فقد يكون عندهم إنفلونزا”. النهج الثاني والأكثر عمومية هو الاستدلال البايزي: “إذا كان المريض الحالي مصابًا بالحمى ، فاضبط احتمال الإصابة بالإنفلونزا بهذه الطريقة”. النهج الرئيسي الثالث ، الذي يحظى بشعبية كبيرة في تطبيقات الأعمال الروتينية لمنظمة العفو الدولية ، هي نظائر مثل SVM وأقرب جارة: “بعد فحص سجلات المرضى السابقين المعروفين الذين تتوافق درجة حرارتهم وأعراضهم وعمرهم وعوامل أخرى مع المريض الحالي ، X٪ من هؤلاء المرضى تبين أن لديهم الأنفلونزا “. من الصعب فهم النهج الرابع ، ولكن مستوحى من كيفية عمل آلية الدماغ: يستخدم نهج الشبكة العصبية الاصطناعية “الخلايا العصبية” الاصطناعية التي يمكن أن تتعلم من خلال مقارنة نفسها بالانتاج المطلوب وتغيير نقاط القوة في الوصلات بين الخلايا العصبية الداخلية ل “تعزيز” الاتصالات التي يبدو أنها مفيدة. يمكن أن تتداخل هذه الطرق الأربعة الرئيسية مع بعضها البعض ومع الأنظمة التطورية. على سبيل المثال ، يمكن للشبكات العصبية أن تتعلم كيفية الوصول إلى الاستدلالات ، والتعميم ، وإجراء المقارنات. تستخدم بعض الأنظمة بشكل ضمني أو صريح العديد من هذه الطرق ، إلى جانب العديد من خوارزميات الذكاء الاصطناعي وغيرها من الخوارزميات. غالبًا ما يكون النهج الأفضل مختلفًا اعتمادًا على المشكلة.

تعمل خوارزميات التعلم على أساس أن الاستراتيجيات والخوارزميات والاستدلالات التي نجحت في الماضي من المرجح أن تستمر في العمل بشكل جيد في المستقبل. يمكن أن تكون هذه الاستدلالات واضحة ، مثل “بما أن الشمس ارتفعت كل صباح لآخر 10000 يوم ، فمن المحتمل أن ترتفع صباح الغد أيضًا”. يمكن أن تكون دقيقة ، مثل “X ٪ من العائلات لديها أنواع منفصلة جغرافيا مع المتغيرات اللون ، لذلك هناك فرصة Y ٪ أن البجع الأسود غير المكتشفة موجودة”. يعمل المتعلمون أيضًا على أساس “شفرة أوكام”: إن أبسط النظرية التي تشرح البيانات هي الأكثر احتمالًا. لذلك ، لكي تكون ناجحة ، يجب تصميم المتعلم بحيث يفضل نظريات أبسط على النظريات المعقدة ، إلا في الحالات التي ثبت فيها النظرية المعقدة بشكل أفضل. ويطلق على نظرية سيئة ، معقدة بشكل مفرط gerrymandered لتتناسب مع جميع بيانات التدريب الماضي باسم overfitting. تحاول العديد من الأنظمة الحد من overfitting من خلال مكافأة نظرية وفقًا لمدى تناسبها للبيانات ، لكن معاقبة النظرية وفقًا لمدى تعقيد النظرية. إلى جانب التجهيزات الكلاسيكية ، يمكن للمتعلمين أيضًا أن يخيبوا الأمل من خلال “تعلم الدرس الخاطئ”. مثال على ذلك هو أن مصنّف الصور المدرّب فقط على صور الخيول البنية والقطط السوداء قد يستنتج أن جميع البقع البنية من المرجح أن تكون خيولًا. مثال حقيقي هو أنه ، على عكس البشر ، لا تحدد مصوّرات الصور الحالية العلاقة المكانية بين مكونات الصورة. بدلاً من ذلك ، يتعلمون أنماطًا مجردة من البكسلات التي لا يفهمها البشر ، ولكنها ترتبط خطيًا بصور لأنواع معينة من الكائنات الحقيقية. يؤدي فرض مثل هذا النمط على صورة شرعية إلى ظهور صورة “عدائية” يصفها النظام بشكل خاطئ.

بالمقارنة مع البشر ، تفتقر الذكاء الاصطناعي الحالي إلى العديد من السمات “للتفكير المنطقي” البشري ؛ على الأخص ، لدى البشر آليات قوية للتفكير حول “الفيزياء الساذجة” مثل الفضاء والوقت والتفاعلات المادية. ويتيح ذلك حتى للأطفال الصغار القيام باستنتاجات بسهولة مثل “إذا قمت بإدراج هذا القلم خارج الطاولة ، فسوف يسقط على الأرض”. لدى البشر أيضاً آلية قوية من “علم النفس الشعبي” تساعدهم على تفسير الجمل ذات اللغة الطبيعية مثل “رفض أعضاء مجلس المدينة للمتظاهرين الحصول على تصريح لأنهم يدعون إلى العنف”. (تواجه منظمة العفو الدولية عامًا صعوبةً في استنتاج ما إذا كان أعضاء المجلس أو المتظاهرون هم الذين يُزعم أنهم يدافعون عن العنف). يعني هذا النقص في “المعرفة المشتركة” أن منظمة العفو الدولية كثيراً ما ترتكب أخطاءً مختلفة عن تلك التي يرتكبها البشر ، بطرق قد تبدو غير مفهومة. على سبيل المثال ، لا تستطيع السيارات ذاتية القيادة الحالية التفكير في الموقع ولا في نوايا المشاة بالطريقة الدقيقة التي يفعلها البشر ، وبدلاً من ذلك يجب عليهم استخدام طرق التفكير غير البشرية لتجنب الحوادث.

مشاكل
يتمثل الهدف الكلي للبحث في الذكاء الاصطناعي في إنشاء تقنية تتيح لأجهزة الكمبيوتر والآلات العمل بطريقة ذكية. تم تقسيم المشكلة العامة المتمثلة في محاكاة (أو خلق) الذكاء إلى مشاكل فرعية. وتتألف هذه السمات من سمات أو قدرات معينة يتوقع الباحثون وجود نظام ذكي لعرضها. تلقت السمات الموضحة أدناه أكبر قدر من الاهتمام.

التفكير ، حل المشكلات
طور باحثون مبكرا خوارزميات تقلد المنطق التدريجي الذي يستخدمه البشر عند حل الألغاز أو إجراء استنتاجات منطقية. بحلول أواخر الثمانينيات والتسعينيات ، طورت أبحاث الذكاء الاصطناعي أساليب للتعامل مع المعلومات غير المؤكدة أو غير المكتملة ، باستخدام مفاهيم من الاحتمالات والاقتصاد.

أثبتت هذه الخوارزميات أنها غير كافية لحل مشكلات الاستدلال الكبيرة ، لأنها شهدت “انفجار اندماجي”: فقد أصبحت أبطأ بشكل كبير مع نمو المشكلات بشكل أكبر. في الواقع ، حتى البشر نادراً ما يستخدمون الاستنتاج خطوة بخطوة التي تمكنت أبحاث الذكاء الاصطناعى المبكرة من وضع نموذج لها. يحلون معظم مشاكلهم باستخدام أحكام سريعة وبديهية.

تمثيل المعرفة
تمثيل المعرفة وهندسة المعرفة هما أمران محوريان لأبحاث الذكاء الاصطناعى الكلاسيكية. تحاول بعض “الأنظمة الخبيرة” جمع المعرفة الواضحة التي يمتلكها الخبراء في بعض المجالات الضيقة. بالإضافة إلى ذلك ، تحاول بعض المشاريع جمع “المعرفة المنطقية” المعروفة للشخص العادي في قاعدة بيانات تحتوي على معرفة واسعة حول العالم. ومن بين الأشياء التي يمكن أن تتضمنها قاعدة معارف شاملة منطقية هي: الأشياء ، الخصائص ، الفئات والعلاقات بين الأشياء ؛ المواقف والأحداث والحالات والوقت ؛ أسباب وآثار؛ المعرفة حول المعرفة (ما نعرفه عن ما يعرفه الآخرون) ؛ والعديد من المجالات الأخرى الأقل بحثًا. إن تمثيل “ما هو موجود” هو علم الوجود: مجموعة من الكائنات والعلاقات والمفاهيم والخصائص التي تم وصفها بشكل رسمي بحيث يمكن لوكلاء البرامج تفسيرها. يتم التعرف على دلالات هذه الكلمات كمفاهيم وصف المنطقية ، والأدوار ، والأفراد ، وعادة ما يتم تنفيذها كفئات وخصائص وأفراد في لغة علم الوجود على الإنترنت. يُطلق على الأنطولوجيات الأكثر شموليةً اسم الأنطولوجيات العليا ، والتي تحاول توفير أساس لجميع المعارف الأخرى من خلال العمل كوسيط بين أنطولوجي النطاق التي تغطي معرفة محددة حول مجال معرفة معين (مجال الاهتمام أو مجال الاهتمام). ويمكن استخدام مثل هذه التمثيلات الرسمية في الفهرسة واسترجاع المحتوى ، وتفسير المشهد ، ودعم اتخاذ القرار السريري ، واكتشاف المعرفة (الاستدلال “المثير للاهتمام” ، والاستدلالات القابلة للتنفيذ من قواعد البيانات الكبيرة) ، وغيرها من المجالات.

من بين أصعب المشاكل في تمثيل المعرفة:

الاستدلال الافتراضي ومشكلة التأهيل
العديد من الأشياء التي يعرفها الناس تأخذ شكل “افتراضات العمل”. على سبيل المثال ، إذا ظهر طائر في محادثة ، فإن الناس عادة يصورون حيوانًا بحجم قبضة اليد ، يغني ، ويطير. لا شيء من هذه الأشياء يصدق على جميع الطيور. حدد جون مكارثي هذه المشكلة في عام 1969 باعتبارها مشكلة المؤهلات: لأي قاعدة منطقية يهتم بها باحثو الذكاء الاصطناعي ، هناك عدد كبير من الاستثناءات. لا شيء تقريبا هو ببساطة صواب أو خطأ في الطريقة التي يتطلبها المنطق التجريدي. وقد بحثت أبحاث منظمة العفو الدولية عددا من الحلول لهذه المشكلة.

اتساع المعرفة المنطقية
عدد الحقائق الذرية التي يعرفها الشخص العادي كبير جدا. تتطلب المشاريع البحثية التي تحاول بناء قاعدة معارف كاملة من المعرفة المنطقية (مثل Cyc) كميات هائلة من الهندسة الأنطولوجية الشاقة – يجب أن تُبنى باليد ، مفهومًا واحدًا معقدًا في كل مرة.

شكل subymbolic من بعض المعرفة المنطقية
معظم ما يعرفه الناس لا يمثله “الحقائق” أو “العبارات” التي يمكن التعبير عنها لفظيا. على سبيل المثال ، سوف يتجنب سيد الشطرنج مركزًا معينًا للشطرنج لأنه “يبدو معرضًا للغاية” أو يمكن لأحد النقاد الفنية أن يلقي نظرة على تمثال وأن يدرك أنه مزيف. هذه هي الحدس أو الميول دون وعي رمزي في الدماغ البشري. مثل هذه المعرفة يعلم ويدعم ويوفر السياق للمعرفة الرمزية والوعي. وكما هو الحال مع مشكلة التفكير المنطقي شبه الرمزي ، من المأمول أن يوفر الذكاء الاصطناعي أو الذكاء الحسابي أو الذكاء الاصطناعي الإحصائي سبلاً لتمثيل هذا النوع من المعرفة.

تخطيط
يجب أن يكون الوكيل الذكي قادرًا على تحديد الأهداف وتحقيقها. إنهم بحاجة إلى طريقة لتصور المستقبل – تمثيل لحالة العالم والقدرة على إجراء تنبؤات حول كيفية تغيير أفعالهم – والقدرة على اتخاذ خيارات تزيد من فائدة (أو “قيمة”) الخيارات المتاحة. .

في مشاكل التخطيط الكلاسيكية ، يمكن للوكيل افتراض أنه النظام الوحيد الذي يتصرف في العالم ، مما يسمح للوكيل أن يكون على يقين من عواقب أفعاله. ومع ذلك ، إذا لم يكن الوكيل هو الفاعل الوحيد ، فعندئذ يتطلب الأمر أن يكون الوكيل قادراً على التفكير في ظل عدم اليقين. هذا يستدعي وجود وكيل لا يمكنه فقط تقييم بيئته وإجراء التنبؤات ، بل أيضًا تقييم توقعاته والتكيف بناءً على تقييمه.

يستخدم التخطيط متعدد العوامل التعاون والمنافسة بين العديد من الوكلاء لتحقيق هدف معين. يتم استخدام السلوك الناشئ مثل هذا من خلال الخوارزميات التطورية والذكاء سرب.

تعلم
التعلم الآلي ، وهو مفهوم أساسي لأبحاث الذكاء الاصطناعى منذ بداية هذا المجال ، هو دراسة خوارزميات الكمبيوتر التي تتحسن أوتوماتيكيا من خلال التجربة.

التعلم غير المراقب هو القدرة على إيجاد أنماط في دفق من المدخلات. يشمل التعلم الخاضع للإشراف كلا من التصنيف والانحدار العددي. يتم استخدام التصنيف لتحديد الفئة التي ينتمي إليها شيء ما ، بعد مشاهدة عدد من الأمثلة للأشياء من عدة فئات. الانحدار هو محاولة إنتاج دالة تصف العلاقة بين المدخلات والمخرجات وتتنبأ بكيفية تغيير المخرجات مع تغير المدخلات. يمكن النظر إلى كلا المصنفين والمتعلمين على الانحدار على أنهم “مقربون للأداء الوظيفي” يحاولون تعلم وظيفة غير معروفة (ربما ضمنية) ؛ على سبيل المثال ، يمكن مشاهدة مصنف الرسائل غير المرغوب فيها على أنها تعلم وظيفة تحدد من نص رسالة بريد إلكتروني إلى واحدة من فئتين ، “رسائل غير مرغوب فيها” أو “ليست رسائل غير مرغوب فيها”. يمكن لنظرية التعلم الحسابي تقييم المتعلمين بالتعقيد الحسابي ، من خلال تعقيد العينة (كم البيانات المطلوبة) ، أو بمفاهيم أخرى للتحسين. في التعلم التعزيزي يكافأ الموظف على الردود الجيدة ويعاقب على السيئة. يستخدم الوكيل هذا التسلسل من المكافآت والعقوبات لتشكيل إستراتيجية للتشغيل في مساحة المشكلة.

معالجة اللغة الطبيعية
تمنح معالجة اللغات الطبيعية (NLP) الآلات القدرة على قراءة وفهم اللغة البشرية. ومن شأن نظام معالجة اللغة الطبيعية القوي بما فيه الكفاية أن يمكّن واجهات المستخدم التي تستخدم لغة طبيعية واكتساب المعرفة مباشرة من مصادر مكتوبة بالإنسان ، مثل نصوص الأخبار. وتشمل بعض التطبيقات المباشرة لمعالجة اللغة الطبيعية استرجاع المعلومات ، وتعدين النصوص ، وإجابة الأسئلة ، والترجمة الآلية. تستخدم العديد من الطرق الحالية ترددات تكرار الكلمة لبناء تمثيل نحوي للنص. استراتيجيات “اكتشاف الكلمات الرئيسية” للبحث شائعة وقابلة للتطوير ولكنها غبية ؛ قد يطابق استعلام البحث عن “dog” المستندات فقط مع الكلمة الحرفية “dog” ويفوت وثيقة تحتوي على كلمة “poodle”. تستخدم استراتيجيات “التقارب المعجمي” حدوث كلمات مثل “حادث” لتقييم مشاعر المستند. يمكن لمناهج البرمجة اللغوية العصبية الإحصائية الحديثة أن تجمع بين كل هذه الاستراتيجيات وغيرها ، وتحقق في كثير من الأحيان دقة مقبولة على مستوى الصفحة أو الفقرة ، لكنها لا تزال تفتقر إلى الفهم الدلالي المطلوب لتصنيف الجمل المعزولة بشكل جيد. وإلى جانب الصعوبات المعتادة في ترميز المعرفة المنطقية ، فإن البرمجة اللغوية العصبية اللغوية الموجودة تتقارب في بعض الأحيان بدرجة لا يمكن معها أن تكون قابلة للتطبيق في تطبيقات الأعمال. أبعد من البرمجة اللغوية العصبية الدلالي ، فإن الهدف النهائي من “سرد” البرمجة اللغوية العصبية هو تجسيد فهم كامل للتفكير المنطقي.

المعرفة
الإدراك الحسي للقدرة هو القدرة على استخدام مدخلات من أجهزة الاستشعار (مثل الكاميرات (الطيف المرئي أو الأشعة تحت الحمراء) والميكروفونات والإشارات اللاسلكية وأجهزة الاستشعار النشيطة والسونار والرادار وأجهزة استشعار اللمس) لاستنباط جوانب من العالم. وتشمل التطبيقات التعرف على الكلام ، التعرف على الوجه ، والتعرف على الأشياء. رؤية الكمبيوتر هي القدرة على تحليل المدخلات البصرية. هذه المدخلات عادة ما تكون غامضة. فالمشاة العملاقة التي يبلغ طولها خمسين مترا يمكنها أن تنتج نفس البكسلات بالضبط كمشاة طبيعية قريبة الحجم ، مما يتطلب من الذكاء الاصطناعي أن يحكم على الاحتمالية النسبية ومعقولية التفسيرات المختلفة ، على سبيل المثال باستخدام “نموذج الكائن” لتقييمه. أن المارة التي يبلغ طولها خمسين متراً لا وجود لها.

الحركة والتلاعب
يستخدم AI بكثرة في الروبوتات. يمكن للأسلحة الآلية المتقدمة والروبوتات الصناعية الأخرى ، التي تستخدم على نطاق واسع في المصانع الحديثة ، أن تتعلم من تجربة كيفية التحرك بكفاءة على الرغم من وجود الاحتكاك والانزلاق في العتاد. يمكن للروبوت المتحرك الحديث ، عند إعطائه بيئة صغيرة وثابتة ومرئية ، أن يحدد موقعه بسهولة ويحدد بيئته. ومع ذلك ، فإن البيئات الديناميكية ، مثل (في التنظير الداخلي) الداخلية لجسم تنفس المريض ، تشكل تحديًا أكبر. تخطيط الحركة هو عملية كسر مهمة الحركة إلى “الأوليات” مثل حركات المفاصل الفردية. غالباً ما تتضمن هذه الحركة حركة متوافقة ، وهي عملية تتطلب الحركة الحفاظ على اتصال جسدي مع كائن ما. إن مفارقة مورافيتش تعمم أن المهارات الحسية ذات المستوى المنخفض التي يأخذها البشر كأمر مسلم به ، يصعب برمجةها على نحو آلي ؛ تم تسمية المفارقة بعد هانز مورافيك ، الذي ذكر في عام 1988 أنه “من السهل نسبيا جعل أجهزة الكمبيوتر تظهر أداء على مستوى الكبار في اختبارات الذكاء أو لعب لعبة الداما ، ومن الصعب أو المستحيل لمنحهم مهارات طفل عمره عام واحد عندما يأتي إلى الإدراك والحركة “. ويعزى ذلك إلى حقيقة أن البراعة البدنية ، على عكس لعبة الداما ، كانت هدفا مباشرا للانتقاء الطبيعي لملايين السنين.

الذكاء الاجتماعي
يمكن توسيع مفارقة مورافيتش لتشمل العديد من أشكال الذكاء الاجتماعي. لا يزال التنسيق متعدد الموزع بين المركبات ذاتية التشغيل يمثل مشكلة صعبة. الحوسبة الوجدانية هي مظلة متعددة التخصصات تضم أنظمة تعترف بتأثيرات الإنسان أو تفسرها أو تعالجها أو تحاكيها. وتشمل النجاحات المعتدلة المرتبطة بالحوسبة العاطفية تحليل المشاعر النصية ، ومؤخرًا تحليل التأثير المتعدد الوسائط (انظر تحليل المشاعر المتعددة الوسائط) ، حيث تصنف منظمة العفو الدولية التأثيرات التي يعرضها موضوع مصور بالفيديو.

على المدى الطويل ، ستكون المهارات الاجتماعية وفهم عاطفة الإنسان ونظرية اللعبة ذات قيمة بالنسبة لعامل اجتماعي. إن القدرة على التنبؤ بأفعال الآخرين من خلال فهم دوافعهم وحالاتهم العاطفية ستسمح للوكيل باتخاذ قرارات أفضل. تحاكي بعض أنظمة الكمبيوتر العاطفة البشرية والتعبيرات بحيث تبدو أكثر حساسية للديناميات العاطفية للتفاعل البشري ، أو لتسهيل التفاعل بين الإنسان والحاسوب. وبالمثل ، فإن بعض المساعدين الافتراضيين مبرمجون للتحدث بشكل تحاوري أو حتى المزاح بضحكة ؛ يميل هذا إلى إعطاء المستخدمين الساذجين مفهومًا غير واقعي عن مدى كفاءة أجهزة الكمبيوتر الموجودة بالفعل.

المخابرات العامة
تاريخياً ، حاولت مشاريع مثل قاعدة المعرفة Cyc (1984 -) ومبادرة الأنظمة الحاسوبية اليابانية للجيل الخامس الهائلة (1982-1992) تغطية نطاق المعرفة البشرية. فشلت هذه المشاريع المبكرة في التغلب على قيود النماذج المنطقية الرمزية غير الكمية ، وفي الماضي ، قللت إلى حد كبير من صعوبة AI عبر النطاقات. في الوقت الحاضر ، تعمل الغالبية العظمى من الباحثين الحاليين في منظمة العفو الدولية بدلاً من ذلك على تطبيقات “AI الضيقة” القابلة للضغط (مثل التشخيص الطبي أو الملاحة في السيارات). يتنبأ العديد من الباحثين بأن مثل هذه الأعمال “الضيقة الذكاء الاصطناعي” في مجالات فردية مختلفة سيتم دمجها في نهاية المطاف في آلة ذات ذكاء عام اصطناعي (AGI) ، تجمع بين معظم المهارات الضيقة المذكورة في هذه المقالة ، وفي بعض الأحيان تتجاوز القدرة البشرية في معظمها أو كل هذه المجالات. العديد من التقدم لها أهمية عامة ، عبر المجال. أحد الأمثلة البارزة هو أن DeepMind في عام 2010 طور “الذكاء الاصطناعي المعمم” الذي يمكن أن يتعلم العديد من الألعاب المتنوعة من Atari بنفسه ، وبعد ذلك طور متغيرًا من النظام الذي نجح في التعلم المتسلسل. إلى جانب نقل التعلم ، يمكن أن تتضمن اختراقات AGI الافتراضية تطوير معماريات انعكاسية يمكنها المشاركة في الاستنتاج النظري للقراءات ، ومعرفة كيفية “إحياء” قاعدة معارف شاملة من الويب غير المنظم بالكامل. يجادل البعض بأن هناك نوعًا من (غير مكتشفة حاليًا) مفهوميًا ، لكن صعبًا رياضياً ، يمكن أن تؤدي “الخوارزمية الرئيسية” إلى AGI. وأخيرًا ، هناك مقاربات قليلة “ناشئة” تتطلع إلى محاكاة الذكاء البشري عن كثب ، وتعتقد أن السمات المجسمة مثل الدماغ الاصطناعي أو تطور الطفل المحاكى قد تصل في يوم من الأيام إلى نقطة حرجة تنشأ عنها ذكاء عام.

قد تتطلب العديد من المشاكل في هذه المقالة أيضًا ذكاءً عامًا ، إذا كانت الآلات ستحل المشاكل كما يفعل الأشخاص. على سبيل المثال ، تتطلب مهام محددة واضحة ، مثل الترجمة الآلية ، أن يقوم الجهاز بقراءة وكتابة بكلتا اللغتين (NLP) ، واتباع حجة المؤلف (السبب) ، ومعرفة ما يجري الحديث عنه (المعرفة) ، وإعادة إنتاج الأصل الأصلي للمؤلف بأمانة. نية (ذكاء اجتماعي). تعتبر مشكلة مثل الترجمة الآلية “AI-complete” ، لأن كل هذه المشاكل تحتاج إلى حلها في وقت واحد من أجل الوصول إلى أداء الماكينة على مستوى الإنسان.