قوانين الروبوتات هي مجموعة من القوانين أو القواعد أو المبادئ ، والتي يقصد بها إطار أساسي لدعم سلوك الروبوتات المصممة لتحقيق درجة من الاستقلالية. إن الروبوتات من هذه الدرجة من التعقيد غير موجودة حتى الآن ، ولكنها كانت متوقعة على نطاق واسع في الخيال العلمي والأفلام وهي موضوع للبحث والتطوير النشط في مجالات الروبوتات والذكاء الاصطناعي.

مجموعة القوانين المعروفة هي تلك التي كتبها إسحاق آسيموف في الأربعينيات من القرن العشرين ، أو المستندة إليها ، ولكن تم اقتراح مجموعات أخرى من القوانين من قبل الباحثين في العقود منذ ذلك الحين.

اسحق اسيموف “ثلاثة قوانين من الروبوتات”
أشهر مجموعة من القوانين هي “قوانين الروبوتات الثلاثة” لإسحاق آسيموف. تم تقديم هذه القصص في قصته القصيرة “Runaround” عام 1942 ، على الرغم من أنها كانت تنبأت في بعض القصص السابقة. القوانين الثلاثة هي:

قد لا يصيب الإنسان الآلي إنسانًا أو ، من خلال التقاعس عن العمل ، يسمح للإنسان بالضرر.
يجب أن يلتزم الروبوت بالأوامر المقدمة من البشر إلا إذا تعارضت هذه الأوامر مع القانون الأول.
يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القوانين الأولى أو الثانية.

قرب نهاية كتابه التأسيسي وأرضه ، تم تقديم قانون زيروت:

قد لا يصيب الإنسان الآلي البشرية ، أو ، عن طريق التقاعس عن العمل ، السماح للبشرية بالضرر.

التكيفات والتمديدات موجودة على أساس هذا الإطار. واعتبارًا من عام 2011 ، ظلوا “جهازًا خياليًا”.

مبادئ EPSRC / AHRC من الروبوتات
في عام 2011 ، نشر مجلس أبحاث العلوم والهندسة الفيزيائية (EPSRC) ومجلس أبحاث الفنون والعلوم الإنسانية (AHRC) في بريطانيا العظمى مجموعة من خمسة مبادئ أخلاقية “للمصممين والبناة ومستخدمي الروبوتات” في العالم الحقيقي ، مع سبعة “رسائل رفيعة المستوى” يقصد نقلها ، بناءً على ورشة عمل بحثية في سبتمبر 2010:

يجب أن لا يتم تصميم الروبوتات بشكل حصري أو أساسي لقتل البشر أو إلحاق الأذى بهم.
البشر ، وليس الروبوتات ، هم وكلاء مسؤولة. الروبوتات هي أدوات مصممة لتحقيق الأهداف البشرية.
يجب تصميم الروبوتات بطرق تضمن سلامتها وأمنها.
الروبوتات هي القطع الأثرية. لا ينبغي أن تصمم لاستغلال المستخدمين الضعفاء من خلال إثارة استجابة عاطفية أو التبعية. يجب أن يكون من الممكن دائمًا إخبار إنسان آلي من الإنسان.
يجب أن يكون من الممكن دائمًا معرفة من هو المسؤول قانونًا عن الروبوت.

Related Post

كانت الرسائل المراد نقلها هي:

نعتقد أن الروبوتات لديها القدرة على توفير تأثير إيجابي كبير على المجتمع. نريد أن نشجع بحث الروبوت المسؤول.
الممارسة السيئة تؤلمنا جميعًا.
إن معالجة المخاوف العامة الواضحة ستساعدنا جميعًا على إحراز تقدم.
من المهم أن نثبت أننا ، كإنساليين ، ملتزمون بأفضل معايير الممارسة الممكنة.
لفهم سياق ونتائج أبحاثنا ، يجب أن نعمل مع خبراء من تخصصات أخرى ، بما في ذلك: العلوم الاجتماعية والقانون والفلسفة والفنون.
ينبغي أن ننظر في أخلاقيات الشفافية: هل هناك حدود لما ينبغي أن يكون متاحًا بشكل مفتوح؟
عندما نرى حسابات خاطئة في الصحافة ، نلتزم بأخذ الوقت الكافي للاتصال بالصحفيين المبلّغين.

يتم التعرف على مبادئ EPSRC على نطاق واسع كنقطة انطلاق مفيدة. في عام 2016 ، نظم توني بريسكوت ورشة عمل لمراجعة هذه المبادئ ، على سبيل المثال للتمييز بين المبادئ الأخلاقية والمبادئ القانونية.

التطوير القضائي
آخر التدوين المصطلحات شاملة للتقييم القانوني للتطورات التكنولوجية في صناعة الروبوتات قد بدأت بالفعل بشكل رئيسي في البلدان الآسيوية. يمثل هذا التقدم إعادة تفسير معاصرة للقانون (والأخلاق) في مجال الروبوتات ، وهو تفسير يفترض إعادة التفكير في الأبراج القانونية التقليدية. وتشمل هذه في المقام الأول قضايا المسؤولية القانونية في القانون المدني والجنائي.

قوانين ساتيا Nadella
في يونيو 2016 ، أجرت ساتيا نادلا ، الرئيس التنفيذي لشركة مايكروسوفت في ذلك الوقت ، مقابلة مع مجلة سليت وقامت بوضع خمسة قواعد للذكاء الاصطناعي تقريبًا ليراها مصمموها:

“يجب أن تصمم منظمة العفو الدولية لمساعدة الإنسانية” بمعنى أنه يجب احترام استقلالية الإنسان.
“يجب أن تكون منظمة العفو الدولية شفافة” وهذا يعني أن البشر يجب أن يعرفوا وأن يكونوا قادرين على فهم طريقة عملهم.
“يجب على منظمة العفو الدولية تحقيق أقصى قدر من الكفاءة دون تدمير كرامة الناس”.
“يجب أن تصمم منظمة العفو الدولية للخصوصية الذكية” بمعنى أنها تكسب الثقة من خلال حراسة معلوماتها.
“يجب أن يكون لدى منظمة العفو الدولية المساءلة الخوارزمية حتى يتمكن البشر من التسبب في ضرر غير مقصود”.
“يجب أن تحمي منظمة العفو الدولية من التحيز” حتى لا تميز ضد الناس.

Tilden “قوانين الروبوتات”
مارك دبليو تيلدن عالم فيزياء الروبوتيات كان رائدا في تطوير الروبوتات البسيطة. مبادئه / قواعده الثلاثة للروبوتات هي:

يجب على الروبوت حماية وجوده بأي ثمن.
يجب على الروبوت الحصول على الوصول إلى مصدر الطاقة الخاص به والمحافظة عليه.
يجب على الروبوت البحث باستمرار عن مصادر طاقة أفضل.
ما هو ملحوظ في هذه القواعد الثلاثة هو أن هذه هي أساسا قواعد للحياة “البرية” ، لذلك في جوهرها ما قاله تيلدن هو أن ما يريده هو “مراقبة نوع السليكون في المشاعر ، ولكن مع السيطرة الكاملة على المواصفات. لا يزرع. ليس حيوانًا ، شيء آخر “.

Share