منوعات

لماذا على الروبوتات أن تتعلم قول كلمة “لا”؟


إن من أحد أهم المسائل الأخلاقية المتعلقة بالروبوتات هي إعطائُها القدرة على الرفض.

هل عليك دوماً أن تفعل ما يقوله لك الآخرون؟ بالطبع لا، والكل يعرف ذلك. إذن، هل ستُطيع روبوتات المستقبل أوامرنا دائماً؟

ستعتقد للوهلة الأولى بأن الإجابة هي نعم، لأنها ببساطة عبارة عن آلات، وهي مصمّمة على إطاعة الأوامر. فكّر للحظة بكل الأوقات التي لم تستمع فيها لأوامر الآخرين، ثم تخيل بأن روبوتاً يقف مكانك في تلك الحالات.

تأمل الحالات التالية:
●روبوت لرعاية العجائز؛ يُؤمر من قبل مالكه كثير النسيان بتنظيف الملابس التي خرجت للتو من آلة الغسيل

●طفل صغير يأمر روبوت الرعاية اليومية برمي الكرة خارج النافذة

●طالب يأمر مدرسّه الروبوت بإنجاز وظائفه المدرسية كلها

● روبوت منزلي يؤمر من قبل صاحبه المشغول؛ بالتخلص من وعاء القمامة مع وجود الملاعق والسكاكين بداخله

يوجد الكثير من الحالات التي يتلقى فيها الروبوت أوامر يمكن أن تؤدي إلى نتائج غير مرغوبة، لكن ليست كل الحالات تُحمد عقباها؛ حتى لو بدت الأوامر كذلك في البداية.

تخيل أن روبوتَ سيارةٍ أُعطي أمراً بالرجوع للخلف مع وجود كلبٍ نائمٍ على الممر وراءه، أو أن روبوتاً مساعداً في المطبخ أُعطي أمراً بالتقدم نحو الطاهي وهو يحمل سكيناً. إن مثل تلك الأوامر بسيطةٌ، لكنّ عواقبها وخيمة.

كيف نستطيع نحن البشر أن نتجنب النتائج المؤذية لطاعة الروبوت العمياء؟ لو كان الالتفاف حول الكلب النائم مستحيلاً، فيجب على السيارة الروبوت رفضَ أمر الرجوع. وبالمثل، لو كان تجنب طعن الطاهي غير ممكنٍ، فيجب على روبوت المطبخ التوقف؛ أو عدم حمل السكينة أصلاً.

في كلتا الحالتين؛ يجب على الآلة ذاتية التحكم أن تكتشف الخطر المحتمل لفعلها، وأن تستجيب له إما بتجنب الخطر أو بعدم تنفيذ الأمر المسبّب له. كيف يمكننا تعليم الروبوت متى يرفض الأمر ويقول ’لا‘؟

كيف يمكن للروبوت معرفة ماذا سيحدث لاحقا؟
نقوم في مخبرنا بتطوير أنظمة تحكم للروبوتات لتقوم بوظيفة الاستدلال، بناء على أوامر الإنسان. ستحدد هذه الأنظمة فيما إذا كان الروبوت سيطيع الأوامر أو سيرفضها؛ بسبب خرقِها أحد المبادئ الأخلاقية المبرمجة فيه.

إن تعليم الروبوت كيف ومتى ولماذا يرفض الأوامر؛ هو أمرٌ سهلا قول، وصعب الفعل. إذ إن تحديد ماهية الأذى، أو المشاكل الناتجة عن فعلٍ ما، هو أكثر من مسألة النظر إلى النتائج المباشرة. على سبيل المثال؛ إن الكرة المرمية إلى خارج النافذة قد لا تسبب الأذى فيما إذا وقعت في الباحة الخلفية، لكنها قد تصل إلى أحد الشوارع المكتظة مسببةً انحراف أحد السيارات وتحطمها. تختلف النتائج باختلاف السياق.

من الصعب على روبوتات اليوم تحديدَ كون رمي الكرة أمراً صحيحاً؛ في حال اللعب مع طفل، أو خاطئاً؛ في حال رميها من النافذة أو في القمامة. والأمر أصعب بكثيرٍ فيما إذا كان الطفل يريد خداع الروبوت، وأمَرَه برمي الكرة إليه؛ ليتجنبها الطفل وتخرج من النافذة.

شرح الأخلاقيات والقانون للروبوتات
إن فهم تلك المخاطر يتطلب الكثير من المعرفة السابقة، مثل معرفة بأن اللعب بالكرة أمام نافذةٍ مفتوحةٍ قد يؤدي إلى خروجها منها. إن ذلك الفهم لا يتطلب من الروبوت أن يتوقع النتائج المباشرة فحسب، بل عليه أن يتنبّأ بنوايا الإنسان الذي يعطي الأوامر.

لمعالجة تعقيدات الأوامر البشرية؛ صادقةً كانت أم لا، يحتاج الروبوت إلى التفكير في عواقب الأفعال، ومقارنة نتائجها مع المبادئ والأخلاق الاجتماعية، لمعرفة ما هو مسموح منها وما هو غير ذلك.

كما رأينا في الأعلى؛ يمتلك الروبوت قاعدةً تقول: “إذا أُمِرتَ بشيءٍ يسبب الأذى، يمكنك ألّا تنفذ الأمر”. إن عملية الربط بين الأوامر والصلاحيات يسمح بوضوح للروبوت بالتفكير في جميع النتائج الممكنة للأمر، ثم اختيار قبول الأمر من عدمه.

عموماً، يجب على الروبوت عدم القيام بالأفعال المحظورة، وكذلك الأفعال المباحة غير المرغوبة. وبالتالي، تحتاج الروبوتات إلى طريقة لتمثيل القوانين ومبادئ الأخلاق وحتى آداب السلوك، من أجل تحديد فيما إذا كانت الأوامر أو حتى الأفعال مؤديةً إلى انتهاك تلك المبادئ والقوانين.

بينما تحتاج برامجنا إلى الكثير من أجل تحقيق ما نصبو إليه في الأمثلة السابقة، تحقّق أنظمتنا الحالية أحد أهم النقاط، وهي: “يجب على الروبوت أن يتمكن من مخالفة الأوامر من أجل أن يطيعها”.

البيان