علوم و تكنلوجيا

بالفيديو .. الذكاء الاصطناعي مخيف، والبشر هم السبب الحقيقي لهذا


ستطيع مهندسو البرمجيات أن يحولوا الأسلحة الذكية بسهولة بالغة إلى آلات قتل عشوائي.

للأسف، أثارت الضجة الأخيرة ضد أسلحة الذكاء الاصطناعي اللبس، إذ تمت شيطنة الروبوتات بادعاء أنها ستسيطر على العالم. وعلى المدى القريب، يعتبر هذا السيناريو غير منطقي بالمرة، فعلى العكس من الأسلحة التقليدية ذات التحكم البشري، تمثل أسلحة الذكاء الاصطناعي خطرًا حقيقيًّا، ويوجد سبب وجيه وراء حظرها.

لقد شهدنا بالفعل لمحة عن مستقبل الذكاء الاصطناعي من خلال سيارات جوجل ذاتية القيادة. تخيل لو سرقت إحدى العصابات الوحشية تلك السيارة، وقامت بتثبيت سلاح أعلاها، وأعادوا برمجتها لتطلق النار على الناس، فهذا بالتحديد هو سلاح ذكاء اصطناعي.

لم تفارق إمكانات تلك الأسلحة خيالات الحكومات، فقد شهدنا مؤخرًا إعلان البحرية الأمريكية عن خططها لتطوير أسلحة ذاتية التحكم، وكذلك إعلان حكومة كوريا الجنوبية عن تصنيع أسلحة ” Super aEgis II“، وإعلان الحكومة الروسية عن أسلحة “Platform-M” القتالية الآلية.

لكن ليست الحكومات هي الطرف الوحيد الذي يستطيع تصنيع أسلحة الذكاء الاصطناعي. على سبيل المثال، تخيل نجاح شركة جوبرو الأمريكية – المتخصصة في صناعة الكاميرات الرقمية- في تصنيع كوادكوبتر بدون طيار، وهي طوافة عمودية متعددة المراوح تستخدم أحيانًا في التجسس، والتي أصبح بإمكان أي شخص أن يشتريها. زد على ذلك، بساطة البرنامج المشغل الذي يسمح لتلك الطوافة بالطيران ذاتيًّا. حينها ستدرك مدى اقتراب العصابات الوحشية وشركات إنتاج الأسلحة الخاصة التي تمكنت من تسليح سيارة جوجل ذاتية القيادة، من إضافة بندقية لذلك النوع من الطوافات، وبرمجتها لقتل الناس في الأماكن المزدحمة.

هذا بالتحديد هو الخطر المباشر لأسلحة الذكاء الاصطناعي؛ إذ يمكن تحويلها بسهولة لآلات قتل عشوائي أكثر خطورة من أي سلاح مماثل يحمله أو يوجهه إنسان.
محاولات حظرها

وقع كل من ستيفن هوكينغ وماكس تاجمارك وإيلون موسك وغيرهم عريضة مؤسسة “فيوتشر أوف لايف”، لحظر استخدام أسلحة الذكاء الاصطناعي، وهي مؤسسة بحثية قائمة على التطوع، تهدف إلى تخفيف حدة الأخطار التي تهدد مستقبل البشرية، وبالأخص التهديد الذي يمثله الذكاء الاصطناعي وأسلحته. وقد تلقت المؤسسة تبرع بلغت قيمته 10 مليون دولار من السيد موسك في يناير/ كانون الثاني الماضي. وفي أعقاب ذلك، عقدت الأمم المتحدة اجتماعًا تحت عنوان “الروبوتات القاتلة” في أبريل. إلا أنه لم يؤت ثماره، إذ لم يؤد إلى أية قرارات سياسية إستراتيجية دائمة. يؤكد الخطاب الذي صاحب العريضة على أن خطر أسلحة الذكاء الاصطناعي مباشر ووشيك، مما يتطلب التحرك السريع لتجنب حدوث كوارث في غضون السنوات القليلة المقبلة. لكن، للأسف لم توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي هي التي تلوح بالخطر في الأفق القريب.

وقد أعرب الكثيرون عن تخوفاتهم من نهاية للعالم كارثية مروعة، كما في سيناريوهات سلسلة أفلام تيرميناتور Terminator، حيث تطور الروبوتات مقدرة شبيهة بمقدرة البشر على التفاعل مع العالم المحيط بنفسها، بشكل كامل ذاتي، وبالتالي ستحاول غزو العالم والسيطرة عليه. فعلى سبيل المثال، حذر سير مارتن ريس – عالم فيزياء ورائد فضاء- في محادثته على موقع تيد من السيناريوهات المروعة لتطور الربوتات قائلًا: “روبوتات غبية تصبح شريرة، شبكة تُطوِّرعقلها بنفسها ذاتيًّا”. وأعرب الفيلسوف هيو برايس – زميله في جامعة كامبريدج- عن نفس المخاوف في مقاله على موقع ذا نيويورك تايمز، وأن البشرية قد لا تنجو إذا ما تخطى الذكاء الاصطناعي القيود البيولوجية. وبالتعاون معًا، أسس سير ريس وزميله هيو برايس، مركز دارسة المخاوف الوجودية “Centre for the Study of Existential Risk” التابع لجامعة كامبريدج، للمساعدة في تجنب تلك التهديدات المثيرة الكارثية للوجود البشري.
أين نحن من ذكاء اصطناعي كهذا؟

بالتأكيد تستحق تلك السيناريوهات الدراسة، إلا أنها تظل أقل قبولاً ومعقولية، ولا سيما أقل إلحاحًا بكثير من الخطر الوشيك الذي تمثله أسلحة الذكاء الاصطناعي الآن.

والسؤال المطروح الآن هو “أين نحن من تطوير ذكاء اصطناعي يشبه الإنسان الآن؟”. حسب كل المعايير، الإجابة هي أننا لسنا قريبين من تحقيق ذلك. فعلى سبيل المثال، وصفت مؤخرًا وسائل الإعلام المختلفة برنامج جامعة ريدينغ المسمى بـ “يوجين غوستمان”، وهو ذكاء اصطناعي حاسوبي يقوم بإجراء محادثات عبر الإنترنت كطفل أوكراني عمره 13 سنة، بأنه غاية في الذكاء، إذ تمكن من خداع بعض الناس، وإيهامهم بأنه طفل حقيقي. وذلك على الرغم من أنه بعيد كل البعد عن كونه ذكاء اصطناعيًّا يشبه الإنسان حقيقةً. وقد أثبت ذلك عالم الكمبيوتر سكوت أرونسون، إذ دحض البرنامج كليةً من خلال حوار أجراه مع يوجين، بداية بطرح سؤال بديهي عليه: “أيهما أكبر صندوق أحذية ، أم جبل إيفرست؟”، فعجز البرنامج عن الإجابة، ثم أعقبه بسؤال: “كم عدد أرجل الجمل؟”، فتعثر البرنامج في الإجابة عليه أيضًا؛ ليتعرى البرنامج ويُفضح بأنه لا يشبه الذكاء البشري على الإطلاق.

وعلى الرغم من كل ما سبق، وقَّعنا نحن – كاتبا هذا المقال- على عريضة حظر استخدام أسلحة الذكاء الاصطناعي، والسبب في ذلك، أنه بخلاف شبكات الحاسوب ذات الوعي الذاتي الاصطناعي، أصبحت السيارات ذاتية القيادة المرفق بها رشاشات ممكنة التصنيع الآن. فالخطر الذي تمثله أسلحة الذكاء الاصطناعي لا يتمثل في كونها على وشك السيطرة على العالم، بل المشكله الأساسية تتمثل في سهولة وبساطة إعادة برمجتها بطريقة تمكِّن أي شخص من خلق آلة قتل عشوائية عالية الكفاءة وبتكلفة ذهيدة بشكل لا يصدق. فالآلات في حد ذاتها ليست مخيفة، وإنما ما يمكن أن يفعله أي قرصان كمبيوتر أو مخترق شبكات بتلك الآلات، وبميزانية زَهِيدة نسبيًّا.

تخيل مثلًا صعود أحد الطواغيت المستبدين الراغبين في تدمير المعارضة، وهو مسلح بقاعدة بيانات تضم الانتماءات السياسية لجميع المعارضين وعناوينهم وصورهم. فيما مضى، مثل ذلك الطاغية كان سيحتاج جيشًا من الجنود لإنجاز المهمة، وربما يفشل الجنود في ذلك، لأنه من السهل أن يخدع هؤلاء الجنود أو تتم رشوتهم أو يفقدون رباطة جأشهم فيطلقون النار على الأشخاص غير المستهدفين من الأساس.

لكن يختلف الحال مع طواغيت المستقبل، إذ سيتمكنون من مجرد شراء بضعة آلاف من الطائرات بدون طيار المزودة برشاشات. وبفضل قانون مور، ابتكره غوردون مور أحد مؤسسي شركة إنتل، والذي يوصِّف الزيادة الهائلة في القدرة الحاسوبية للدولار الواحد منذ اختراع الترانزيستور، تنخفض تكلفة طائرة الذكاء الاصطناعي بدون طيار، وبالتالي ستصبح في متناول الأيدي مثلها مثل سهولة ورخص تكلفة البنادق من نوع كلاشنكوف اليوم. إذ يصير بإمكان بضعة مهندسين برمجيات إعادة برمجة الطائرات بدون طيار لتقوم بدوريات قرب منازل وأماكن عمل المنشقين والمعارضين للأنظمة، فتقتلهم في الحال. مثل تلك الطائرات أقل عرضة لارتكاب الأخطاء كما هو الحال مع جنود البشر، ولا يمكنها التأثر بالرشوة أو حتى التأثر عاطفيًّا أيًّا كان موقف القتل، ولعل الأهم من ذلك كله هو كفاءتها التي تفوق قدرة الجنود من بني الإنسان. وبالتالي، يصبح بإمكان أي طاغية سحق المعارضين له، ومحوهم من على وجه الأرض، قبل حتى أن يستجيب المجتمع الدولي، ويتخذ إجراءات بشأنه.

ونظرًا للفعالية الهائلة التي أحدثها التشغيل الآلي، ستزلل أسلحة الذكاء الاصطناعي العقبات أمام كل مختل يسعى لارتكاب مثل تلك الأفعال الوحشية. فما كان ذات مرة اختصاص حصري للطواغيت في السيطرة على جيوش بأكملها، سيصير في متناول الأفراد متوسطي الثراء.

ربما تدعي الحكومات والمصنعون المهتمون بتطوير مثل تلك الأسلحة، أن بإمكانها هندسة وتصنيع ضمانات مناسبة للتأكيد من استحالة إعادة برمجتها أو اختراقها؛ لكن يجب أن تقابَل تلك الادعاءات بالتشكيك. إذ تعرضت ماكينات التصويت الإلكترونية، وماكينات الصراف الآلي، ومشغلات بلوراي، وحتى السيارات المسرعة على الطرق السريعة للاختراق مؤخرًا، على الرغم من درجة تأمينهم العالية التي يتم الإعلان عنها. فقد برهن التاريخ على أنه في نهاية المطاف حتمًا ستتعرض الحواسيب للقرصنة، ولمحاولات إعادة برمجتها وتطويعها من قبل قراصنة مدفوعين لذلك. ومن المستبعد استثناء أسلحة الذكاء الاصطناعي في ذلك.
هل يرقى خطرها لخطر الأسلحة المحرمة دوليًّا؟

منذ عام 1925، حظرت المعاهدات الدولية استخدام الأسلحة البيولوجية والكيميائية في الحروب، وتم حظر استخدام رصاص دوم دوم أو الرصاص المتفجر قبل ذلك في عام 1899، إذ تخلق تلك الأنواع من الأسلحة معاناة شديدة دون داعٍ. فهي بالأخص تهدف لسقوط ضحايا مدنيين مثل استنشاق الناس للغاز السام أو إصابة الأطباء أثناء محاولة انتزاع الرصاص المتفجر من الضحية. فقد حظرت جميع تلك الأسلحة لأنها تخلق معاناة وقتلًا عشوائيًّا بين المدنيين.

“هل توجد فئة معينة من أسلحة الذكاء الاصطناعي التي تستحق نفس القدر من الحظر؟” بالتأكيد، وبما لا يترك مجالًا للشك، نعم. فإذا كان بالإمكان تحويل أي ماكينة ذكاء اصطناعي بسهولة وبتكلفة زهيدة، لآلة قتل جماعي وعشوائي فعالة، إذًا لا بد من عقد اتفاق دولي ضدها. فتلك الآلات لا تختلف كثيرًا عن المعادن المشعة، حيث يمكن استخدامها هي الأخرى لأغراض وجيهة، لكن ينبغي علينا السيطرة عليها بعناية حيث يمكن تحويلها بسهولة لأسلحة مدمرة فتاكة. فالفرق هنا هو أن تطويع ماكينات الذكاء الاصطناعي وإعادة برمجتها يفوق في سهولته تطويع مفاعل نووي.

ينبغي علينا حظر استخدام أسلحة الذكاء الاصطناعي ليس لكونها غير أخلاقية، بل لأن البشر بالتأكيد سيحولونها لوحوش بشعة متعطشة للدماء، وببساطة عن طريق التكويد واستخدام قراصنة الكمبيوتر المأجورين السهل العثور عليهم على شبكات الإنترنت. فشفرة بسيطة بإمكانها تحويل أكبر قدر ممكن من أسلحة الذكاء الاصطناعي، لآلات قتل قادرة على إحداث دمار وقتل، يتجاوز بكثير ما قد تخلفه أي من الأسلحة المحرمة، كالأسلحة الكيميائية والبيولوجية أو حتى الرصاص المتفجر.

يستدعي حظر أنواع معينة من الذكاء الاصطناعي صراعًا مع عدة تساؤلات فلسفية. هل سيتم حظر استخدام أسلحة الذكاء الاصطناعي على مبادرة الدفاع الإستراتيجي للولايات المتحدة الأمريكية، المعروفة شعبيًا باسم “حرب النجوم”؟ ولأنه من الممكن استخدام السيارات كأسلحة، هل ستحظر العريضة استخدام سيارة جوجل ذاتية القيادة؟ أو حتى ستحظر استخدام السيارات ذاتية القيادة الأخرى التي انتشرت في جميع أنحاء المملكة المتحدة؟ ما هو الحد الفاصل بين ما يعتبر ذكاءً وما يعتبر سلاحًا؟

تلك الأسئلة صعبة وهامة في نفس الوقت. لكن الإجابة عليها ليست ملحة بقدر وجوب توافقنا على صياغة اتفاقية للسيطرة على أسلحة الذكاء الاصطناعي. ينبغي على المجتمع الدولي النظر بجدية لحدود ما هو مقبول، وذلك من خلال توصيات العلماء والفلاسفة و مهندسي الكمبيوتر. بالفعل تحظر وزارة الدفاع الأمريكية الأسلحة المستقلة الذاتية التشغيل؛ وحان الوقت لتوسيع نطاق هذا الحظر، وتحسينه ليرقى إلى التطبيق على المستوى الدولي.

وبطبيعة الحال لن يتمكن أي حظر دولي من منع كامل لانتشار أسلحة الذكاء الاصطناعي. لكن ليس هذا عذرًا لإلغاء الحظر. فإذا اعتقدنا كمجتمعٍ بوجود ما يستوجب حظر استخدام الأسلحة الكيميائية، والبيولوجية، والرصاص المتفجر، إذًا يوجد هناك ما يحتم علينا حظر استخدام أسلحة الذكاء الاصناعي أيضًا.

لمشاهدة الفيديو أضغط هنا

ساسة بوست