الذكاء الاصطناعي يعيد تشكيل الحـ.ـروب الحديثة ويثير تساؤلات أخـ.ـلاقية عـ.ـميقة
حذرت الأمم المتحدة في تقرير نشرته الثلاثاء، من أن استخدام البيانات الشخصية المقدمة للذكاء الاصطناعي في توجيه الطائرات المسيرة لاستهداف الأشخاص بصفتهم أعداء على وشك أن يصبح واقعاً، وطالبت بتنظيم قانون دولي للأسلحة الفتاكة ذاتية التشغيل “الروبوتية” لتجنب مستقبل قريب تملي فيه الآلات خيارات الحياة والموت، مما يثير «تساؤلات أخلاقية عميقة حول الأتمتة في الصراعات»، ووفقاً للخبراء أفرزت الطائرات المسيرة والمُدارة بالذكاء الاصطناعي جيل جديد من الحروب. وفي هذا السياق، يسارع صانعو السياسات الدولية إلى وضع قواعد أساسية بهذا الشأن، وقد بدأ السباق لكبح جماح هذه التكنولوجيا سريعة التطور. ويؤكد تقرير الأمم المتحدة على «إننا نسلم طواعية معلومات عن أنفسنا للآلات كل يوم» ويحدث هذا «عندما نقبل ملف تعريف ارتباط عبر الإنترنت أو نستخدم محركات البحث»، مؤكدة تورط مشغلي هذه التكنولوجيا في ارتكاب جرائم ضد الإنسانية، حيث يتنامى «التجريد الرقمي من الإنسانية» ويوضح التقرير بأن تصاعد تطور المسيرات أو غيرها من الأسلحة ذاتية التشغيل يزيد من المخاوف المستمرة بشأن “روبوتات قاتلة” تقرر بنفسها من يجب أن تهاجمه.
وفي هذا السياق قال الأمين العام للأمم المتحدة “انتونيو غوتيرش” بأن استخدام الآلات المبرمجة بشكل تتخذ قرارات تتعلق بقتل البشر، «أمر منفر أخلاقياً ولا ينبغي السماح به. بل يجب حظره بموجب القانون الدولي». من جانبها تؤكد منظمة “هيومن رايتس ووتش” على أن استخدام الأسلحة الروبوتية سيكون أحدث وأخطر مثال على “التجريد الرقمي من الإنسانية”. حيث تخصص العديد من الدول ميزانية ضخمة في تطبيقات الذكاء الاصطناعي والآلات الروبوتية في مجال صناعة الأسلحة مثل الولايات المتحدة وروسبا والصين وإسرائيل وتركيا. وبحسب الخبراء في مجال الذكاء الاصطناعي هناك عاملين يجعلان تسليح الروبوتات خطراً كبيراً على الأمن الإنساني وهما: هذه التكنولوجيا لا تمتلك مقومات الأمان. والأمر الثاني هي غياب الأخلاق وإمكانية القتل ببرودة أعصاب. وفي هذا السياق تقول “هيومن رايتس ووتش” أنه: «من السهل جداً على الآلات أن تخطئ في تحديد الأهداف البشرية. الأشخاص ذوو الإعاقة معرضون للخطر بشكل خاص بسبب طريقة حركتهم. يمكن الخلط بين كراسيهم المتحركة والأسلحة. كما أن هناك مخاوف من أن تقنية التعرف على الوجه وغيرها من القياسات الحيوية لا تستطيع تحديد الأشخاص ذوي ألوان البشرة المختلفة بشكل صحيح». حيث لا تزال العيوب تشوب الذكاء الاصطناعي، وهو يتضمن تحيزات الأشخاص الذين برمجوا هذه الأنظمة وفقاً للمنظمة الحقوقية.
دفعت الأخطار الناجمة عن هذا النمط الجديد من التسليح إلى إطلاق الدعوات لوضع قواعد دولية لهذه التكنولوجيا، وفي أيار الفائت، عقدت مناقشات غير رسمية في مقر الأمم المتحدة، دعا فيها انتونيو غوتيريش الدول الأعضاء إلى الموافقة على «اتفاقية ملزمة قانوناً» لتنظيم وحظر استخدام تلك الأسلحة بحلول عام 2026، بعد وضع تعريفاً لها، ووفقاً لـ هيومن رايتس ووتش هناك ما لا يقل عن 120 دولة «تؤيد تماماً» الدعوة إلى التفاوض على قانون دولي جديد بشأن أنظمة الأسلحة ذاتية التشغيل وسط من حائزين على جوائز نوبل للسلام، وخبراء الذكاء الاصطناعي، والعاملين في مجال التكنولوجيا، والزعماء الدينيين.
ولا تزال الكثير من الشركات تعمل على تطوير تطبيقات الذكاء الاصطناعي، حيث كشفت شركة جوجل عن تطبيق جديد يحمل اسم AI Edge Gallery، وهو تطبيق تجريبي موجّه لأجهزة أندرويد، يتيح تشغيل نماذج الذكاء الاصطناعي التوليدي (LLMs) محليًا في الأجهزة دون الحاجة إلى اتصال بالإنترنت. ووفقاً لموقع “آيت نيوز” يستهدف التطبيق بنحو أساسي المطورين ومحبي التقنية الذين يرغبون في اختبار أحدث نماذج الذكاء الاصطناعي في بيئة محلية آمنة، دون إرسال بياناتهم إلى الخوادم.
من ناحية أخرى، يرى فولكر تورك (مفوض الأمم المتحدة السامي لحقوق الإنسان) أن أدوات الذكاء الاصطناعي يمكن أن تساهم في «إنهاء الجوع المدقع، وبناء تنمية أكثر استدامة، وتوسيع الوصول إلى الرعاية الطبية عالية الجودة، ودعم التقدم في البحث العلمي. كما يمكن للنشطاء استخدامها لجمع المعلومات حول الانتهاكات وتضخيم أصواتهم» ولكنه أكد في الوقت نفسه على أن أنظمة الذكاء الاصطناعي يمكن أن تولّد «مخاطر جسيمة». وأوضح أن التطورات الرقمية، وخاصة الذكاء الاصطناعي «تخلق تهديدات جديدة للحقوق والكرامة» ويعمق الانقسام داخل المجتمع، مثل: المراقبة وانتهاك الخصوصية وقمع الحريات، التضليل وتقديم المعلومات الخاطئة وتلفيق الاتهامات للأبرياء وإعداد صور وفيديوهات “التزييف العميق” للتنمر والابتزاز وتشويه السمعة وتشويه الانتخابات، إمكانية استخدامه في الفصل العنصري بين الأعراق المختلفة من خلال استغلال تقنيات التعرف على الوجه من لون وإيماءات وغيرها، بالإضافة إلى التسبب بزيادة معدل البطالة وأكثر من سيعاني من هذه المشكلة هم النساء، وأكد مفوض حقوق الإنسان أن أنظمة الذكاء الاصطناعي العادلة يجب أن تستند بقوة إلى قيم حقوق الإنسان والقانون العالمي، وأن تخدم الجميع، بمن فيهم الأجيال القادمة.
ويرى مراقبون أن “الميثاق الرقمي العالمي”، الذي تم اعتماده خلال قمة المستقبل التي عقدت العام الماضي، على أهمية حوكمة الذكاء الاصطناعي بناء على الإطار الدولي لحقوق الإنسان. يشكل ضمانة في عدم تحول هذه التقنية إلى تقنية قتل مجردة من الأخلاق. إلا أن الكثير من الدول تبدو غير مبالية تجاه هذه الدعوات.
نورث بالس
التعليقات مغلقة، ولكن تركبكس وبينغبكس مفتوحة.