باسم علي خريسان
الحوار المتمدن-العدد: 8320 - 2025 / 4 / 22 - 20:20
المحور:
الارهاب, الحرب والسلام
Henning Lahmann
أستاذ مساعد في مركز القانون والتقنيات الرقمية بجامعة لايدن. تركز أبحاثه على التقاطع بين التقنيات الرقمية والقانون الدولي.
25-3-2025
نقله الى العربية:د.باسم علي خريسان
منذ أن بدأت إسرائيل حملاتها العسكرية ضد غزة ولبنان والضفة الغربية بعد هجمات 7 أكتوبر 2023، دار جدل مكثف في الأوساط الأكاديمية والإعلامية حول استخدام الجيش الإسرائيلي لما يسمى بأنظمة دعم القرار المدعومة بالذكاء الاصطناعي (AI-DSS) في عملياته القتالية. وقد تركزت الانتقادات بشكل رئيس حول العدد الهائل من القتلى في غزة، والذي يُقدّر بشكل متحفظ بحوالي (50,000) شخص حتى وقت كتابة هذا النص، معظمهم من المدنيين. لقد كان من المهم للغاية، ولا يزال، التركيز على مساهمة هذه الأنظمة المحتملة في هذا العدد الضخم من الضحايا، كما فعلت معظم الدراسات النقدية المتعلقة بأنظمة الذكاء الاصطناعي المستخدمة. ولكن، في هذا المقال، سأُقيّم بدلاً من ذلك بعض التكاليف الاجتماعية الأوسع والأقل آنية التي تفرضها الأنظمة المدعومة بالذكاء الاصطناعي، مثل تلك التي يستخدمها الجيش الإسرائيلي. وبشكل خاص، سأُركّز على كيف أن هذه الأنظمة – بسبب اعتمادها الجوهري على المراقبة الشاملة – تعيق الأرادة السياسية بطبيعتها، وبالتالي تنتهك في نهاية المطاف الحق الجماعي في تقرير المصير للشعوب التي تعيش ضمن مناطق انتشارها.
الوعد بحماية المدنيين عبر أنظمة الذكاء الاصطناعي
على الرغم من القصور الواضح في حماية المدنيين في غزة، لا يزال جيش الإسرائيلي ملتزماً برواية مفادها أن أنظمة الذكاء الاصطناعي "تجعل عملية الاستخبارات أكثر دقة وفعالية"، وتُمكّن إسرائيل من "تقليل الخسائر المدنية". هذه الرواية حول فوائد تكنولوجيات الذكاء الاصطناعي ليست جديدة، ولا تقتصر على الجيش الإسرائيلي. فكثيراً ما تُكرّر الدول الادعاء بأن هذه الأنظمة قادرة على مساعدة القوات المسلحة على الامتثال بشكل أفضل للقانون الإنساني الدولي، خاصة مبادئه الأساسية مثل التمييز والتناسب واتخاذ الاحتياطات في الهجوم، كما ينص عليها البروتوكول الإضافي الأول لاتفاقيات جنيف، وكما تعكسها الأعراف القانونية.
في خريف عام 2024 – حين أصبحت أعداد الضحايا في غزة واستخدام الجيش الإسرائيلي الروتيني للذكاء الاصطناعي معروفة للجميع – صدرت وثيقتان دبلوماسيتان رفيعتا المستوى: "مخطط العمل" لقمة "الذكاء الاصطناعي المسؤول في المجال العسكري" (REAIM)، وقرار للجمعية العامة لمنظمة الأمم المتحدة، وكلاهما شدّد على مزاعم فوائد الذكاء الاصطناعي في تحسين حماية المدنيين في النزاعات المسلحة. هذه الرواية التي تزداد قبولاً دفعت بعض الأكاديميين إلى القول إن عدم استخدام الذكاء الاصطناعي في الحروب قد يكون "غير مسؤول وغير أخلاقي".
من خلال استحضار متكرر لهذه المزاعم بشأن الدقة، أصبحت قواعد الاستهداف في القانون الإنساني إطاراً خطابياً لتبرير تعميق ممارسات المراقبة الشاملة في مناطق النزاع. لكن سواء ثبتت صحة هذه الادعاءات أم لا، فإن هذه التوقعات المتفائلة تفشل في النظر إلى الكيفية التي تعمل بها هذه الأنظمة في الواقع. وغالباً لا يكون دورها الرئيس مجرد تصنيف الأشياء – مثل التمييز بين دبابة معادية وحافلة مدنية – بل كما أوضحت الباحثة شفارتس، تتمثل وظيفتها الأساسية في "اكتشاف" أهداف جديدة من خلال تحليل أنماط سلوكية "مشبوهة" في كميات ضخمة من البيانات لتحديد أفراد يمكن تصنيفهم كأهداف.
الرابط بين أنظمة دعم القرار والرقابة الدائمة
من الأنظمة التي حظيت باهتمام إعلامي كبير هو نظام "لافندر" (Lavender)، وهو قائم على خوارزمية تعلم آلي، ويُقال إنه يلعب دوراً رئيساً في توليد قوائم الأهداف لجيش الإسرائيلي، من خلال التنبؤ باحتمالية انتماء الشخص إلى جماعة مسلحة في غزة. يتم توليد هذه التنبؤات من خلال تحليل بيانات مجمعة من مصادر متعددة، بما في ذلك شجرة العائلة وبيانات الهاتف المحمول، إضافة إلى سلوك الفرد عبر الإنترنت وخارجه.
وعلى عكس الخوارزميات التي تقتصر وظيفتها على تصنيف الأشياء، فإن وظيفة "اكتشاف الأهداف" التي يؤديها "لافندر" لا يمكن تحقيقها إلا من خلال مراقبة دائمة ومستمرة للسكان المستهدفين. فهذه الأنظمة تتطلب بنية تحتية ضخمة من المراقبة لتحديد الأنماط "غير الطبيعية" التي قد تشير إلى سلوك عدائي يستوجب التدخل الأمني، بما في ذلك الاغتيالات.
وفي هذا السياق، تم الكشف مؤخراً عن تطوير نظام ذكاء اصطناعي آخر شبيه بـ "تشات جي بي تي" لاستخدامه من قبل القوات الأمنية الإسرائيلية بهدف التنبؤ بـ "من سيكون الإرهابي القادم"، بالاعتماد على نفس المصادر البيانية التي تم جمعها عبر أنظمة المراقبة القائمة.
رغم أن الأوساط الأكاديمية والسياساتية بدأت تدرك تبعات هذه الأنظمة على الخصوصية، إلا أن التركيز بقي غالباً على تحييد التحيزات الضارة في البيانات أو تحسين قدرة البشر على "التحكم الهادف" في النظام، دون إيلاء اهتمام كافٍ لمبدأ "تقليل البيانات" أو الحد من ممارسات المراقبة ذاتها. إذ أنه إذا كان تغذية هذه الأنظمة بكميات ضخمة من البيانات شرطاً لتحسين دقة الاستهداف، فإن استمرار المراقبة يصبح ضرورة، وليس خياراً.
إعاقة الأرادة السياسية وحق تقرير المصير
الأهم من ذلك، كما أوضحتُ بتفصيل أكثر في مقال بعنوان "تقرير المصير في عصر الحرب الخوارزمية" نُشر مؤخراً في مجلة الدراسات القانونية الأوروبية، أن التركيز على حق الفرد في الخصوصية يُخفي البعد الجماعي للمراقبة الواسعة المرتبطة بأنظمة الذكاء الاصطناعي.
لفهم هذا الارتباط غير البديهي، يجب أولاً تصور حق الشعوب في تقرير المصير ليس فقط كحق قانوني في الاستقلال أو الحكم الذاتي، بل أيضاً كحق جماعي في الفعل السياسي الجماعي من أجل تحقيق تلك الأهداف. وبدون هذا المكون الإجرائي – أي حرية تشكيل الإرادة السياسية الجماعية – فإن الحق في "تحديد الوضع السياسي بحرية" يصبح فارغاً من مضمونه.
في هذا السياق، تقدم روزا لوكسمبورغ وحنة آرنت فهماً مهماً لمفهوم "العفوية" كشرط أساس للفعل السياسي الحقيقي. فبالنسبة للوكسمبورغ، فإن الفعل السياسي العفوي هو المُحرّك الأساس للتغيير، بينما ترى آرنت أن الحرية السياسية تفقد معناها بدون حرية الفعل العفوي. بعبارة أخرى، لا يتحقق تقرير المصير الحقيقي إلا عندما يكون الشعب قادراً على ممارسة إرادته السياسية بشكل حر وعفوي.
لكن أنظمة مثل "لافندر" تقوّض هذا بشكل مباشر. فهي تُعرّف "الهدف" من خلال الكشف عن الأنماط السلوكية "غير العادية" استناداً إلى بيانات من الماضي. وهذا يعني أن أي فعل سياسي عفوي – كالتظاهر أو العصيان أو التجمع – قد يُصنّف على أنه "غير طبيعي" وبالتالي "مشبوه"، مما قد يؤدي إلى وضع الفاعل ضمن قائمة أهداف. وهكذا، يصبح الفعل السياسي محفوفاً بالخطر القاتل، وتُمنع أي محاولة لتشكيل إرادة سياسية جماعية حرة.
ما وراء غزة: التداعيات الأوسع
في سياق غزة، يمكن اعتبار انتهاك حق تقرير المصير عبر أنظمة الذكاء الاصطناعي امتداداً لمنظومة الاحتلال القائمة منذ عقود، والتي تُسهّل السيطرة الأجنبية غير القانونية على الشعب الفلسطيني. وربما لا نجد حالة مماثلة إلا في إقليم شينجيانغ، حيث تستعمل الحكومة الصينية الذكاء الاصطناعي لقمع الإيغور.
لكن هذه الممارسات لا يمكن فصلها عن السياق الأمني العالمي لما بعد 11 سبتمبر، حيث نشأت ممارسات "معلوماتية" لمكافحة الإرهاب، مثل برامج المراقبة الشاملة التي أطلقتها وكالة الأمن القومي الأمريكية، بما في ذلك "XKeyscore" و"Skynet"، والتي مهدت الطريق أمام تطبيقات مثل "لافندر".
وبالتالي، فإن الحجة المقدمة هنا لا تقتصر على حالات الاحتلال أو الهيمنة المباشرة، بل تنطبق على أي استخدام لهذه الأنظمة الأمنية طالما تعتمد على مراقبة شاملة. وما يُميز الحالة الإسرائيلية هو شرعنة هذه الممارسات تحت غطاء "تعزيز الامتثال للقانون الإنساني"، وهي حجة لم تُرفض بشكل مبدئي من قبل الدول أو الأكاديميين، بل على العكس، يجري تبنّيها وتوسيعها.
كلمة ختامية
إن التكرار الطقوسي لمزاعم الفعالية والدقة، بزعم حماية المدنيين، يُسهم في تطبيع بنى المراقبة التي تُعيق العمل السياسي العفوي. كما حاولت أن أوضح، فإن هذه الممارسات تُقوّض الأرادة السياسية الجماعية للفلسطينيين، وتُنتهك حقهم في تقرير المصير. ومن غير المرجح أن تبقى هذه الظاهرة مقتصرة على غزة أو حتى على السياق العسكري. فمديرو شركات التكنولوجيا والسياسيون الذين يعجبون بها، بدأوا يحلمون بمستقبل تُراقَب فيه كل تحركات الأفراد على مدار الساعة، مما سيدفع الجميع إلى "أفضل سلوك"، ليس حباً بالقانون، بل خوفاً من الذكاء الاصطناعي.لقد بدأ "المختبر الفلسطيني" للحرب الخوارزمية بالفعل في تمهيد الطريق لهذا المستقبل البائس.
#باسم_علي_خريسان (هاشتاغ)
الحوار المتمدن مشروع
تطوعي مستقل يسعى لنشر قيم الحرية، العدالة الاجتماعية، والمساواة في العالم
العربي. ولضمان استمراره واستقلاليته، يعتمد بشكل كامل على دعمكم.
ساهم/ي معنا! بدعمكم بمبلغ 10 دولارات سنويًا أو أكثر حسب إمكانياتكم، تساهمون في
استمرار هذا المنبر الحر والمستقل، ليبقى صوتًا قويًا للفكر اليساري والتقدمي،
انقر هنا للاطلاع على معلومات التحويل والمشاركة
في دعم هذا المشروع.
كيف تدعم-ين الحوار المتمدن واليسار والعلمانية
على الانترنت؟