في رُكام الحروب المعاصرة، لم تعد أصوات البنادق وحدها تصنع مشهد الموت. هناك، خلف الشاشات ولوحات المفاتيح، تنسج الخوارزميات (Algorithms) مصائر البشر بقراراتٍ لا تمر عبر المشاعر أو الحدس الإنساني. في زمنٍ باتت فيه الطائرات المسيّرة (Drones) والمركبات القتالية الآلية (Autonomous Combat Vehicles) أدوات يومية في ساحات الصراع، يفرض السؤالُ نفسَه بقوةٍ ملحة: من يقرر القتل في ميادين الحرب الحديثة؟ هل هو الإنسان بلحمه ودمه، أم الآلة التي لا تعرف الألم ولا الندم؟
لا يمكن فهم أبعاد هذا الصراع الجديد إلا بالعودة إلى اللحظة التي قررت فيها القوى الكبرى أن تُفسِح مكانًا للذكاء الاصطناعي (Artificial Intelligence – AI) في ميادين القتال. كان الطموح المعلن آنذاك هو تقليل الخسائر البشرية بين صفوف الجيوش النظامية، وزيادة الدقة في توجيه الضربات العسكرية. غير أن هذا الطموح سرعان ما تداخل مع أسئلة فلسفية وأخلاقية معقدة: هل يحق للآلة أن تختار من يعيش ومن يموت؟ وهل يمكن تفويض قرار بهذه الضخامة الأخلاقية إلى نظام برمجي لا يمتلك وعياً أو ضميراً؟
في جوهر هذا النقاش يكمن مفهوم الاستقلالية (Autonomy)، أي قدرة الأنظمة الذكية على اتخاذ قرار القتل بدون تدخل بشري مباشر. هنا، تتخذ الإشكالية طابعًا أخلاقيًا بالغ الحساسية. يرى بعض المنظرين، مثل الخبير في أخلاقيات الذكاء الاصطناعي ويندلوالاش (Wendell Wallach)، أن تفويض قرار القتل إلى آلة ينطوي على خيانة لمبدأ المسؤولية الأخلاقية الذي تأسست عليه المجتمعات البشرية. فالآلة، حتى وإن صُمِّمت لتحاكي أنماط التفكير البشري، تبقى عاجزة عن الإحساس بالخطيئة أو الشعور بالتبعات المعنوية لقرارها.
على الجانب الآخر، يجادل أنصار الاعتماد على الخوارزميات بأن الإنسان نفسه كثيرًا ما يتصرف بتهور في ساحات المعارك، مدفوعًا بالخوف أو الغضب أو حتى الغطرسة. ويقولون إن الآلة، بما تتمتع به من برودة أعصاب ودقة حسابية، قد تكون أكثر رحمةً بالضحايا الأبرياء عبر تقليل الأخطاء البشرية. هنا يبدو وكأن الجدال يدور بين “رحمة الآلة الخالية من العاطفة” و”قسوة الإنسان المشحون بالانفعالات”.
لكن الصورة ليست بهذه البساطة. إن الخوارزميات، مهما بلغت تعقيداتها، تظل في نهاية المطاف نتاجًا بشريًا. وقد أثبتت الدراسات، مثل تلك التي نشرتها الباحثة الأسترالية كيت كروفورد (Kate Crawford) في كتابها “أطلس الذكاء الاصطناعي” (Atlas of AI)، أن هذه الأنظمة كثيرًا ما تعكس تحيزات مصمميها وتتكيف مع أنماط التفكير السائدة لدى المجتمعات التي تُنتجها. ماذا يعني هذا؟ يعني ببساطة أن الخوارزمية القاتلة قد تتصرف بطريقة متحيزة عرقيًا أو ثقافيًا أو جغرافياً، لا لأنها شريرة بطبيعتها، بل لأنها تُمثّل خفايا العقل البشري غير المعلن.
ولعل أكثر الأمثلة إيلامًا على ذلك هو استخدام الخوارزميات في “قوائم القتل” (Kill Lists) كما حدث خلال حملات الطائرات المسيّرة الأمريكية في مناطق مثل أفغانستان واليمن. كانت الخوارزميات هي التي تحدد أنماط السلوك “المشبوهة” التي تستحق الاستهداف، استنادًا إلى معايير غير شفافة، ما أدى إلى سقوط أعداد كبيرة من المدنيين نتيجة أخطاء تصنيفية. فكيف يمكن إذن الحديث عن “دقة الخوارزمية” في عالم تختلط فيه أنماط الحياة اليومية بأنماط التهديد الأمني؟
إن هذا الانزلاق نحو الاعتماد الكامل على الذكاء الاصطناعي في القتل يضعنا أمام مأزق قانوني حاد أيضاً. فالقانون الدولي الإنساني (International Humanitarian Law) يشترط أن يكون كل عمل قتالي قابلاً للمساءلة (Accountability). فمن الذي نُحمّله المسؤولية إذا ما ارتكبت آلةٌ مجزرة؟ هل نحاسب المبرمجين الذين قد لا يعرفون كيف ستتفاعل خوارزمياتهم في ساحة القتال؟ أم نحاسب القادة العسكريين الذين أطلقوا الأنظمة دون فهم كامل لآليات اتخاذ القرار فيها؟
أسئلة تتكاثر دون إجابة شافية، بينما تستمر الدول في تطوير جيوش كاملة من “الروبوتات القاتلة” (Killer Robots). روسيا، على سبيل المثال، اختبرت نظام “أوران-9” (Uran-9) القتالي الآلي، فيما تسعى الولايات المتحدة إلى تطوير “مشاة آلية” (Robot Infantry) قادرة على شنّ عمليات مستقلة. الصين، من ناحيتها، تراهن على دمج الذكاء الاصطناعي في كل أبعاد حرب المستقبل، من الطائرات إلى الغواصات.
وسط هذا السباق المحموم، بدأ صوت المجتمع المدني يرتفع محذرًا من خطر الانزلاق نحو مستقبل لا يستطيع فيه البشر السيطرة على أدوات الحرب التي أبدعوها. ففي عام 2017، وجَّه أكثر من 100 عالم وخبير في الذكاء الاصطناعي، منهم إيلون ماسك (Elon Musk) وستيفن هوكينج (Stephen Hawking)، رسالة مفتوحة إلى الأمم المتحدة يطالبون فيها بحظر تطوير “الأسلحة الذاتية الفتاكة” (Lethal Autonomous Weapons Systems – LAWS).
ورغم بعض الجهود الدولية، مثل اجتماعات “اتفاقية حظر أو تقنين أسلحة تقليدية معينة” (Convention on Certain Conventional Weapons – CCW)، إلا أن المشهد العام يوحي بأن دولًا عدة ماضية قُدمًا في تطوير هذه التكنولوجيا، مدفوعة بمخاوفها الأمنية وطموحاتها الاستراتيجية. فالتحكم بالخوارزميات القاتلة أصبح رمزًا للقوة الجيوسياسية، تمامًا كما كان امتلاك السلاح النووي من قبل.
وفي ظل هذا التنافس المحموم، نجد أن القيم الإنسانية الأصيلة تتآكل شيئًا فشيئًا، حتى تكاد تختفي تحت وطأة الاندفاع غير المسبوق نحو كل ما هو تقني ورقمي. فالمعادلات الرياضية والخوارزميات الباردة أخذت تحل محل منظومات القيم والمعايير الأخلاقية التي صاغت مسار الحضارة عبر قرون. وبينما تشتد وتيرة القرارات المصيرية، كثير منها يصدر من دون أن يُعرف على وجه التحديد من يملك زمام المبادرة أو كيف يُتخذ القرار فعليًا، يتعاظم الإحساس بفقدان السيطرة على عجلة التاريخ التكنولوجي التي لا يبدو أن في مقدور أحد أن يوقفها أو حتى يوجّهها بالاتجاه الصحيح.
ومن زاوية فلسفية أعمق، يمكن القول إن ما نشهده اليوم ليس سوى فصل جديد من صراع قديم قِدم الإنسان ذاته: صراع بين الرغبة الجامحة في تجاوز حدوده الطبيعية، وفي التوسع إلى ما وراء المسموح به وجوديًا وأخلاقيًا، وبين الخوف الأبدي الذي يلازمه من أن تنقلب أدواته عليه وتتحول إلى قوة مستقلة لا يملك إيقافها. هذا التوتر بين الطموح المبدع والخشية من فقدان السيطرة هو ما يجعل علاقتنا بالتكنولوجيا علاقة معقدة، فهي في آنٍ واحد ثمرة عبقرياتنا ودليل هشاشتنا، أداة خلاص وسبب تهديد، وهو ما يفرض علينا إعادة التفكير في معنى أن نصنع أدواتنا وما إذا كنا حقًا من يملكها أم أنها ستملكنا في النهاية.
في ضوء ذلك، تصبح الخوارزميات القاتلة ليست مجرد أدوات عسكرية، بل تعبيرًا عن نمطٍ أعمق من التفكير التقني الذي يفصل الفعل عن معناه الأخلاقي. فحين تُطلق الآلة النار، لا تفكر في المبرر ولا تحزن للنتائج؛ إنها تقوم فقط بما برمجت عليه، وما تعلمته من بيانات قد تكون فاسدة أو متحيزة. فهل نحن مستعدون للتخلي عن آخر خطوط الدفاع الأخلاقية التي جعلتنا “بشرًا” في جوهرنا؟ وهل يمكن لمنظومات الذكاء الاصطناعي، مهما بلغت قدرتها، أن تحل محل الضمير الإنساني في اتخاذ قرار القتل؟
في الختام، ليست معركة “من يقرر القتل” مجرد جدل تقني حول برمجيات وخوارزميات، بل هي مواجهة تمس جوهر إنسانيتنا. فإذا فوّضنا الآلة لتحدد مصائر البشر، قد نكسب معارك أسرع ونحسم الحروب بآلية حسابية جامدة، لكننا سنخسر ما هو أثمن: قدرتنا على أن نرى في الآخر ملامح إنسانٍ حي، لا مجرد هدفٍ على شاشة.
إن الخطر الحقيقي لا يكمن في ذكاء الآلة، بل في تخلي الإنسان عن بصيرته، وعن ملكته في التروي والتفكير والرحمة. واليوم، أكثر من أي وقت مضى، نحن مطالبون بأن نعيد النظر في علاقتنا بالتكنولوجيا، وأن نذكّر أنفسنا بأن القوة العظمى لا تُقاس بسرعة الضغط على زر القتل، بل بعمق القدرة على صون الحياة، وعلى الإصغاء إلى النداء الأخلاقي الذي يميز الإنسان عن كل ما صنع بيديه.
باحثة ومترجمة في مجال الذكاء الاصطناعي
