الذكاء الاصطناعي ومساسه بحقوق الإنسان

الذكاء الاصطناعي AIمُصطلحٌ يعودُ إلى عام 1956، وبقي طيّ الخيال حتَّى أوائل القرن الواحد والعشرين، حيث بدأ العلماء باعتماد مناهجَ رياضيَّةٍ قويّة وإنشاء حواسيب فائقة القدرة يمكن استخدامها لاستخراج بيانات والتّعرّف على أنماطٍ والتخطيط والاستقراء، والقيام بعمليَّات تشخيصٍ بهدف تقديم خدمات لهذا العالم.
ويتلخَّص مفهوم الذكاء الاصطناعي أنّه عِلمٌ قائمٌ على إعطاء الآلاتِ صفةَ ذكاء، فيقوم الكومبيوتر بمُحاكاةِ قدراتِ التَّفكيرِ عندَ الإنسانِ باستخدامِ خوارزميَّاتٍ وتحليلِ معلوماتٍ لتوليدِ الأفكارِ، وتكونُ مرجعيَّتُها هي البياناتُ في ذاكرتِهِ، فهو ليس بحاجةٍ إلى برمجةِ خَطواتٍ خاصَّةٍ لكل إجراء، كما هو الحال في الحواسيبِ التَّقليديَّة بل يُمكن له استنتاجُ الأفكارِ الجديدةِ بنفسِهِ.
تجدرُ الإشارَةُ أنّ أكبرَ شركاتِ العالَمِ هي شركات الذَّكاءِ الاصطناعيِّ Apple, Facebook ، Amazone، ونتَّفقُ جميعًا أنَّ الخدماتِ التي نحصلُ عليها من هذه الشَّرِكاتِ والمواقعِ بالغةُ الأهميَّةِ ويَصعُبُ علينا الاستغناءُ عنْهَا .
من جانبٍ آخر نقولُ إنَّ الذَّكاء الاصطناعيَّ بات يُشكِّلُ تهديدًا حَقِيقِيًّا يطال الإنسانَ وحُقُوقَهُ، وقد استيقَظَ العالمُ على هذِهِ الخطورةِ في الحِقبَةِ الأَخيرةِ على اعتبارِ أنَّ خطورتَهُ لم تعدْ فقط محصورةً بإقصاءِ فُرَصِ العَمَلِ للإنسان، بل باتت تُهدِّدُ وجودَهُ أصلاً. وترجم ذلك الأمينُ العامُ للأممِ المُتَّحِدَةِ António Guterres عِندما قال: “إنَّ العلماءَ يؤكّدونَ أنَّ الذَّكاءَ الاصطناعيَّ يُهدِّدُ وجودَ البَشريَّةِ جَمعاء، ومَثَلُ خطورتِهِ مَثَلُ خطرِ الحربِ النَّوويَّة وأنَّ هذه التَّحذيراتِ يجبُ أن تُؤخذَ على محملِ الجدِّ”
بموجبِ دراسةٍ نَشَرَها معهدُ “future today institute” الأمريكيِّ أشارَ عن تهديدٍ حقيقيٍّ يُشكِّلُهُ الذَّكاءُ الاصطناعيُّ على العديدِ منَ المِهَنِ وفُرصِ العَملِ، وأبرزُها الصَّحَافَة في المُستقبلِ القريبِ، حَيثُ سيكونُ بالإمكانِ كتابةُ التَّقاريرِ وإلقاءِ النَّشراتِ وتَسييرِ المهامِ الإداريَّة والفنيَّة دونَ الحاجةِ إلى إِنسانٍ عاملٍ، أي أنَّ الأتمتةَ والذَّكاء الاصطناعيَّ سيحِلَّان محلَّ الكادرَ البشريَّ.
وفي دراسةٍ أَجرَتها مُؤسَّسةُ RAND حولَ هذا الموضوعِ أشارَت أنَّ شركةَ Blockbuster لتأجيرِ الأفلامِ وألعابِ الفيديو كانت توظِّفُ أكثرَ من 60 ألفَ مُوظَّفٍ، لتأتي شركَةُ Netflix ومنذُ أواخرِ عام 2016 لتعتمدَ على الذَّكاءِ الاصطناعيِّ، وتُدير أعمالها فقط بـ 3500 موظف، الأمرُ الذي برّرت بهِ شركةُ Blockbuster انهيارَهَا مشيرةً إلى أنَّ الذَّكاءَ الاصطناعيَّ الذي استخدمتهُ شركة Netflix شكَّلَ خطرًا حقيقيًّا على فُرصِ العملِ، وقاد عددًا كبيرًا من الموظَّفين إلى البَطالة.
لا يقفُ الأمرُ عندَ هذا الحدِّ من انتهاكِ الذَّكاءِ الاصطناعيِّ لحقوقِ الإنسان، على اعتبار أنَّ هذه الخاصيَّة انتهكت خصوصيَّةَ الفردِ أيضًا، فمعظمُ الصُّورِ الَّتي يتمُّ مشاركتُها عبر جهاتِ التَّواصُلِ الاجتماعيِّ يُمكن في زمنِنَا الحاليِّ التقاطها، واستخدامها بشكلٍ سلبيٍّ مما يُشكِّلُ انتهاكًا صارخًا لخصوصيَّةِ صاحبِهَا. وكحالةٍ سريعةٍ نذكرُها أَنَّه تمَّ استخدامُ الذكاء الاصطناعيِّ في تصويرِ مقطعِ فيديو لصورةِ طفلةٍ واستنساخِ صَوتِهَا على أنَّها مخطوفَةٌ لدى عِصَابَةٍ ويريدونَ المالَ من عائِلَتِها، ممَّا أثارَ حالةَ رُعبٍ كبيرةٍ لدى الأسرةِ وفي حقيقةِ الأمرِ الفتاة كانت في مدرستِهَا، لكنَّ القصَّة قد تركَت أثرًا عميقًا لدى الطفلةِ واعتبرَت انتهاكًا صارخًا لخصوصيَّتِها في الصَّوتِ والصُّورة.
وأكثرُ من ذلكَ فإنَّ الذَّكاءَ الاصطناعيَّ يُشكِّلُ خطرَا حقيقيًّا على حقِّ الحياة، حيث نُشيرُ هنا أنّ الرُّوبوتاتِ المبرمجةَ على الذَّكاءِ الاصطناعيِّ وموكّلٌ إليها مهمَّة القبضِ على مخالفي القانونِ قد تُشكّلُ خطرًا حقيقيًّا على حياةِ الأشخاص، وكحالةٍ نذكُرُهَا ما حصلَ في الولايَاتِ المتَّحدَةِ الأمريكيَّةِ عندما ألقى روبوت قنبلةً على شخصٍ كان قد أطلقَ النارَ واعتبره مجرمًا، وتسبَّبَ بوفاتِهِ دونَ معرفَةِ أقرانِ القضيَّةِ ودونَ تحقيقٍ، وهذا ما أثارَ امتعاضَ الكثيرينَ واعتبروه هدرًا لحقوقِ إنسانٍ والحُكم عليهِ بالموتِ دون محاكمةٍ عادلةٍ.
وأيضًا تتجسَّدُ الانتهاكاتُ عندَ تطبيقِ الذَّكاءِ الاصطناعي في إجراءاتِ العدالةِ الجنائيَّةِ. بموجب تقريرٍ صادرٍ عن منظَّمةِ ProPublica أشارَ إلى أنَّ استخدام الآلات والخوارزميَّاتِ سعيًا في تطبيقِ العدالةِ الجنائيَّة يحملُ في طيَّاتِهِ نتائجَ متحيِّزَةً، واستخدامًا مُضلّلًا للنِّظام والوقوعَ في تفاوتاتٍ كبيرةٍ بنتائِجِ الأحكامِ الجنائيَّةِ لدى المحاكمِ الَّتي تستخدمُ هذه التّكنولوجيا. وتبعاً لذلك يُمكننا القول إنّه لا يُمكن الاستغناءُ عن العقل البشريّ لأنَّه يملكُ الحواس والإدراك، وهو الذي يخلقُ القرارَ العادلَ المتعلِّقَ بالشَّخصِ المتهمِّ وهنا يُمكنُني القول: “إنَّ الإنسانَ هو الَّذي يَخلُقُ ويبتَكِرُ والذَّكاءُ الاصطناعيُّ يُقلّدُ ويختارُ.. ولكن لا يَبتكِر”
وأيضاً يتجسّد انتهاكُ حقوقِ الإنسان أمام الذَّكاء الاصطناعيّ في حقوقِ المُلكيَّة الفكريَّة وحقوقِ النَّشرِ، ونُسلِّطُ الضوءَ هنا على الجانب الفنيِّ بشكلٍ خاص، حيثُ تمكَّنت تقنيَّاتُ الذَّكاءِ الاصطناعيِّ الحديثةِ والمتطوِّرَةِ من خلال بعض التَّطبيقاتِ من نسخِ معلوماتٍ وأعمالٍ وأصواتٍ يعود أصلُهَا إلى مؤلِّفينَ وفنَّانينَ وإعادة تصديرها كمحتوىً جديدٍ على الجمهور عبر مِنصّاتِ التَّواصُلِ، وهذا ما خلقَ معركةً شرسةً بين أصحابِ هذه الحقوق الأصليِّين وبينَ الذَّكاءِ الاصطناعيِّ ليزدادَ المشهدُ تعقيدًا في ظلِّ غيابِ التَّشريعاتِ القانونيَّةِ المحليَّةِ والدُّوليَّةِ الَّتي تُعالجُ هذه الحالاتِ بشكلٍ دقيقٍ بين الطَّرفين.
نُشير إلى أنَّ المفوضيَّةَ السَّامية لحقوق الإنسانِ ترى أنّهُ من الضروريِّ وضعُ محاذيرَ فعَّالةٍ من أجلِ ضمانِ كرامَةِ الإنسانِ وحقوقِهِ الَّتي اعتبرتها في خطرٍ كبيرٍ في مواجهةِ الذَّكاءِ الاصطناعيِّ. هنالك عواقبُ غيرُ مقصودَةٍ محتملةٌ أثناء تطبيق الذكاءْ الاصطناعي

وأخيرًا يُمكن القول إنّ الذكاءَ الاصطناعيَّ وتطبيقه قد يلحقُ أضرارًا وعواقب تطالُ الإنسانَ بشكلٍ غير مقصود، وهنا لابدَّ من تفعيلِ المُساءَلَةِ والمُحاسَبَةِ سواءٌ على صعيد الفرد أو المنظَّمة أو حتَّى الدَّولة حفاظًا على شعار “حقوق الإنسان فوق كل اعتبار”.