المستقبل المخيف(سيطرة الآلة)


لا أخفي سرا أن قراءة المشهد المستقبلي مخيفة للغاية ، ولكن دعونا نرى لماذا؟
في أوائل الألفية الجديدة، كانت هناك ثورة تكنولوجية وتحول من الحياة الملموسة إلى الحياة الرقمية.إن حياة البرمجة والسوفت وير وسباق المعلومات شكلت صدمة للأجيال القديمة التي كانت تعيش حياة راديكالية روتينية.
تغيَّرتْ موازينُ القوى للدولِ من امتلاكِ الأسلحةِ النوويةِ إلى امتلاكِ المعلوماتِ. كانَ هناكَ تخوُّفٌ منَ المستقبلِ القريبِ للوظائفِ من جانبِ هذهِ الأجيالِ، ولكنْ سرعانَ ما تأقلمتِ الدولُ بتحديثِ الجامعاتِ لتُخرجَ مؤهلينَ لسوقِ العملِ الجديدِ الذي يعتمدُ اعتمادًا كليًّا على أنظمةِ الحاسبِ.
تمَّ دخولُ الألفيةِ الجديدةِ بنمطِ حياةٍ قاسٍ نوعًا ما ومختلفٍ عنِ الأجيالِ السابقةِ التي كانتْ تعتمدُ على الوظائفِ الروتينيةِ المضمونةِ الدخلِ.
كانَ التقدمُ التكنولوجيُّ يسيرُ بوتيرةٍ معقولةٍ نوعًا ما لعقدينِ منَ الزمانِ حتى عامِ 2020. أما ما بعدَ ذلكَ فهو رعبٍ لا نعرفُ نهايتَهُ.
معَ دخولِ أزمةِ كورونا وفتراتِ الحظرِ الطويلةِ، ظهرَ العملُ منَ المنزلِ كَحَلٍّ لهذهِ المعضلةِ. وكانتِ البنيةُ التحتيةُ للعالمِ تتحملُ ذلكَ، وتأقلمَ الإنسانُ على طبيعةِ العملِ الجديدةِ. ولكنْ كانَ في الجوارِ تكنولوجيا ليستْ بالجديدةِ، ولكنها استطاعتْ معَ التقدمِ في الهاردويرِ الذي أتاحَ بدورهِ متنفسًا للذكاءِ الاصطناعيِّ أنْ يرى النورَ..
المستقبل والتحديات الشاقة: أسئلة بلا إجابات سهلة
تثير التطورات التكنولوجية المتسارعة العديد من التساؤلات حول شكل الحياة في المستقبل، وتخلق تحديات شاقة على الإنسان. هذه الأسئلة ليست مجرد تكهنات، بل هي نقاط محورية يجب أن نفكر فيها بجدية ونستعد لها:
-
هل سيظل العمل كما نعرفه موجودًا؟ مع تقدم الذكاء الاصطناعي والروبوتات، هل ستختفي وظائف بأكملها، وكيف سيتأثر مفهوم "العمل" و"الرزق"؟
-
ما هو دور الإنسان في عالم تسيطر عليه الآلة؟ إذا أصبحت الآلات قادرة على أداء مهام معقدة بكفاءة فائقة، فما الذي سيميز الإنسان، وما هي القيمة التي سيضيفها؟
-
كيف سنتعامل مع الفجوة الرقمية المتزايدة؟ هل سيؤدي هذا التطور إلى فجوة هائلة بين من يمتلكون التكنولوجيا ومن لا يمتلكونها، مما يزيد من التفاوت الاجتماعي والاقتصادي؟
-
هل سنحافظ على إنسانيتنا ومهاراتنا الفكرية؟ في ظل الاعتماد المتزايد على الذكاء الاصطناعي في حل المشكلات والتفكير، هل سيضعف ذلك قدرتنا على التفكير النقدي والإبداع؟
-
كيف سنحمي خصوصيتنا وأمننا؟ مع كل هذا الكم من البيانات والمعلومات التي تُجمع وتُحلل بواسطة الذكاء الاصطناعي، كيف يمكننا ضمان حماية خصوصية الأفراد وأمن الدول؟
-
ما هي الضوابط الأخلاقية التي يجب وضعها؟ هل نحن مستعدون لوضع أطر أخلاقية وقانونية صارمة لتنظيم استخدام الذكاء الاصطناعي، خاصة في المجالات الحساسة كالصحة والحروب؟
هذه ليست سوى بعض الأسئلة التي تتربص بنا في المستقبل، وتحتاج إلى تعاون عالمي وتفكير عميق لوضع حلول تضمن مستقبلًا يخدم البشرية، لا أن يهددها.
-
التعليم
يُشكّلُ الذكاءُ الاصطناعيُّ تهديدًا على جودةِ التعليمِ وتطويرِ الطلابِ في عدةِ جوانبَ:
-
فقدانُ التواصلِ الإنسانيِّ: قد يؤدي الاعتمادُ المفرطُ على الذكاءِ الاصطناعيِّ إلى تقليلِ التفاعلِ بينَ الطلابِ والمعلمينَ، مما يعيقُ تطويرَ المهاراتِ الاجتماعيةِ والعاطفيةِ لدَى الطلابِ.
-
إضعافُ التفكيرِ النقديِّ: الاعتمادُ على التكنولوجيا قد يقللُ من قدرةِ الطلابِ على التفكيرِ النقديِّ وحلِّ المشكلاتِ بأنفسِهم.
-
التحيزُ والأعطالُ التقنيةُ: يمكنُ أن تُسببَ خوارزمياتُ الذكاءِ الاصطناعيِّ تحيزًا في تقييماتِ الطلابِ، بالإضافةِ إلى أنَّ الأعطالَ التقنيةَ قد تعطلُ العمليةَ التعليميةَ.
-
تراجعُ الجهودِ الإدراكيةِ: الاستخدامُ المفرطُ لأدواتٍ مثلِ ChatGPT قد يؤدي إلى تراجعٍ في الجهودِ الإدراكيةِ للطلابِ، مما يؤثرُ سلبًا على ذاكرتِهم وقدرتِهم على التعلمِ العميقِ
-
الوظائف
مخاطرُ الذكاءِ الاصطناعيِّ في الوظائفِ
مخاطرُ الذكاءِ الاصطناعيِّ في الوظائفِ متنوعةٌ. قد يؤدي إلى فقدانِ الوظائفِ الروتينيةِ، وتوسُّعِ فجوةِ التفاوتِ، وتغيرِ سوقِ العملِ بشكلٍ جذريٍّ. بالإضافةِ إلى ذلكَ، هناكَ مخاوفُ بشأنِ أمانِ البياناتِ، والتحيزِ في الخوارزمياتِ، والأضرارِ الأخلاقيةِ والاجتماعيةِ.
المصنعُ المظلمُ
"المصنعُ المظلمُ" ليسَ اسمًا مجازيًا، بل وصفٌ دقيقٌ لطبيعةِ هذهِ المصانعِ، حيثُ لا حاجةَ للإنارةِ، فالعاملونَ هنا ليسوا بشرًا بل روبوتاتٌ متطورةٌ، تعملُ وفقَ أنظمةِ الذكاءِ الاصطناعيِّ والتعلمِ الآليِّ. هذهِ المصانعُ مؤتمتةٌ بالكاملِ، من تشغيلِ الآلاتِ إلى مراقبةِ الجودةِ وحتى الصيانةِ الذاتيةِ، ما يجعلُها تعملُ على مدارِ الساعةِ دونَ توقفٍ أو خطأٍ بشريٍّ. ومثالُ ذلكَ مصنعُ شاومي للهواتفِ الذكيةِ في بكينَ، الذي يُسمى "المظلمَ"، يُنتِجُ هاتفًا واحدًا كلَّ ثلاثِ ثوانٍ دونَ أيِّ عمالٍ. يُعدُّ هذا النوعُ منَ المصانعِ سباقًا عالميًا: ففي داخلِهِ، تديرُ شركةُ فانوك (اليابان) مصنعًا لإنتاجِ الروبوتاتِ، يمكنُهُ العملُ دونَ مراقبةٍ لمدةِ 30 يومًا.
-
الأمنُ القوميُّ
في تقريرٍ أجرتهُ شبكةُ CNN في عام 2024 بتكليفٍ من وزارةِ الخارجيةِ الأمريكيةِ، ذُكرَ أنَّ هناكَ صورةً مثيرةً للقلقِ عن مخاطرِ الأمنِ القوميِّ "الكارثيةِ" التي يُشكِّلها الذكاءُ الاصطناعيُّ سريعُ التطورِ. ويُحذِّرُ التقريرُ من أنَّ الوقتَ ينفدُ أمامَ الحكومةِ الفيدراليةِ لتجنُّبِ الكارثةِ. استندتِ النتائجُ إلى مقابلاتٍ معَ أكثرَ من 200 شخصٍ على مدارِ أكثرَ من عامٍ، بمن فيهم كبارُ المسؤولينَ التنفيذيينَ من شركاتِ ذكاءٍ اصطناعيٍّ رائدةٍ، وباحثينَ في مجالِ الأمنِ السيبرانيِّ، وخبراءِ أسلحةِ الدمارِ الشاملِ، ومسؤولي الأمنِ القوميِّ داخلَ الحكومةِ.
يُشيرُ التقريرُ، الذي صدرَ هذا الأسبوعَ من قبلِ "غلادستون للذكاءِ الاصطناعيِّ"، بشكلٍ قاطعٍ إلى أنَّ أنظمةَ الذكاءِ الاصطناعيِّ الأكثرَ تقدمًا يمكنُ، في أسوأِ الحالاتِ، "أن تُشكِّلَ تهديدًا على مستوى الانقراضِ للجنسِ البشريِّ". يُعدُّ التحذيرُ الواردُ في التقريرِ بمثابةِ تذكيرٍ آخرَ بأنهُ رغمَ أنَّ إمكاناتِ الذكاءِ الاصطناعيِّ لا تزالُ تأسرُ المستثمرينَ والجمهورَ، إلا أنَّ هناكَ مخاطرَ حقيقيةً أيضًا.
قالَ جيريمي هاريس، الرئيسُ التنفيذيُّ والمؤسِّسُ المشاركُ لـِ "Gladstone AI"، لشبكةِ CNN: "الذكاءُ الاصطناعيُّ هو بالفعلِ تكنولوجيا تحويليةٌ اقتصاديًّا.. يمكنُ أن يسمحَ لنا بعلاجِ الأمراضِ، وتحقيقِ الاكتشافاتِ العلميةِ، والتغلُّبِ على التحدِّياتِ التي اعتقدنا ذاتَ يومٍ أنهُ لا يمكنُ التغلُّبُ عليها".
وأضافَ هاريس: "لكنهُ قد يجلبُ أيضًا مخاطرَ جسيمةً، بما في ذلكَ المخاطرُ الكارثيةُ، التي يجبُ أن نكونَ على درايةٍ بها". وتابعَ "تشيرُ مجموعةٌ متزايدةٌ منَ الأدلةِ - بما في ذلكَ الأبحاثُ والتحليلاتُ التجريبيةُ المنشورةُ في أهمِّ مؤتمراتِ الذكاءِ الاصطناعيِّ في العالمِ - إلى أنهُ فوقَ عتبةٍ معينةٍ منَ القدرةِ، منَ المحتملِ أن تصبحَ أنظمةُ الذكاءِ الاصطناعيِّ خارجةً عنِ السيطرةِ".
قالتِ المتحدثةُ باسمِ البيتِ الأبيضِ، روبين باترسون، إنَّ الأمرَ التنفيذيَّ الذي أصدرهُ الرئيسُ جو بايدن بشأنِ الذكاءِ الاصطناعيِّ هو "الإجراءُ الأكثرُ أهميةً الذي اتخذتهُ أيُّ حكومةٍ في العالمِ للوفاءِ بالوعدِ وإدارةِ مخاطرِ الذكاءِ الاصطناعيِّ".
وقالتْ باترسون: "سيواصلُ الرئيسُ ونائبُ الرئيسِ العملَ معَ شركائنا الدوليينَ ويحثُّونَ الكونغرسَ على إقرارِ تشريعٍ منَ الحزبينِ لإدارةِ المخاطرِ المرتبطةِ بهذهِ التقنياتِ الناشئةِ".
ومنذُ ما يقربُ من عامٍ، استقالَ جيفري هينتون، المعروفُ باسمِ "الأبِ الروحيِّ للذكاءِ الاصطناعيِّ"، من وظيفتهِ في شركةِ جوجلَ وأطلقَ صافرةَ الإنذارِ بشأنِ التكنولوجيا التي ساعدَ في تطويرِها. وقالَ هينتون إنَّ هناكَ فرصةً بنسبةِ 10% أن يؤديَ الذكاءُ الاصطناعيُّ إلى انقراضِ الإنسانِ خلالَ العقودِ الثلاثةِ المقبلةِ. وقعَ هينتون وعشراتٌ من قادةِ صناعةِ الذكاءِ الاصطناعيِّ والأكاديميينَ وغيرِهم على بيانٍ في يونيوَ الماضي جاءَ فيهِ: "التخفيفُ من خطرِ الانقراضِ من الذكاءِ الاصطناعيِّ يجبُ أن يكونَ أولويةً عالميةً."
4-الحروبُ
تَغيَّرَ مفهومُ الحروبِ وأصبحتْ تنهجُ نهجًا جديدًا كليًّا. ما حدثَ بينَ الصينِ وأمريكا مؤخرًا من حظرِ أمريكا على الصينِ من تملُّكِ تكنولوجيا متقدمةٍ في الرقائقِ لم يؤثِّرْ على التنينِ الثائرِ، بل زادَهُ قوةً في الاستثمارِ في هذهِ التكنولوجيا، بل وتفوَّقَ على أمريكا ودولِ العالمِ في مجالاتٍ كثيرةٍ في هذا المجالِ. وحتى في الحروبِ التقليديةِ، فقد تفوَّقتْ باكستانُ ذاتُ التكنولوجيا والأسلحةِ الصينيةِ على الهندِ ذاتِ التقدمِ في البرمجةِ والأسلحةِ الأمريكيةِ.
أليكس كارب ودور التكنولوجيا في الحروب
هناك القليلُ مما هو تقليديٌّ حولَ أليكس كارب، الرئيسِ التنفيذيِّ لشركةِ بالانتير، شركةِ البياناتِ الكبيرةِ التي أصبحتْ مكروهةً من نشطاءِ الخصوصيةِ والحرياتِ المدنيةِ لعملها لمؤسسةِ الأمنِ القوميِّ. يديرُ الآنَ شركةَ تكنولوجيا في طليعةِ تحليلاتِ البياناتِ والذكاءِ الاصطناعيِّ. يصفُ نفسَهُ بأنهُ تقدُّميٌّ، لكنَّ شركتهُ تعرضتْ لانتقاداتٍ لتزويدِ الحكوماتِ بالتكنولوجيا التي يمكنُ استخدامُها لممارسةِ سيطرةٍ مفرطةٍ على المواطنينَ.
وجهةُ نظرِهِ بشأنِ ما ينتظرُنا في المستقبلِ بسيطةٌ:
"الدولةُ التي تفوزُ في معاركِ الذكاءِ الاصطناعيِّ في المستقبلِ ستحدِّدُ النظامَ الدوليَّ لأنَّ التكنولوجيا لا تقلُّ أهميةً عنِ القنبلةِ النوويةِ". لا يشعرُ كارب بالخجلِ من عملِ شركتهِ لصالحِ وكالاتِ الاستخباراتِ والأمنِ الوطنيةِ.
المحكمةُ الجنائيةُ الدوليةُ تدخَّلتْ لمواجهةِ الإبادةِ الجماعيةِ في غزةَ، لكنَّ أباطرةَ التكنولوجيا الذينَ يصمِّمونَ ويوفرونَ أدواتِ الإبادةِ يبقونَ من دونِ محاسبةٍ إلى حدٍّ كبيرٍ. منذُ الثامنِ من أكتوبر/تشرينِ الأولَ، ذُبحَ آلافُ الفلسطينيينَ في حربٍ وحشيةٍ حصدتْ أرواحًا تفوقُ ما حصدتهُ جميعُ الصراعاتِ الأخرى مجتمعةً في العامينِ الماضيينِ.
أدَّتِ الخسائرُ الفادحةُ في الأرواحِ إلى تجديدِ التدقيقِ في دورِ التكنولوجيا في تسهيلِ ارتكابِ هذهِ الجرائمِ. تعملُ شركاتُ "بالانتير تكنولوجيز"، بقيادةِ أليكس كارب، على تسهيلِ جرائمِ الحربِ هذهِ بشكلٍ مباشرٍ من خلالِ توفيرِ أدواتٍ متقدمةٍ لتحليلِ البياناتِ والذكاءِ الاصطناعيِّ. وتسمحُ هذهِ التقنياتُ بالاستهدافِ الدقيقِ والقتلِ الجماعيِّ للمدنيينَ، وتحويلِ الحربِ إلى حملةِ إبادةٍ محسوبةٍ وممنهجةٍ.
لتجنُّبِ هذهِ المخاطرِ
-
الاستثمارُ في التعليمِ والتدريبِ
يجبُ على الأفرادِ والمؤسساتِ والدولِ الاستثمارُ في التعليمِ والتدريبِ لإعدادِ العمالةِ الجديدةِ بأسلوبٍ ومنهجٍ متطورٍ يواكبُ مزاحمةَ الذكاءِ الاصطناعيِّ لفرصِ العملِ.
-
وضعُ أطرٍ قانونيةٍ وأخلاقيةٍ
يجبُ وضعُ أطرٍ قانونيةٍ وأخلاقيةٍ لتنظيمِ استخدامِ الذكاءِ الاصطناعيِّ من جميعِ الجهاتِ (أفرادٍ ومؤسساتٍ وحكوماتٍ ودولٍ).
-
تعزيزُ التعاونِ الدوليِّ
يجبُ تعزيزُ التعاونِ الدوليِّ لضمانِ استخدامِ الذكاءِ الاصطناعيِّ بشكلٍ مسؤولٍ وفعَّالٍ.
-
التركيزُ على الإنسان
: يجبُ أن يكونَ الإنسانُ محورَ تطويرِ الذكاءِ الاصطناعيِّ، معَ ضمانِ أن يكونَ الذكاءُ الاصطناعيُّ أداةً مساعدةً وليسَ بديلًا للبشرِ.