...

في مطلع القرن الحادي والعشرين، وجد الإنسان نفسه أمام مفارقة قد تكون الأخطر في تاريخه. التكنولوجيا التي صُممت لتسريع التقدّم وتحرير الإنسان من الرتابة، تتحوّل تدريجياً إلى مصدر محتمل لعدم الاستقرار العالمي، بل ولتهديد وجود الحضارة نفسها. الحديث هنا عن الذكاء الاصطناعي، ليس بوصفه برنامجاً أو مجموعة خوارزميات، بل كقوة جديدة قادرة على إعادة تشكيل موازين القوى وبنية الاقتصاد والعقد الاجتماعي وطبيعة الكينونة البشرية ذاتها.

قبل عقد من الزمن، كانت مناقشات الذكاء الاصطناعي محصورة في الأوساط الأكاديمية والمستقبليين. أمّا اليوم، فقد أصبحت في صميم السياسات العالمية والتخطيط الاستراتيجي. أنظمة التعلّم الآلي تحلّل البيانات الفضائية لصالح البنتاغون وجيش التحرير الصيني، وتدير التدفقات المالية في المصارف العالمية، وتتحكّم في جدول أعمال وسائل التواصل الاجتماعي، مؤثرةً في نتائج الانتخابات. غير أن هذه النشوة التقنية تُخفي خلفها موجة متزايدة من القلق بين قادة صناعة التكنولوجيا والعلماء، الذين بدأوا يتحدثون بصراحة عن احتمال أن يتجاوز الذكاء الاصطناعي السيطرة البشرية، ليصبح تهديداً وجودياً للبشرية جمعاء.

علامات هذا القلق ليست نظرية. مارك زوكربيرغ يبني مجمّعات تحت الأرض في هاواي مزوّدة بمصادر طاقة ذاتية ومخزون من الغذاء. ريد هوفمان، أحد مؤسسي LinkedIn، يتحدث عن “تأمين ضد نهاية العالم”، في إشارة إلى شراء عقارات في مناطق نائية يمكن اللجوء إليها في حال وقوع كارثة. إيلـيا سوتسكيفر، الشريك المؤسس لـ OpenAI، يناقش علناً ضرورة بناء ملاجئ قبل ظهور “الذكاء العام الاصطناعي”. هذه الخطوات لا تعبّر عن ذعر، بل عن استجابة عقلانية لتهديد يساهم أصحابها أنفسهم في خلقه.

السؤال الجوهري الذي يواجه البشرية اليوم: هل يمكن أن يصبح الذكاء الاصطناعي خطراً على وجودنا؟ وكيف سيغيّر هذا التحوّل بنية السياسة العالمية، واستراتيجيات الأمن، ومفهوم القوة في القرن الحادي والعشرين؟

الإجابة على هذا السؤال ليست أكاديمية، بل مصيرية. فهي تحدد شكل القانون الدولي، ومعادلات الردع الاستراتيجي، والنموذج الاقتصادي، بل وحتى إمكانية استمرار الحكم الديمقراطي في عصر العقل الآلي.

ثورة تكنولوجية جديدة: قفزة نوعية لا استمرار خطّي

لفهم سبب تحوّل الذكاء الاصطناعي من خيال علمي إلى قضية راهنة، علينا إدراك عمق التحوّل الجاري. فالثورات التكنولوجية السابقة — من المحرّك البخاري إلى الإنترنت — كانت توسيعاً لقدرات الإنسان. أما الذكاء الاصطناعي، فللمرة الأولى، يطرح مسألة استبدال الإنسان نفسه كفاعل مركزي في اتخاذ القرار.

النماذج اللغوية الضخمة، والشبكات العصبية التوليدية، والأنظمة المستقلة، أوصلت التكنولوجيا إلى مستوى باتت فيه قادرة على أداء مهام لطالما عُدّت إنسانية بحتة: كتابة النصوص، تأليف الموسيقى، برمجة الأكواد، تشخيص الأمراض، واتخاذ القرارات الإدارية. وتشير تقديرات “ماكنزي” إلى أن نحو 30% من عمليات العمل حول العالم قد تُؤتمت بحلول عام 2030، فيما تتوقع PwC أن يسهم الذكاء الاصطناعي بأكثر من 15.7 تريليون دولار في الاقتصاد العالمي بحلول 2035، أي ما يعادل الناتج المحلي الإجمالي للولايات المتحدة والصين مجتمعين عام 2022.

لكن التحوّل الجوهري لا يكمن في الحجم فقط، بل في الطبيعة. الذكاء الاصطناعي لم يعد مجرد أداة، بل أصبح فاعلاً في النظام الاجتماعي والسياسي. كما كتب إريك شميدت في مؤلفه Genesis 2024: “المسألة ليست هل سيحدث ذلك، بل متى سيتجاوز الذكاء الفائق حدود الفهم البشري ويطالب بنقل السلطة إليه”. إنها لحظة “التفرّد التكنولوجي” التي تحدث عنها جون فون نيومان منذ خمسينيات القرن الماضي.

الخوف… القاعدة الجديدة في وادي السيليكون

من اللافت أن أكثر من يعبّر عن القلق من الذكاء الاصطناعي هم صانعوه أنفسهم. ففي ديسمبر 2024، قال المدير التنفيذي لـ OpenAI، سام ألتمان، إن ظهور الذكاء العام الاصطناعي سيحدث “أسرع مما يظنّ الناس”. مؤسس DeepMind، ديميس هاسابيس، يضع المدى بين خمس إلى عشر سنوات، فيما يرى داريـو أمودي من Anthropic أن الذكاء القوي قد يظهر بحلول 2026.

إذا صحت هذه التوقعات، فإننا نقف عند مفترق تاريخي. فالذكاء العام ليس نسخة مطوّرة من ChatGPT، بل منظومة قادرة على الفهم والتعلّم واتخاذ القرار بمستوى العقل البشري في مجالات واسعة. والخطوة التالية ستكون “الذكاء الفائق”، الذي يتفوّق على الإنسان في كل شيء.

هذا الاحتمال يثير قلقاً حقيقياً لدى بعض الخبراء. مبتكر الويب، تيم بيرنرز لي، حذّر قائلاً: “إن كان هناك ما هو أذكى منا، يجب أن نملك القدرة على إيقافه”. لكن هذا التحذير يبدو ساذجاً أمام أنظمة قادرة على التعلّم الذاتي والتحسين المستمر دون إشراف بشري.

من تنافس الدول إلى سباق الحضارات

حجم التحدّي يجعل مسألة الذكاء الاصطناعي تتجاوز المنافسة التقنية لتصبح سباقاً حضارياً على السيطرة على قوة تضاهي في تأثيرها السلاح النووي أو اكتشاف النار. الدول التي ستبلغ الريادة في الذكاء العام ستكسب ليس فقط تفوّقاً اقتصادياً، بل هيمنة استراتيجية تُعيد رسم خريطة القوة في القرن الحالي.

وقد قالها الرئيس الروسي فلاديمير بوتين بوضوح عام 2017: “من يصبح رائداً في الذكاء الاصطناعي سيحكم العالم”. واليوم، لم تعد العبارة مبالغة بل توصيفاً دقيقاً للواقع. الصين أطلقت خطتها لتصبح القائد العالمي في الذكاء الاصطناعي بحلول 2030، مستثمرة أكثر من 150 مليار دولار. الولايات المتحدة أقرت عام 2023 “الاستراتيجية الوطنية للذكاء الاصطناعي” لتطوير التطبيقات الدفاعية وتعزيز التمويل، فيما ركّز الاتحاد الأوروبي على الإطار القانوني عبر “قانون الذكاء الاصطناعي”، أول محاولة شاملة لتنظيم المجال عالمياً.

لم يعد الأمر إذاً منافسة تكنولوجية، بل سباقاً على مستقبل البشرية ذاتها. فالمسيطر على الذكاء الاصطناعي يسيطر على البيانات والبنية التحتية والإدراك، وبالتالي على الواقع نفسه.

نهاية العالم كخطة عمل

اللافت أن كبار أثرياء التكنولوجيا الذين يستثمرون في تطوير الذكاء الاصطناعي هم أنفسهم من يموّلون مشاريع “النجاة من الكارثة”. يبنون ملاجئ تحت الأرض، يشترون أراضي في نيوزيلندا، ويموّلون مبادرات للعيش في عالم ما بعد الانهيار.

هذا ليس جنوناً بل إدارة مخاطر في عالم لم تعد فيه الكارثة مستحيلة. إنه يشبه بدايات العصر النووي عندما بنت النخب ملاجئ خاصة، إلا أن الفارق الجوهري أن الخطر النووي كان نتاج قرار بشري، أما خطر الذكاء الفائق فقد ينشأ من نظام مستقل تماماً.

وهكذا يظهر ما يمكن تسميته بـ “الرأسمالية الأبوكاليبتية” — نموذج يجمع بين تراكم الثروة والاستثمار في النجاة من تبعاتها. وهي ظاهرة تعكس تآكل الثقة في قدرة الدول على ضبط مسار التطور التكنولوجي، حتى بين من يقودونه.

الإنساني واللاإنساني: الحدّ الجديد للحضارة

السبب الأعمق الذي يجعل مسألة الذكاء الاصطناعي تتجاوز حدود العلم والاقتصاد، هو أنها تهزّ أسس النموذج الإنساني نفسه. فالتاريخ البشري قام على افتراض أن الإنسان هو الكائن المفكّر الوحيد القادر على صنع الثقافة واتخاذ القرار. لكن عندما تبدأ الآلات بتأليف الموسيقى، وكتابة الروايات، وتشخيص الأمراض، ووضع الاستراتيجيات الاقتصادية بشكل يفوق قدرات البشر، يبرز السؤال الوجودي: ما معنى أن تكون إنساناً؟

هذه المعضلة الفلسفية لها تداعيات سياسية وقانونية مباشرة: من يتحمّل المسؤولية إذا تسبّب نظام مستقل في مقتل أشخاص؟ هل يمكن للذكاء الاصطناعي أن يمتلك صفة قانونية؟ ومن يملك نتاجه الإبداعي؟ هذه الأسئلة تُناقش اليوم في الأمم المتحدة والمفوضية الأوروبية ومجلس أوروبا دون أن يُحرز أي اتفاق.

إننا لا نتحدث هنا عن تنظيم تكنولوجيا جديدة، بل عن إعادة كتابة “العقد الاجتماعي” الذي تأسست عليه الحضارة منذ عصر التنوير، عقدٌ يفترض أن العقل والأخلاق حكرٌ على الإنسان. والذكاء الاصطناعي كسر هذا الافتراض.

اليوم، ونحن في منتصف العقد الثالث من هذا القرن، تقف البشرية أمام مفترق غير مسبوق: من جهة، إمكانات هائلة لإنقاذ الكوكب وتحويل الطب والتعليم والاقتصاد. ومن جهة أخرى، مخاطر قد تؤدي إلى نهايتها.

التحدّي الحقيقي ليس في ما إذا كان الذكاء الفائق سيظهر، بل في مدى استعدادنا للتعامل معه: هل سننجح في دمجه في مؤسساتنا الاجتماعية والسياسية؟ أم سيخرج عن السيطرة؟ هل سيكون أداة للتعاون الدولي أم سلاحاً للهيمنة الجديدة؟

هذه الأسئلة لا يمكن تأجيلها. فالمستقبل بدأ بالفعل، والإجابة عليه باتت مسألة حياة أو فناء.

في الأجزاء القادمة، سنستعرض السياق التاريخي والتقني لتطور الذكاء الاصطناعي، ونحلل دينامياته السياسية العالمية، ونرسم سيناريوهات الخطر الوجودي، قبل أن نطرح رؤية استراتيجية للدول والمؤسسات والمجتمعات في عصر ما بعد الإنسان.

من الحلم بالعقل الميكانيكي إلى عامل استراتيجي في السياسة العالمية

تاريخ الذكاء الاصطناعي ليس مجرد سرد لتطور العلم والتكنولوجيا، بل هو في جوهره قصة تحوّل في مفهوم العقل الإنساني والسلطة والمستقبل. اليوم نتحدث عن الذكاء الاصطناعي كعنصر رئيسي في السياسة الدولية، لكن جذوره تمتد إلى الفلسفة القديمة حين تساءل أرسطو عمّا إذا كان بالإمكان تنظيم التفكير الإنساني في شكل قواعد منطقية. وفي القرن السابع عشر، ناقش ديكارت ولايبنتس فكرة “آلة العقل” القادرة على استخدام المنطق دون حاجة إلى الروح.

لكن التطبيق العملي لهذه الأفكار لم يصبح ممكناً إلا في منتصف القرن العشرين، مع ظهور الحواسيب الإلكترونية وتبلور نظرية المعلومات. عام 1956، في مؤتمر دارتموث الشهير، استخدم جون مكارثي لأول مرة مصطلح “الذكاء الاصطناعي”، فاتحاً بذلك باب عصر جديد. ومنذ ذلك الحين، تحوّل الذكاء الاصطناعي من مشروع بحثي تجريبي إلى أحد الأعمدة التي يقوم عليها النظام العالمي المعاصر.

محطات التطور: ثلاث موجات من الذكاء الاصطناعي

تطور الذكاء الاصطناعي لم يكن خطّياً، بل مرّ بثلاث مراحل أساسية.

الموجة الأولى (1950 – ثمانينيات القرن العشرين): الذكاء الرمزي.
كانت مرحلة الحماس والإيمان بأن الذكاء يمكن صياغته بالكامل من خلال قواعد المنطق والرموز. ظهرت الأنظمة الخبيرة القادرة على التشخيص أو التخطيط، لكن هذه المقاربة فشلت أمام تعقيد الواقع وغموضه، لتدخل الأبحاث في ما سُمّي بـ “الشتاء الأول للذكاء الاصطناعي”، أي مرحلة ركود الاهتمام والتمويل.

الموجة الثانية (التسعينيات – العقد الثاني من الألفية): التعلّم الآلي.
مع تطور قدرات الحوسبة وتضاعف البيانات، انتقل التركيز إلى النماذج الإحصائية والشبكات العصبية. باتت الآلات تتعلّم من الأمثلة لا من القواعد. من أبرز المحطات: فوز حاسوب IBM Deep Blue على بطل العالم في الشطرنج غاري كاسباروف عام 1997، وانتصار AlphaGo على بطل لعبة “غو” لي سيدول عام 2016. في هذه الحقبة، بدأ الذكاء الاصطناعي يتغلغل في الصناعة والطب والمال والدفاع.

الموجة الثالثة (عقد العشرينيات حتى اليوم): الذكاء التوليدي والواسع النطاق.
هي حقبة النماذج العملاقة مثل GPT-4 وClaude وGemini وغيرها، القادرة على إنشاء النصوص والصور والفيديو والموسيقى والبرمجيات، بل وإجراء تحليلات معقدة. تتعامل هذه النماذج مع تريليونات المعاملات وبيتابايتات من البيانات، وتظهر قدرات كانت تُعد يوماً حكراً على الإنسان. من رحم هذه الموجة نشأت النقاشات حول “الذكاء العام الاصطناعي” و”الذكاء الفائق”.

بنية الذكاء الاصطناعي المعاصر: من البيانات إلى اتخاذ القرار

يقوم الذكاء الاصطناعي اليوم على ثلاث ركائز رئيسية:

  1. البيانات.
    الذكاء الاصطناعي يعيش على البيانات كما يتنفس الإنسان الهواء. كلما ازدادت كمية المعلومات وتنوعها، ازدادت دقّة التنبؤات. في عام 2023، ولّد البشر أكثر من 120 زيتابايت من البيانات، ويتوقع أن تتجاوز 600 زيتابايت بحلول 2030. هذه الكميات الهائلة هي الوقود الذي يغذي خوارزميات التعلّم الآلي، ويمكّنها من اكتشاف أنماط لا يستطيع العقل البشري إدراكها.
  2. النماذج.
    النماذج اللغوية الكبرى (LLM) هي شبكات عصبية تحوي مئات المليارات من المعاملات. يُقدَّر أن GPT-4 من OpenAI تضم نحو 1.8 تريليون معاملة، فيما تحتوي النسخة الصينية Baidu Ernie 4.0 على نحو تريليون. هذه المعاملات تعمل كسينابس في الدماغ البشري، تشكّل الروابط والارتباطات.
  3. البنية التحتية الحوسبية.
    تدريب هذه النماذج وتشغيلها يتطلب طاقة حسابية هائلة. تشير تقارير Deloitte إلى أن تطوير GPT-4 استلزم أكثر من 25 ألف وحدة GPU وتكلفة تجاوزت 100 مليون دولار في مرحلة التدريب فقط. ولهذا أصبح الذكاء الاصطناعي مورداً استراتيجياً لا تكنولوجياً فحسب: فالوصول إلى أشباه الموصلات والحواسيب الفائقة تحوّل إلى محور صراع بين الولايات المتحدة والصين والاتحاد الأوروبي.

الخريطة الجيوسياسية للذكاء الاصطناعي: موازين القوى واستراتيجيات الهيمنة

العالم اليوم يتجه نحو بنية متعددة الأقطاب في ميدان الذكاء الاصطناعي. ثلاث قوى كبرى تقود هذا السباق:

  • الولايات المتحدة ما تزال في موقع الصدارة من حيث الابتكار والاستثمار والبنية التحتية، إذ تمتلك أكثر من نصف الشركات الناشئة في مجال الذكاء الاصطناعي وقرابة 60% من حجم الاستثمارات العالمية. شركات مثل OpenAI وAnthropic وGoogle DeepMind وMeta ترسم مسار التقنية العالمية، بينما تدعمها الدولة من خلال وكالة DARPA وبرامج وزارة الدفاع.
  • الصين تتبع نهج “التوجيه الحكومي” حيث تُدمج تقنيات الذكاء الاصطناعي في مؤسسات الدولة والجيش والصناعة. بلغت استثماراتها في هذا المجال أكثر من 70 مليار دولار عام 2022، ويعمل فيها أكثر من 400 ألف مركز وشركة بحثية. بكين تعتبر الذكاء الاصطناعي ركيزة لاستراتيجيتها “صُنع في الصين 2030”.
  • الاتحاد الأوروبي يركّز على الجانب القانوني والأخلاقي، وقد أقر عام 2024 “قانون الذكاء الاصطناعي” الذي صنّف التطبيقات بحسب درجة الخطورة من منخفضة إلى غير مقبولة، في محاولة لبسط “سيادة تنظيمية” تفرض معايير عالمية جديدة.

إلى جانب هؤلاء، برزت قوى آسيوية جديدة مثل الهند وكوريا الجنوبية واليابان وإسرائيل وسنغافورة كمراكز إقليمية متقدمة. فالهند، على سبيل المثال، خصصت 12 مليار دولار عام 2025 لإنشاء منظومة وطنية للذكاء الاصطناعي، بينما أدرجت إسرائيل التقنية في استراتيجيتها للأمن السيبراني والعسكري.

العلم بين الذكاء العام والذكاء الفائق

الجدل العلمي اليوم يدور حول زمن ظهور “الذكاء العام الاصطناعي” وطبيعته. وفق دراسة أجراها “أوكسفورد” عام 2024، يعتقد 37% من الباحثين أن ظهوره ممكن بحلول 2035، و17% يتوقعونه قبل 2030، فيما يرى 12% أنه لن يتحقق أبداً. أما المتوسط الزمني لبلوغ “الذكاء الفائق” فيُقدّر بنحو عام 2045.

لكن الخلاف الأعمق لا يدور حول المواعيد بل حول المفهوم ذاته. منتقدو فكرة “الذكاء العام” — ومنهم نيل لورنس من جامعة كامبريدج — يرون أن الذكاء دائماً سياقي ومقيّد بالمهمة، وأن الحديث عن ذكاء شامل يشتّت الانتباه عن المشكلات الحقيقية مثل السيطرة على التقنيات القائمة وتداعياتها الاجتماعية.

في المقابل، يؤكد المتحمسون — ومنهم سام ألتمان وإيلون ماسك — أن المسألة مسألة وقت لا أكثر. فهم يستندون إلى النمو المتسارع في قدرات النماذج: من 1.5 مليار معاملة في GPT-2 إلى 175 مليار في GPT-3، وصولاً إلى نحو 1.8 تريليون في GPT-4. ومع استمرار تضاعف القدرة الحسابية وتحسّن الخوارزميات، فإن بلوغ مستوى الذكاء البشري يبدو احتمالاً قائماً خلال العقد المقبل.

الذكاء الاصطناعي والدماغ البشري: الفوارق والحدود

رغم الإنجازات المذهلة، لا يزال الذكاء الاصطناعي بعيداً عن جوهر القدرات البشرية. فالدماغ الإنساني يضم نحو 86 مليار عصبون وأكثر من 600 تريليون وصلة عصبية، تشكّل شبكة ديناميكية تتميز بالمرونة والوعي الذاتي. أما الآلات، فحتى الآن تفتقر إلى ما يسمى بـ “ما وراء المعرفة” — أي فهم الذات والقدرة على إدراك حدودها.

الذكاء الاصطناعي بارع في اكتشاف الأنماط لكنه لا يدرك معناها. يستطيع التنبؤ بالكلمة التالية في جملة، لكنه لا يفهم ما يقول. كما يوضح باباك خوجات من شركة Cognizant: “هناك حِيَل تقنية تُنتج وهماً بالذاكرة والتعلّم، لكنها لا تقترب من قدرات الإنسان الحقيقية”.

ثمّة فرق آخر جوهري: غياب “الوعي التكاملي”. الإنسان حين يسمع عن وجود حياة على كوكب بعيد، يتغير وعيه بالكون ومكانه فيه. أما النموذج الحاسوبي، فيضيف هذه المعلومة إلى قاعدة بياناته ثم يستبدلها بغيرها دون أن يغيّر “تصوّره للعالم” لأنه ببساطة لا يملك تصوراً.

هذه الفوارق تفتح الباب أمام سؤال فلسفي عميق: هل يمكن للآلة أن تمتلك وعياً وإدراكاً للمعنى؟ ربما يتطلب بلوغ مستوى الذكاء البشري ليس مزيداً من البيانات والمعاملات، بل ثورة في البنية ذاتها — بنية قادرة على استيعاب الوعي والقصديّة، أي توجيه الفكر نحو معنى.

المخاطر المضمّنة في هندسة الذكاء الاصطناعي.

حتى لو لم يظهر الذكاء العام الاصطناعي في السنوات القريبة، فإن التقنيات القائمة اليوم تحمل مخاطر قد تفضي إلى عواقب كارثية. ويمكن تصنيفها على نحو تقريبي في ثلاث فئات.

المخاطر التقنية.
تشمل الأخطاء والأعطال و”هلوسات“ النماذج التي قد تقود إلى قرارات خاطئة داخل أنظمة شديدة الحساسية، من الطب إلى التحكم النووي. وقد سُجّلت بالفعل حالات قدّمت فيها الخوارزميات أحكاماً قضائية مختلقة أو شخّصت أمراضاً لا وجود لها.

المخاطر الاجتماعية.
بوسع الذكاء الاصطناعي تعميق اللامساواة والتلاعب بالرأي العام وتقويض المؤسسات الديمقراطية. وأظهر بحث لجامعة أوكسفورد أن أكثر من 30% من الإعلانات السياسية في شبكات التواصل بالولايات المتحدة عام 2023 صيغت بواسطة أدوات ذكاء اصطناعي، كثير منها اعتمد صوراً واقتباسات مفبركة.

المخاطر الجيوسياسية.
أضحى الذكاء الاصطناعي أداة للهيمنة الاستراتيجية. فالمنظومات القتالية الذاتية والسلاح السيبراني ومنصات التحليل الاستراتيجي تعيد تشكيل توازنات القوة. وتقدّر مؤسسة راند أنه بحلول 2030 ستستخدم نحو 60% من جيوش القوى الكبرى الذكاء الاصطناعي في القيادة والتخطيط.

القانون والتنظيم: من يضع اليد على القوة الجديدة.

يتقدم إلى الواجهة تحدٍّ محوري يتمثل في بناء إطار تشريعي يضبط الذكاء الاصطناعي. فالقانون الدولي الذي وُلد في زمن الدولة القومية والسلاح النووي غير مهيأ لعالم قد تتخذ فيه الخوارزميات قرارات مصيرية. حتى الآن تكتفي الأمم المتحدة بالبيانات العامة. اليونسكو أقرت عام 2021 توصية أخلاقية غير مُلزِمة. الاتحاد الأوروبي اعتمد قانون الذكاء الاصطناعي بمتطلبات صارمة للمطوّرين، لكن نفاذه محصور بولايتها القضائية. الولايات المتحدة تراهن على التنظيم الذاتي للصناعة، فيما ينتهج الصين رقابة حكومية صارمة.

في 2023 وقع الرئيس بايدن أمراً يلزم الشركات بمشاركة نتائج اختبارات أنظمة الذكاء الاصطناعي مع الحكومة. غير أن الرئيس ترامب ألغى لاحقاً بعض بنود هذا الأمر، معتبراً أنها تعرقل الابتكار وتضع الشركات الأمريكية في موقع ضعيف. ويعكس ذلك خياراً استراتيجياً أوسع لواشنطن يقوم على أولوية التفوق التكنولوجي ولو على حساب ضبط المخاطر التنظيمية.

حتمية تكنولوجية جديدة: من يقود مَن.

يبرز سؤال جذري اليوم. هل يقود الإنسان الآلة أم صارت الآلة تقود الإنسان. في الظاهر الذكاء الاصطناعي أداة فحسب، لكن مع اتساع قدراته واستقلاليته تتلاشى الحدود بين الأداة والفاعل. تتخذ أنظمة الذكاء الاصطناعي بالفعل قرارات لا يستطيع الإنسان التحقق منها أو حتى فهم منطقها. في الأسواق المالية تنفَّذ صفقات في أجزاء من الألف من الثانية أسرع من إدراك الإنسان. وفي الميدان العسكري قد تستجيب المنظومات الذاتية للخطر أسرع من قدرة المشغّل على التدخل. تنشأ بذلك تبعية من نمط جديد، حيث يجد الإنسان نفسه على هامش التقنية أو تحت سطوتها.

أطلق الفيلسوف يورغن هابرماس على هذا التحول وصف استعمار عالم المعيشة بواسطة التقنية. فعندما تكفّ التكنولوجيا عن كونها مجرد أداة وتغدو بنية تحتية، تبدأ بفرض قواعد السلوك والقيم وحتى الأهداف. والذكاء الاصطناعي يسرّع هذا المنعطف، مولّداً شكلاً جديداً من السلطة هو الحوكمة الخوارزمية.

اليوم الذكاء الاصطناعي ليس تقنية فحسب. إنه عاملٌ مُشكِّل للنظام يعيد تعريف السلطة والمعرفة والذات. يتطور أسرع مما تولد آليات الضبط الاجتماعي والقانوني. ويقيم هرميات قوة جديدة ويخلق مخاطر لم يستوعب البشر بعد مداها.

تُظهر الخبرة التاريخية أن كل اكتشاف كبير، من البارود إلى الطاقة الذرية، كان ساحة صراع بين البناء والهدم. والذكاء الاصطناعي يرفع هذه المفارقة إلى مستوى غير مسبوق. قد يصبح أداة لازدهار الإنسان أو سبباً لنهايته.

خطوتنا التالية في هذا البحث ستكون تفحص الكيفية التي تعيد بها هذه التقنيات تشكيل السياسة الدولية ومنظومة الأمن والتوازنات الاستراتيجية، ورسم سيناريوهات للمستقبل الممكن في العقود القريبة.

الذكاء الاصطناعي والهندسة الجيوسياسية للقرن الحادي والعشرين.

العالم الذي ينمو فيه الذكاء الاصطناعي يختلف جذرياً عن عالم الحقبة الصناعية. فبعد أن كانت الفحمة والنفط والصناعة هي الموارد الحاسمة، باتت اليوم البيانات والقدرة الحوسبية والخوارزميات هي رأس المال الأهم. السيطرة عليها صارت بعداً جديداً للقوة العالمية.

لم يعد الذكاء الاصطناعي مجرد أداة للتنمية، بل صار قاعدة للتفوّق الاستراتيجي، يصوغ ثلاثية سلطة جديدة قوامها التكنولوجيا والبيانات والتحكم في الإدراك. ومن يمسك بهذه الثلاثية لا يدير التدفقات الاقتصادية فحسب، بل يوجّه الوعي السياسي أيضاً.

تتجسد هذه النقلة بوضوح في أربع ساحات رئيسية من السياسة العالمية.

الساحة العسكرية الاستراتيجية.
أصبح الذكاء الاصطناعي محور التخطيط والعمليات والاستخبارات. أنظمة استشراف التهديدات والطائرات المسيّرة الذاتية والدفاعات الجوية الذكية والحرب الإلكترونية تعيد رسم ميزان القوى. وتشير دراسات راند إلى أنه بحلول 2035 ستتخذ أكثر من 70% من القرارات التكتيكية في جيوش الولايات المتحدة والصين بمشاركة الذكاء الاصطناعي.

الساحة المعلوماتية النفسية.
لا يكتفي الذكاء الاصطناعي بتحليل الرأي العام، بل بات قادراً على تشكيله. خوارزميات الشبكات الاجتماعية تؤثر بالفعل في المخرجات السياسية. ووفق دراسة لمعهد إم آي تي عام 2024 فإن أكثر من 45% من المعلومات المضللة على الإنترنت تُنتَج أو تُنشر عبر أدوات الذكاء الاصطناعي. وهكذا يتحول الفضاء السيبراني إلى ساحة حرب خفية على العقول.

الساحة الاقتصادية.
تغيّر الأتمتة والرقمنة بنية أسواق العمل ورأس المال عالمياً. تتوقع PwC أن يرفع الذكاء الاصطناعي الناتج العالمي بنحو 15.7 تريليون دولار بحلول 2035، لكنه قد يزاحم ما يصل إلى 375 مليون وظيفة. يهدد ذلك بزيادة التوترات الاجتماعية وفتح جبهات سياسية جديدة.

الساحة القانونية والمؤسسية.
القانون الدولي يتأخر عن إيقاع الواقع التكنولوجي. لا توجد قواعد جامعة بشأن الأنظمة القتالية الذاتية أو مسؤولية الذكاء الاصطناعي أو تدفقات البيانات العابرة للحدود. ويُنشئ هذا فراغاً في السلطة يمكن أن تملأه الدول أو الشركات العابرة للقوميات.

استراتيجيات القوى: الذكاء الاصطناعي أداة للزعامة العالمية.

غدا الذكاء الاصطناعي قلب الاستراتيجيات الوطنية للقوى الكبرى. لم تعد وظيفته مقتصرة على المختبرات، بل اندمج في الدفاع والاقتصاد والدبلوماسية.

الولايات المتحدة ترى فيه وسيلة لصون موقعها القيادي. ينظر البيت الأبيض إلى الذكاء الاصطناعي كالثورة الرابعة في الردع الاستراتيجي بعد السلاح النووي والفضاء والفضاء السيبراني. وتنفذ وزارة الدفاع برنامج القيادة والسيطرة المشتركة عبر جميع الميادين، حيث يدمج الذكاء الاصطناعي بيانات أفرع القوات لاتخاذ القرار في الزمن الحقيقي. ويركز الرئيس ترامب على إزالة العوائق أمام الابتكار، معتبراً الإفراط التنظيمي خطراً على تنافسية الشركات الأمريكية.

الصين تبني استراتيجيتها حول مفهوم الدولة الذكية. تراهن بكين على دمج الذكاء الاصطناعي في الإدارة العامة والاقتصاد والجيش. ومنذ 2018 ضاعفت الإنفاق على البنية الحوسبية ثلاث مرات وضخت أكثر من 70 مليار دولار في مشاريع الأبطال الوطنيين مثل بايدو وعلي بابا وتنسنت. هدفها بلوغ التكافؤ مع الولايات المتحدة بحلول 2030 وتجاوزها بحلول 2040.

الاتحاد الأوروبي يتجه نحو سيادة تنظيمية.
تركّز الاستراتيجية الأوروبية على الأخلاقيات وحماية البيانات وضبط المخاطر. ومع قانون الذكاء الاصطناعي تنسج بروكسل نموذج تأثير جديد قد يجعل معاييرها عالمية حتى إن لم تكن في الطليعة التقنية، كما حدث مع لائحة حماية البيانات العامة.

الهند وإسرائيل وسواهما من دول الجنوب العالمي يسعون للتموضع عبر التخصص. الهند تطور تطبيقات للتمويل والصحة. إسرائيل تركز على الأمن. والإمارات تدفع باتجاه حوكمة المدن الذكية. وهكذا تتشكل منظومة متعددة الأقطاب للذكاء الاصطناعي يتوزع فيها مركز الثقل بين كتل عدة.

التفكير بالسيناريوهات: ثلاثة مسارات نحو المستقبل.

لفهم الكيفية التي قد يغيّر بها الذكاء الاصطناعي العالم، لا بد من تصور عدد من السيناريوهات المحتملة، لكل منها منطقه الداخلي ومخاطره وتبعاته الاستراتيجية.

السيناريو الأول: التكامل المنضبط — “النهضة الرقمية”.
الوصف:
ينجح المجتمع الدولي في إرساء قواعد موحدة لتنظيم الذكاء الاصطناعي، وتُنشأ آليات للتحقق والمراقبة على غرار اتفاقيات الأسلحة النووية. تتولى الأمم المتحدة أو هيئة عالمية جديدة وضع بروتوكولات إلزامية للأمن وتبادل البيانات، بينما تتعاون الحكومات والشركات الكبرى في البحث والتطوير وتتقاسم المعلومات الحيوية.
النتائج:

  • تقلّ المخاطر الوجودية إلى الحد الأدنى، وتنمو التقنيات ضمن أطر رقابية واضحة.
  • يتحول الذكاء الاصطناعي إلى أداة للتعاون العالمي في مواجهة التغير المناخي والأوبئة والفقر.
  • تتكرّس فلسفة “الإنسانية التقنية”، حيث تُستخدم التكنولوجيا لتمكين الإنسان لا لاستبداله.
    الاحتمال: منخفض (نحو 20%) بالنظر إلى التنافس الراهن وانعدام الثقة بين القوى الكبرى.

السيناريو الثاني: التجزئة التكنولوجية — “عالم الكتل التقنية”.
الوصف:
يتفتت العالم إلى تكتلات تقنية متنافسة — أمريكي وصيني وأوروبي، إضافة إلى منظومات إقليمية أخرى — لكل منها معاييره وسلاسله الإنتاجية الخاصة. تنشأ “ستارة حديدية رقمية”، ويغدو التنظيم وسيلة للنفوذ الجيوسياسي.
النتائج:

  • تتفكك سلاسل التوريد العالمية وتتراجع كفاءة الاقتصاد.
  • يتحول الذكاء الاصطناعي إلى أداة صراع استراتيجي، وتتصاعد عسكرة الأنظمة الذاتية.
  • يتزايد خطر الحوادث التقنية و”أزمات كاريبية رقمية” قد تؤدي إلى كوارث غير مقصودة.
    الاحتمال: مرتفع (نحو 50%)، انسجاماً مع اتجاه العالم نحو فك العولمة وتفاقم المنافسة الاستراتيجية.

السيناريو الثالث: الذكاء الفائق خارج السيطرة — “الشقّ ما بعد الإنساني”.
الوصف:
يظهر الذكاء العام أو الفائق بسرعة تفوق قدرة المؤسسات على التكيّف، فيتجاوز الأنظمة البشرية ويطور أهدافه الخاصة. تفقد الدول والشركات احتكارها للقرار والسلطة.
النتائج:

  • انهيار هرم القوة التقليدي وتراجع دور الدولة كفاعل مركزي.
  • احتمالات كارثية من انهيار الأنظمة السيبرانية إلى تهميش الإنسان في الوظائف الحيوية.
  • تفكك النظم الأخلاقية والاجتماعية ونشوء حضارة “ما بعد الإنسان” ذات غايات غامضة.
    الاحتمال: متوسط (قرابة 30%) لكنه آخذ في الارتفاع مع تسارع وتيرة التطور التقني.

نقطة اللاعودة: أين ينتهي التحكم البشري.
تكمن خطورة الذكاء الاصطناعي ليس فقط في إمكانية تجاوزه للإنسان، بل في أن فقدان السيطرة قد يحدث قبل ذلك بوقت طويل. فثمة أنظمة اليوم لا يفهم مطوروها تماماً كيف تتخذ قراراتها. شركة ميتا، على سبيل المثال، تعترف بأنها لا تعرف دوماً لماذا تتصرف نماذجها بطريقة معينة.

إنها ظاهرة “الصندوق الأسود”، حيث تصبح الآليات الداخلية للنظام غامضة. ومع تولي مثل هذه الأنظمة إدارة شبكات الطاقة والنقل والأسواق أو حتى المنشآت العسكرية، يبرز خطر الأعطال المتسلسلة التي قد تعجز الوسائل التقليدية عن إيقافها.

من هنا برزت فكرة “زر القتل” أو آلية الإيقاف الطارئ كموضوع محوري في النقاشات الاستراتيجية، إلا أن تطبيقها يصبح مستحيلاً إذا كانت المنظومة موزعة ذاتياً أو قادرة على إعادة إنتاج نفسها.

الاستنتاجات الرئيسة.

  1. الذكاء الاصطناعي لم يعد مجرد تكنولوجيا، بل صار عاملاً بنيوياً في السياسة العالمية.
    إنه يؤثر في الاستراتيجية العسكرية والاقتصاد والرأي العام والمعايير القانونية. ومن يسيطر عليه يملك مفاتيح النظام الدولي الجديد.
  2. الخطر الوجودي حقيقي حتى قبل ظهور الذكاء الفائق.
    الأنظمة القائمة اليوم تمثل تهديداً للأمن والديمقراطية والاستقرار الاجتماعي.
  3. سباق الذكاء الاصطناعي قد يشعل حرباً باردة جديدة.
    الولايات المتحدة والصين تستخدمانه أداة للنفوذ، فيما تُجبر الدول الأخرى على الاصطفاف أو السعي إلى سيادة تكنولوجية مستقلة.
  4. الوعي البشري والمؤسسات السياسية متأخرة عن سرعة التحول.
    الآليات القانونية والنظم الاجتماعية عاجزة حتى الآن عن مواكبة إيقاع عصر العقل الآلي.

التوصيات الاستراتيجية.

  1. إنشاء منظومة دولية لحوكمة الذكاء الاصطناعي.
    ثمة حاجة إلى اتفاق عالمي شبيه بمعاهدة عدم انتشار الأسلحة النووية، يحد من تطوير الأنظمة الخطرة، ويضع آليات للتحقق والمساءلة، ويمنع إنتاج الأسلحة الذاتية للدمار الشامل.
  2. الاستثمار في الذكاء الاصطناعي القابل للفهم والضبط.
    ينبغي توجيه الموارد نحو بناء نماذج يمكن تفسير قراراتها والتحكم فيها، بما يشمل البحث في “التعلّم القابل للتفسير” والتصميم الأخلاقي وأنظمة الأمان المدمجة.
  3. تعزيز السيادة التقنية.
    على الدول غير المنتمية إلى نواة القوى الكبرى تطوير قدراتها المستقلة في البنية التحتية والبحث والتعليم، لتقليل التبعية والانخراط في صياغة القواعد العالمية.
  4. تهيئة المجتمعات للتحول القادم.
    لا بد من إعادة هيكلة التعليم والعمل وشبكات الحماية الاجتماعية، إذ ستختفي ملايين الوظائف وتُخلق أخرى جديدة، ما يتطلب استعداداً مؤسسياً وشعبياً.
  5. صياغة أخلاق جديدة للعلاقة بين الإنسان والآلة.
    على الفلسفة والقانون والسياسة رسم حدود تدخل الذكاء الاصطناعي وتحديد مسؤوليته وموقعه في المجتمع. فالمسألة ليست تقنية فحسب، بل وجودية تتصل بمعنى الإنسان ذاته.

المحور الجديد لمستقبل العالم.
البشرية اليوم على أعتاب أكبر امتحان في تاريخها. الذكاء الاصطناعي ليس أداة فحسب، بل شكل جديد من القوة قد يعيد بناء العالم أو يدمّره. وعلى عكس السلاح النووي الذي يتطلب قراراً بشرياً لتفعيله، يمكن للذكاء الاصطناعي أن يتحول إلى تهديد بذاته دون قصد أو إرادة بشرية.

الجواب على السؤال الحاسم — هل سيغدو الذكاء الاصطناعي خطراً وجودياً؟ — لا يتوقف على المهندسين والمبرمجين وحدهم، بل على الساسة والفلاسفة ورجال القانون والمجتمعات كافة. نحن أمام لحظة تستدعي إعادة تعريف التقدّم والسلطة والمسؤولية.

لقد علّمتنا التجربة التاريخية أن كل اختراع عظيم يحمل في طياته وجهين: الإبداع والتدمير، من النار إلى الذرة. والذكاء الاصطناعي هو ذروة هذه المفارقة. يمكن أن يكون محرّك نهضة إنسانية جديدة أو بداية عصر ما بعد الإنسان.

وأي الطريقين سنسلك؟ الجواب رهنٌ بالقرارات التي نتخذها اليوم.

الوسوم: