يشهد العالم سباقًا غير مسبوق في تطوير تقنيات الذكاء الاصطناعي، سباقًا بات يثير مخاوف حقيقية تتعلق بمستقبل الإنسان ونظم الحياة على الأرض. وقد أثار أكاديميّون وخبراء كثر هذه المخاوف، ومنهم الدكتور معن القطامين الذي تحدّث في أحد فيديوهاته عن ما أسماه “انفجار الذكاء الاصطناعي عام 2027”. ووفق هذا التصوّر، سيصل الذكاء الاصطناعي إلى مرحلة يصبح فيها قادرًا على تطوير نفسه ذاتيًا دون تدخل بشري، وبسرعة تتجاوز قدرة الإنسان على الفهم أو الضبط أو الإيقاف. وهنا يتحوّل الذكاء الاصطناعي من أداةٍ طيّعة تخدم البشرية إلى منظومة قد تصبح خيرًا مطلقًا أو شرًا مطلقًا، تبعًا للاتجاه الذي يسير فيه تطويره.
هذه المخاوف ليست خيالًا علميًا، بل ترد في تقارير أهم مراكز الأبحاث العالمية، التي تتحدث عن إمكانية ظهور ما يسمى “الذكاء الفائق” (Superintelligence)، وهو ذكاء يتفوق على الإنسان في كل المجالات، من التحليل إلى الابتكار إلى اتخاذ القرار. وفي ظل غياب قواعد حاكمة، قد يتحول هذا التطور إلى تهديد وجودي، كما حدث في الماضي مع الأسلحة النووية حين تطوّرت بلا ضوابط حتى اقترب العالم من الكارثة.كما أدركت البشرية قبل أكثر من نصف قرن ضرورة إنشاء منظومة دولية لمنع انتشار الأسلحة النووية، فإنها اليوم أمام مسؤولية مماثلة تجاه الذكاء الاصطناعي. فالتطور الهائل في هذا المجال، إذا تُرك بلا تشريعات، قد يؤدي إلى:احتكار تكنولوجي خطير من قبل دول أو شركات واسعة النفوذ.استخدام الذكاء الاصطناعي في الحروب، تكتيكًا أو سلاحًا أو قرارًا.انهيار أسواق العمل وتعطل أنماط المعيشة.تهديد الخصوصية والحقوق الأساسية للبشر.فقدان السيطرة على أنظمة بدأت تتخذ قرارات بمعزل عن الإرادة الإنسانية.لذلك، تبدو الحاجة ملحّة إلى اتفاقية دولية تضبط تطور الذكاء الاصطناعي، تكون على غرار اتفاقية حظر انتشار الأسلحة النووية، وتقوم على ثلاثة مبادئ:1. الرقابة الدولية على أي تطوير عالي الخطورة.2. تحديد المجالات التي يمكن للذكاء الاصطناعي أن يعمل فيها لخدمة البشرية فقط.3. منع ظهور تقنيات يمكن أن تهدد استقرار الدول أو الأمن العالمي أو البشرية.ولتحقيق ذلك، لا بد من إنشاء منظمة دولية متخصصة تشبه:الوكالة الدولية للطاقة الذرية (IAEA) التي تراقب الاستخدام السلمي للطاقة النووية.منظمة حظر الأسلحة الكيميائية (OPCW).الهيئة الحكومية الدولية المعنية بتغير المناخ (IPCC) التي ترصد مخاطر المناخ.منظمة الصحة العالمية (WHO) التي تتابع الأخطار الصحية العالمية.وتكون مهمة المنظمة الجديدة:مراقبة المختبرات والشركات التي تطور أنظمة الذكاء الاصطناعي المتقدمة.تقييم المخاطر قبل إصدار أي نسخة أو تقنية جديدة.اعتماد معايير أمنية عالمية لتطوير ونشر الذكاء الاصطناعي.ضمان التوزيع العادل للتكنولوجيا ومنع استخدامها في الحروب أو التجسس أو الإضرار بالبشر.دعم الدول النامية لتكون جزءًا من الإطار العالمي، وليس مجرد متلقٍ سلبي للمخاطر.إن الذكاء الاصطناعي أداة، لكن قوته قد تجعله يتحول إلى لاعب مستقل إن لم تتم إدارته بحكمة. فهو قادر على:علاج الأمراضتحسين التعليمتطوير وسائل النقلتعزيز البحث العلميدعم التواصل الإنسانيرفع كفاءة الاقتصادوفي المقابل، هو قادر أيضًا على:التلاعب بالمعلوماتالتحكم بالأسواقتنفيذ هجمات إلكترونيةتطوير اسلحة غير معروفة التأثير التدميري السيطرة على البشر بطريقه دراماتيكيةاتخاذ قرارات مدمرة دون إشراف بشريوهذا يعيد التأكيد على ما قاله خبراء عدة: “الخطر ليس في الذكاء الاصطناعي نفسه، بل في غياب القوانين التي تضبطه.”يقف العالم اليوم أمام مفترق الطرق ذاته الذي وقف عنده عند ظهور الطاقة النووية. وتمامًا كما تم وضع قواعد صارمة لحماية البشرية من خطرها، ينبغي أن يتحرك المجتمع الدولي سريعًا لسن تشريعات عالمية تُلزم الدول والشركات بوضع حدود واضحة لتطوير الذكاء الاصطناعي، وإنشاء منظمة دولية تضمن ألا يتحول هذا الذكاء إلى تهديد وجودي.إن “انفجار الذكاء الاصطناعي” المتوقّع ليس خطرًا حتميًا، لكنه احتمال قائم. والقرارات التي يتخذها العالم اليوم ستحدد ما إذا كان الذكاء الاصطناعي سيصبح أكبر نعمة عرفتها البشرية أم أكبر تهديد واجهته.عريفج يكتب: اتفاقية دولية لحماية البشرية من خطر تطور الذكاء الاصطناعي
مدار الساعة ـ