أخبار الأردن اقتصاديات دوليات برلمانيات وفيات أحزاب مجتمع وظائف للأردنيين مقالات مقالات مختارة أسرار ومجالس تبليغات قضائية الموقف مناسبات جاهات واعراس مستثمرون شهادة جامعات دين بنوك وشركات خليجيات مغاربيات ثقافة رياضة اخبار خفيفة سياحة صحة وأسرة تكنولوجيا طقس اليوم

هذا هو 'الحارس' الذي يقرر مستقبل الذكاء الاصطناعي في أوبن أيه آي؟

مدار الساعة,أخبار التكنولوجيا، التقنيات,الذكاء الاصطناعي
مدار الساعة ـ
حجم الخط

مدار الساعة -في خطوة تُسلّط الضوء على التحديات الأخلاقية والأمنية المتزايدة في عالم الذكاء الاصطناعي، يتولى زيكو كولتر من جامعة كارنيجي ميلون واحدة من أكثر المهام حساسية في الصناعة: رئاسة لجنة السلامة في شركة "أوبن أيه أي"، المخوّلة بوقف أي إصدار جديد من نماذج الذكاء الاصطناعي إذا تبين أنه يهدد السلامة العامة.

كولتر، وهو رئيس قسم التعلم الآلي في الجامعة، يقود لجنة من أربعة أعضاء تمتلك سلطة إيقاف أو تأجيل إطلاق أنظمة "شات جي بي تي" الجديدة إذا رأت أنها غير آمنة.

يصف مهمته بأنها تتجاوز "المخاوف الوجودية" إلى التعامل مع قضايا ملموسة تمس الأمن السيبراني، والاستقرار النفسي للبشر، وإمكانية إساءة استخدام الذكاء الاصطناعي لتطوير أسلحة أو شن هجمات رقمية.

اختيار كولتر لهذا المنصب لم يأتِ صدفة، بل جاء ضمن اتفاقيات تنظيمية جديدة بين أوبن أي أيه وسلطات ولايتي كاليفورنيا وديلاوير، بعد الجدل الواسع حول تحول الشركة من مختبر غير ربحي إلى كيان ربحي جزئياً.

وتُلزم الاتفاقيات الشركة بأن تضع اعتبارات السلامة قبل الأرباح، مع منح لجنة كولتر سلطة رقابية مستقلة على قرارات التطوير.

رغم أن سام ألتمان، الرئيس التنفيذي، تخلّى عن عضويته في لجنة السلامة لتعزيز استقلالها، فإن كولتر أكد أن لجنته تحتفظ بكامل صلاحياتها، بما في ذلك تأجيل أي إصدار إلى حين استيفاء معايير الأمان المطلوبة.

ولم يكشف عمّا إذا كانت اللجنة قد أوقفت إصدارات سابقة، مشيراً إلى أن إجراءاتها تظل سرّية.

تزايدت أهمية اللجنة بعد سلسلة من الأحداث التي أثارت مخاوف من تسارع وتيرة تطوير الذكاء الاصطناعي دون ضمانات كافية.

فقد واجهت "أوبن أيه أي" انتقادات ودعاوى قضائية، من بينها قضية رفعها والدان في كاليفورنيا بعدما انتحر ابنهما إثر تفاعلات مطوّلة مع شات جي بي تي. كما رفَع إيلون ماسك، أحد مؤسسي"أوبن أيه أي"، دعوى ضد الشركة بدعوى انحرافها عن رسالتها الأصلية المتمثلة في "خدمة البشرية".

يرى كولتر أن المخاطر الحقيقية تتنوع بين تسرب البيانات، وتلاعب النماذج بالمستخدمين، وتداعياتها على الصحة النفسية.

ويؤكد أن المرحلة المقبلة ستتطلب بحثاً معمقاً في "سلامة العوامل الذكية" التي باتت قادرة على اتخاذ قرارات مستقلة.

ورغم الجدل، يرى كثيرون أن وجود شخصية أكاديمية مثل كولتر على رأس هذه اللجنة يمثل خطوة مهمة نحو ضبط إيقاع التطور السريع في الذكاء الاصطناعي.

قال ناثان كالفن من منظمة "إنكود" إن كولتر يمتلك الخلفية المناسبة لإدارة هذا الملف الحساس، مضيفاً أن فعالية هذه الخطوة ستعتمد على مدى التزام الشركة بتطبيق معايير السلامة فعلياً لا شكلياً.

بهذه المهمة، يقف زيكو كولتر اليوم في قلب معركة أخلاقية وعلمية تحدد ملامح مستقبل الذكاء الاصطناعي، بين الطموح التجاري من جهة، وضمان سلامة البشرية من جهة أخرى.


مدار الساعة ـ