آخر تحديث: 31 / 10 / 2024م - 8:43 ص

عن أخلاقيات الذكاء الاصطناعي المفتوح «3»

الدكتور إحسان علي بوحليقة * صحيفة مال الاقتصادية

الوقت ليس متأخراً لوضع حلول للتحديات الأخلاقية للذكاء الاصطناعي، فالمخاطر الأخلاقية للذكاء الاصطناعي المدبجة في القائمة أعلاه ليست تنظيرية ولا أكاديمية، بل هي حقيقية وتشكل أجندة علينا الاهتمام بها اهتماماً مستداماً، وهذه دعوة لجامعاتنا ولهيئة تنمية البحث والتطوير والابتكار لوضع برنامج وطني لأخلاقيات الذكاء الاصطناعي.

وللدلالة على حقيقة المخاطر، فلنأخذ على سبيل المثال البند الأخير من القائمة «الخطر الوجودي - سباق التسلح لأنظمة الذكاء الاصطناعي». هذا الخطر الوجودي تناوله هنري كسينجر في مقابلته مع سي بي سي نيوز التي نشرت بالأمس «7 مايو 2023»، قال: ”أنه في حالة الحرب عندما يوصي الذكاء الاصطناعي بخيار معين يعتقد الرئيس ومستشاروه أنه خيار مُرعب، لن يكون بوسعهم التثبت من ذلك الخيار حتى يثقوا به، والسبب أن ليس بوسع أحد مراجعة كل المعلومات التي جمعها واستخدمها نظام الذكاء الاصطناعي للوصول للخيار الذي اقترحه.. سباق التسلح المبني على الذكاء الاصطناعي يختلف فكرياً عن سباق التسلح التقليدي“.

أما المثال الثاني، ولعله أقرب في تأثيره وهو التقنيات المتداخلة بين الآلة والانسان! كيف ستؤثر الخلية العصبية مُصنعة في المختبر على قدرة الذكاء الاصطناعي؟ والأمر ليس خيالاً علمياً بل أن هناك خلايا عصبية مصنعة في مختبر في مدينة ميلبورن في أستراليا ويتم تدريبها حالياً لتقوم ببعض الأعمال التي تتطلب ذكاءً، والهدف هنا أن يكون بوسع أنظمة الذكاء الاصطناعي التعامل مع مواقف جديدة لم يسبق لها التعامل معها؛ فمثلاً في مكافحة اختراقات الأمن السيبراني، فمن يسعى للاختراق سيستخدم أساليب جديدة، فكيف يتم التصدي له؟ بالتأكيد مازالت الطريق طويلة أمام الخلايا العصبية المصنعة حتى تشكل تهديداً أخلاقياً، لكن لابد من تطوير وسائل ”ردع“ إن جاز التعبير لتبقى الكلمة الأخيرة هي للإنسان، وهنا أعود لمثال سباق التسلح وما يمكن أن يجلبه الاعتماد على الذكاء الاصطناعي عندما يتصارع البشر فيما بينهم، وبيد كل منهم ليس سيفاً أو مدفعاً رشاشاً بل نظاماً ذكياً، ليكون الصراع بين آلات ضحيته الأنفس البشرية.

«يتبع»

كاتب ومستشار اقتصادي، رئيس مركز جواثا الاستشاري لتطوير الأعمال، عضو سابق في مجلس الشورى