يستضيف المغرب هذا العام محادثات حول ما وُصف بأنه احتمال مثير للقلق يتمثل في استخدام الذكاء الاصطناعي لتطوير أسلحة كيميائية.
وسيجتمع العلماء والدبلوماسيون في الرباط في أكتوبر المقبل لمناقشة المخاوف من أن يؤدي الذكاء الاصطناعي إلى ابتكار مواد سامة جديدة.
وحذر فرناندو أرياس، رئيس منظمة حظر الأسلحة الكيميائية، الخبراء المجتمعين في برلين بألمانيا يوم الجمعة الماضي، من أن الذكاء الاصطناعي يشكل “خطورة عالية” في زمن التوترات العالمية.
ويُحظر استخدام الأسلحة الكيميائية بموجب عدة معاهدات دولية تعود إلى فترة ما بعد الحرب العالمية الأولى.
ومع ذلك، فقد استخدمها العراق في عهد صدام حسين وسوريا بشار الأسد، واتهمت الولايات المتحدة روسيا بنشرها في أوكرانيا.
وقال أرياس إنه بسبب “عدم الاستقرار العالمي والمنافسة الجيوسياسية والحروب المعلنة والمستمرة، فإن إمكانية استخدام أسلحة الدمار الشامل ليس مجرد احتمال نظري”.
وأضاف أنه “لن نتمكن من تحييد المخاطر التي يفرضها الذكاء الاصطناعي بشكل كامل”.
وتابع قائلا: “نحن في بداية إدراك إمكانات الذكاء الاصطناعي. القليل جدًا واضح تمامًا، لكن من الواضح أن الذكاء الاصطناعي يمثل خطورة عالية”.
وزاد: “يضيف العلم والتكنولوجيا تعقيدًا ويحسن كفاءة الأسلحة. وفي إطار تلك التقنيات الجديدة، ربما يكون الذكاء الاصطناعي العامل الأكثر إثارة للقلق والتحدي”.
وأضاف: “إنه يزيد من دقة الأسلحة ويزيد من فتك الأسلحة الموجودة، مما يعني أنه يساهم في تقويض بنية نزع السلاح، والتي ليست، كما تعلم، في أفضل حالاتها على مدار التاريخ”.
وستمول قطر والصين وألمانيا وإسبانيا وكوريا الجنوبية الحدث المغربي حول “المخاطر المتغيرة والمتطورة” في هذا المجال.
ويستخدم الذكاء الاصطناعي بالفعل من قبل مصنعي الأدوية لاكتشاف أنواع جديدة من الأدوية، في أحد تطبيقاته الإيجابية المحتملة في الرعاية الصحية.
ولكن في تجربة ذكاء اصطناعي أجريت قبل عامين، اقترحت أفكارًا لحوالي 40.000 مادة سامة محتملة في غضون ست ساعات فقط، وهو ما يثير القلق.
كما يُخشى من أن يؤدي هجوم إلكتروني مدعوم بالذكاء الاصطناعي إلى العبث بتصنيع المواد الكيميائية، مما يؤدي إلى عواقب وخيمة.
وقال غونتر ساوتر، المسؤول عن مراقبة التسلح في وزارة الخارجية الألمانية، إن العوامل الممرضة التي يصنعها الذكاء الاصطناعي “يمكن أن تشكل تحديًا جديًا” لحظر الأسلحة البيولوجية.
كما أن هناك “سؤالًا رئيسيًا” حول الذكاء الاصطناعي والأمن السيبراني بالنسبة للدول التي تمتلك أنظمة قيادة ومراقبة للأسلحة النووية، على حد قوله.
وأضاف أنه قد يكون على العالم “إعادة ضبط الخط الفاصل بين حرية البحث العلمي والمسؤولية العلمية”.
وتابع: “يجب أن نبحث الخطوات التي يمكننا اتخاذها في إطار مراقبة التسلح المتعدد الأطراف. نحتاج إلى النظر في كيفية الحاجة إلى تكييف أنظمة مراقبة صادرات الأسلحة”.
تعليقات الزوار ( 0 )