تنطوي ابتكارات الذكاء الاصطناعي وتقنياته على تحدياتٍ بمقدار ما تخلقه من فرص. وليس هذا جديداً، فقد عرف العالم مثله بأشكالٍ مختلفةٍ منذ أن بدأ العلم الحديث في التطور. غيَّر العلمُ العالمَ إلى الأفضل، لكن إساءة استخدامه خَصمت، وما زالت، من منافعه.
ولهذا يُخشى أن يؤدي استخدام الذكاء الاصطناعي لأغراض عسكرية إلى أخطار قد تَصعبُ السيطرة على ما تؤدي إليه، في الوقت الذي يشهد فيه العالمُ بدايةَ ما يبدو أنها ثورةٌ في مجال استخدام الأسلحة. وربما تفوقُ آثارُ هذه الثورة ما ترتب على استخدام الطائرات العسكرية للمرة الأولى في عام 1911، ثم النقلة النوعية التي نتجت عن دخول أول طائرة نفاثة مقاتلة ميدان القتال في عام 1944. فالتقنيات التي تُطوِّرها شركات البرمجيات الجديدة الابتكارية تُتيح قدراتٍ عسكريةً جديدةً، سواء في الأعمال القتالية وتنسيق الهجمات بواسطة شاشات مراقبةٍ قتالية، أو في أعمال التجسس وجمع المعلومات والتخطيط ورسم الخرائط الذكية ثلاثية الأبعاد.
وقد بُدئ فعلاً في دمج تقنيات الذكاء الاصطناعي مع الأسلحة التقليدية على النحو الذي يمكن متابعته في حربي أوكرانيا وغزة الحاليتين، حيث أصبحت الطائراتُ المُسيَّرة «الدرونز» سلاحاً أساسياً في الحربين. وقد لوحظ أنها حلت بالكامل تقريباً محل طائرات الهليكوبتر الاستطلاعية ذات الأطقم البشرية. ولهذا اكتسبت الدرونز شهرةً واسعةً تفوق تقنياتٍ أخرى لا تقل عنها في أهميتها مثل الزوارق والغواصات والمدَّمِرات ذاتية القيادة، وغيرها. كما حدث تقدمٌ كبير في ابتكار برامج ذكاء اصطناعي لقيادة طائراتٍ مقاتلة، وتطوير مركباتٍ تُشبهُ إلى حدٍ كبيرٍ الدبابات وغيرها من الأسلحة التقليدية.
وتزدادُ في المقابل مخاوفُ من المدى الذي يمكن أن تبلغه هذه القدراتُ الجديدةُ في غياب قواعد دوليةٍ تُنظِّم تطويرها واستخدامها. وليس صدفةً أن الدول الكبرى التي تملك قدراتٍ أكبر هي نفسها التي تخشى مخاطر غياب هذه القواعد. ويلفت الانتباه، هنا، البيان الروسي الصادر قبل أيام بشأن التوصل إلى تفاهمٍ مع الصين على التشاور والتنسيق بشأن الاستخدام العسكري للذكاء الاصطناعي خلال محادثاتٍ أُجريت بين البلدين في بكين يوم الأول من شهر فبراير الجاري. وقد سبق ذلك البيان إعلانُ الصين في نهاية العام الماضي مبادرةً للحوكمة العالمية للذكاء الاصطناعي. كما أصدرت واشنطن في الوقت نفسه تقريباً إعلاناً بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي.
وترتبط الأخطار التي يخشاها الجميع بالتطور المتسارع الذي سيؤدي إلى استقلال بعض تقنيات الذكاء الاصطناعي الأكثر ذكاءً عن صانعيها ومُستخدميها. وكان الوصولُ إلى حالة الاستقلال هذه محور دراسةٍ نشرها مركز تكنولوجيا الأمن القومي في الولايات المتحدة العام الماضي. وأكثر ما يُخشى في هذه الحالة احتمال نشوب حربٍ عن طريق الخطأ بين دولتين لم يسع أيُ منهما لدخولها، ووقوع خسائر متبادلة قبل أن يتيسر تصحيح هذا الخطأ. ولهذا تزدادُ كل يومٍ الحاجة إلى مفاوضات دولية جادة، بغية التوصل إلى معاهدة تُنظِّم الاستخدامَ العسكري للذكاء الاصطناعي في أقرب وقت ممكن.

*مستشار مركز الأهرام للدراسات السياسية والاستراتيجية