يشير قاموس «ميريام ويبستر» إلى أن «صندوق باندورا» يمكن أن يكون «أي شيء يبدو عاديا ولكنه يمكن أن يؤدي إلى نتائج ضارة وغير متوقعة». وقد فكرتُ مليا في «صندوق باندورا» مؤخرا لأننا – نحن البشر – نفعل شيئا حاليا لم يسبق لنا فعله أبدا، ألا وهو: رفع الغطاء عن صندوقي باندورا عملاقين في الوقت نفسه، بدون أن تكون لدينا أي فكرة عما قد يخرج منه.
أحد صندوقي باندورا هذين يسمى «الذكاء الاصطناعي»، وتجسّده برامج من قبيل «تشات جي بي تي» و«بارْد» و«ألفا فولد»، التي تمثِّل شاهداً على قدرة البشرية لأول مرة على صنع شيء بطريقة تضارع الذكاء العام وتتجاوز بكثير القوة العقلية التي تطوَّرنا بها بشكل طبيعي. 
أما صندوق باندورا الآخر فيسمى «تغير المناخ»، ومعه نقوم – نحن البشر – بإخراج أنفسنا لأول مرة من حقبة مناخية وإدخالها إلى أخرى. فحتى الآن، كانت تلك القوة تقتصر إلى حد كبير على قوى طبيعية تؤثر على مدار كوكب الأرض حول الشمس.
والسؤال الكبير بالنسبة لي ونحن نرفع الغطاء بشكل متزامن هو: ما نوع الرقابة والأخلاق التي يجب أن تكون لدينا لتدبير ما سيخرج من الصندوقين؟
الحقيقة أننا لم نفهم حجم استخدام الشبكات الاجتماعية لتقويض الركيزتين التوأم لأي مجتمع حر: أي الحقيقة والثقة. وبالتالي إذا تعاملنا مع الذكاء الاصطناعي التوليدي بالقدر نفسه من الطيش واللامبالاة - وإذا جارينا مرة أخرى شعار مارك زوكربيرج المتهور في بداية الشبكات الاجتماعية: «تحرك بسرعة وكسّر الأشياء» – فصدّقوني أننا سنحطّم الأشياء بشكل أسرع وأصعب وأعمق مما يتخيله أي شخص. 
دوف سيدمان، مؤسس ورئيس معهد «هاو إنستيتيوت فور سوسايتي» في نيويورك قال لي: «لقد كان هناك فشلٌ في الخيال عندما أُطلقت الشبكات الاجتماعية، ثم فشلٌ في الرد بشكل مسؤول على نتائجها غير المتخيَّلة حينما تغلغلت في حياة مليارات الأشخاص»، مضيفا «لقد أضعنا الكثير من الوقت في التفكير الطوباوي الذي يذهب إلى أن الشبكات الاجتماعية لا يمكن أن تأتي إلا بالأشياء الجيدة، من مجرد ربط الناس ومنحهم صوتاً. ولا يمكننا تحمل إخفاقات مماثلة مع الذكاء الاصطناعي».
ولهذا هناك «ضرورة ملحة – أخلاقية ورقابية – تتمثل في ضرورة تقييد استخدام تكنولوجيات الذكاء الاصطناعي هذه لتكملة وتعزيز ما يميّزنا كبشر: أي إبداعنا وفضولنا وقدرتنا على الأمل والأخلاق والإحساس بالآخرين والتصميم والتعاون مع الآخرين»، يضيف سيدمان. 
وأضاف قائلا: «إن القول المأثور الذي مؤداه أن القوة العظيمة تنطوي على مسؤولية عظيمة صحيح وينطبق على زمننا هذا بشكل خاص. إذ لا يمكننا قبول ادّعاء جيل آخر من المبتكرين التكنولوجيين للحياد الأخلاقي وقولهم:«إننا مجرد منصة في حين أن تكنولوجيات الذكاء الاصطناعي هذه تتيح أشكالاً أقوى وأعمق من التمكين والتفاعل البشريين». 
لهذه الأسباب، سألتُ «جيمس مانييكا»، الذي يرأس فريق التكنولوجيا والمجتمع في «جوجل» إضافة إلى «أبحاث غوغل»، حيث تجري معظم ابتكارات الشركة في مجال الذكاء الاصطناعي، عن رأيه في الأمل والتحديات التي يطرحها الذكاء الاصطناعي. 
فقال: «علينا أن نتحلى بالجرأة والمسؤولية معا». 
واستطرد قائلاً: «إن السبب في ضرورة التحلي بالجرأة هو أن الذكاء الاصطناعي يتمتع بالقدرة على مساعدة الأشخاص في العديد من المجالات المختلفة على إنجاز المهام اليومية، ومعالجة بعض أكبر التحديات التي تواجه البشرية - مثل الرعاية الصحية، على سبيل المثال - والقيام باكتشافات وابتكارات علمية جديدة ومكاسب إنتاجية من شأنها أن تؤدي إلى ازدهار اقتصادي أوسع».
وهو سيفعل ذلك، يضيف مانييكا، «من خلال منح الناس في كل مكان إمكانيةَ الوصول إلى مجموع المعرفة في العالم - بلغتهم، وبطريقة الاتصال المفضلة لديهم، من خلال النصوص أو الكلام أو الصور أو الشفرات» التي تصل عبر الهاتف الذكي أو التلفزيون أو الراديو أو الكتب الإلكترونية. وسيتمكن كثير من الأشخاص من الحصول على أفضل مساعدة وأفضل الإجابات لتحسين حيواتهم. 
ولكن يجب علينا أيضا أن نتحلى بحس المسؤولية، يضيف مانييكا، مشيراً في هذا الصدد إلى عدد من التخوفات. فأولاً، ينبغي أن تكون هذه الأدوات الجديدة متوافقةً تماماً مع أهداف البشرية. وثانيا، إذا سقطت في الأيدي الخطأ، يمكن أن تتسبب هذه الأدوات في ضرر بالغ، سواء كنا نتحدث عن المعلومات المضللة، أو الأشياء المزيفة تماما، أو القرصنة. (إذ دائما ما يكون الأشرار من أوائل من يتبنون التكنولوجيات الجديدة).
وأخيرا، يتابع مانييكا، «إن الهندسة متقدمة على العلم إلى حد ما». وهذا يعني أن حتى الأشخاص الذين يصنعون هذه الأشياء التي تسمى النماذج اللغوية الكبيرة والتي تقوم عليها منتجات مثل «تشات جي بي تي» و «بارْد» لا يفهمون تماماً كيفية اشتغالها والمدى الكامل لإمكانياتها. وأضاف أننا نستطيع هندسة أنظمة ذكاء اصطناعي ذات قدرات مذهلة، أنظمة يمكن أن تُريها بعض الأمثلة الحسابية أو لغة نادرة أو تفسيرات للنكات، وبعد ذلك تستطيع هي الشروع في القيام بالعديد من الأشياء باستخدام تلك الأجزاء فقط بشكل مذهل. بعبارة أخرى، إننا لا نفهم تماماً حتى الآن حجم الأشياء الجيدة أو الأشياء السيئة التي يمكن أن تفعلها هذه الأنظمة.
ولهذا فإننا نحتاج لبعض التقنين والرقابة، ولكن ينبغي القيام بها بشكل حذر ومتكرر. أما في ما يتعلق بصندوق باندورا الثاني الذي بدأنا في فتحه والمتمثل في تغير المناخ، فكما تشرح وكالة «ناسا» على موقعها على الإنترنت، فـ«خلال الـ800 ألف سنة الأخيرة، كانت هناك 8 دورات من العصور الجليدية والفترات الأكثر دفئا». العصر الجليدي الأخير انتهى قبل نحو 11 ألف و700 سنة، فاسحاً الطريق لحقبتنا المناخية الحالية – المعروفة بـ«الهولوسين» – التي تميزت بفصول مستقرة سمحت بزراعة مستقرة، وبناء المجتمعات البشرية، وفي نهاية المطاف بالحضارة كما نعرفها اليوم. 

وتقول «ناسا»: «إن معظم هذه التغيرات المناخية تعزى إلى تغيرات صغيرة جدا في مدار كوكب الأرض تغيّر كمية الطاقة الشمسية التي يتلقاها كوكبنا». حسناً، ربما ينبغي لنا أن نقول «وداعاً» لذلك. فهناك الآن نقاشٌ محتدمٌ بين علماء البيئة حول ما إن كنا – نحن البشر – قد تسببنا في إخراج أنفسنا من حقبة «الهولوسين» ودخول حقبة جديدة تسمى «الأنثروبوسين». 
هذا الاسم يتألف من جزأين هما «أنثرو» التي تعني «الإنسان» و«سين» التي تعني «جديد»، وذلك لأن الإنسان تسبب في انقراض جماعي لأنواع نباتية وحيوانية، ولوّث البحار والمحيطات، وغيّر الغلاف الجوي، من بين تأثيرات دائمة أخرى«، كما يشرح مقال نشرته مجلة «سميثسونيان ماغزين». 
ويخشى علماءُ نظام الأرض ألا يكون لهذه الحقبة الجديدة التي تسبب فيها الإنسان، أي«الأنثروبوسين»، أي من الفصول المتوقعة في «الهولوسين». ولذلك، قد تصبح الزراعة كابوساً حقيقياً. 
ولكن هنا حيث يمكن أن ينقذنا الذكاء الاصطناعي، من خلال تسريع الابتكارات في علم المواد، وكثافة البطارية، وطاقة الاندماج، والطاقة النووية المعيارية الآمنة التي تمكّن البشر من إدارة تأثيرات تغير المناخ التي لا يمكن تفاديها، وتفادي تلك التي لا يمكن إدارتها. 
غير أنه إذا منحنا الذكاءُ الاصطناعي طريقةً للتخفيف من أسوء تأثيرات تغير المناخ – إذا أتاح لنا بالفعل فرصةً ثانية لتصحيح الأمور -- فيجدر بنا القيام بذلك بشكل صحيح. وهذا يعني من خلال تقنينٍ ذكي من أجل توسيع نطاق الطاقة النظيفة بسرعة ومن خلال قيم استدامة يمكن تبنيها على نطاق واسع. 

ينشر بترتيب خاص مع خدمة «نيويورك تايمز»