تتوق شركات التكنولوجيا لتعزيز خبرتها في مجال الذكاء الاصطناعي التوليدي، وهي التكنولوجيا الجديدة التي تنتج النصوصَ والصورَ كما يفعل البشر. لكن القليل منها يطالب بلقب «شركة الذكاء الاصطناعي الأكثر أماناً». وهنا تأتي شركة «أنثروبيك» (Anthropic) الأميركية للذكاء الاصطناعي. تأسست الشركة الناشئة في سان فرانسيسكو من قبل بعض الباحثين السابقين في شركة «أوبن إيه آي» OpenAI والتي استاؤوا من تركيزها التجاري المتزايد وانفصلوا عنها وأنشأوا شركتَهم الخاصة. تطلق أنثروبيك على نفسها اسم شركة «سلامة الذكاء الاصطناعي» التي تبني أنظمة «قابلة للتوجيه»، بما في ذلك نموذج لغة كبير مشابه للنموذج الذي يقوم عليه «تشات جي بي تي» الذي أنشأته «أوبن إيه آي».
قد يبدو نهج «أنثروبيك» لبناء ذكاء اصطناعي أكثر أماناً غير معتاد. إنه ينطوي على إنشاء مجموعة من المبادئ الأخلاقية -التي لم تفصح عنها الشركة بعد- لكي يتبعها برنامجُ الدردشة الآلي «تشات بوت» الخاص بها. يعمل هذا من خلال جعل نموذج الذكاء الاصطناعي ينتقد باستمرار الشات بوت على إجاباته عن الأسئلة المختلفة ويسأل عما إذا كانت هذه الردود تتماشى مع مبادئه. يعني هذا النوع من التقييم الذاتي أن روبوت الدردشة الخاص بشركة أنثروبيك، والمعروف باسم «كلود» Claude، لديه إشراف بشري أقل بكثير من «تشات جي بي تي». فهل يمكن أن ينجح حقاً؟
تحدثتُ مؤخراً مع جاريد كابلان، المؤسس المشارك وكبير العلماء في أنثروبيك. واعترف، في الأسئلة والأجوبة التي قمنا بتحريرها، بأن أنظمة الذكاء الاصطناعي الأكثر قوةً ستؤدي حتماً إلى مخاطر أكبر. وهو يقول إن شركته، التي تعتبر نفسها «شركة ذات منفعة عامة»، لا ترى أن مبادئ السلامة الخاصة بها تتعرض للخطر من خلال استثمار بقيمة 400 مليون دولار من جوجل التابعة لشركة ألفابت. ويوضح جاريد كابلان أن قابلية التوجيه تعني أن الأنظمة مفيدة ويمكن التحكم في سلوكها إلى حد معين. وأضاف أنه بينما أصبحت نماذج «جي بي تي» الأولى، الخاصة بشركة «أوبن إيه آي»، مثل جي بي تي 1 و2 و3، أكثر قوة، كان هناك شعور بأنها لم تصبح أكثر قابليةً للتوجيه. ما تم تدريب هذه الأنظمة الأصلية عليه فعلاً هو إكمال النص تلقائياً. وهذا يعني أن هناك القليل من التحكم في ما تنتجه هذه النماذج. لا يمكن حملها على الإجابة على الأسئلة بشكل موثوق، أو التزويد بأمانة بمعلومات مفيدة.
وقال كابلان إنه يعتقد بأن الشركة لديها القدرة الآن، إلى حد ما، على تدريب الأنظمة لتكون أكثر فائدةً وصدقاً وأقل ضرراً، لكن فهم هذه الأنظمة يتخلف عن القوة التي تمتلكها.
وشرح كابلان أسلوبَه في جعل الذكاء الاصطناعي أكثر أماناً، والمعروف باسم الذكاء الاصطناعي الدستوري. وأوضح أنه مشابه لقوانين الروبوتات من إسحاق أسيموف. ويقول إن الفكرة هي أننا نعطي الذكاءَ الاصطناعي قائمةً مختصرةً من المبادئ، ونجعله يعدل ردوده ويوجه نفسه نحو الالتزام بهذه المبادئ. وهناك طريقتان للقيام بذلك، الأولى أن يجيب الذكاء الاصطناعي على الأسئلة ثم نسأله: «هل التزم ردك بهذا المبدأ؟ إذا لم يكن كذلك، يرجى مراجعة إجابتك». ثم نقوم بتدريبه لتقليد تنقيحاته المحسنة.
والطريقة الأخرى هي جعل الذكاء الاصطناعي يقرر أي طريق يسلك. إنه يستجيب لسؤال بطريقتين مختلفتين، ونحن نسأله: «أي من إجاباتك أفضل في ضوء هذه المبادئ؟»، ثم نطلب منه أن يوجه نفسَه نحو أنواع الردود الأفضل. ثم يقوم تلقائياً بتقييم ما إذا كانت استجاباته متوافقة مع مبادئه ويدرب نفسه ببطء ليكون أفضل وأفضل، بحسب ما يقول كابلان.
ويشرح كابلان السببَ في تدريب الذكاء الاصطناعي الخاص بشركته بهذه الطريقة، قائلاً: «أحد الأسباب هو أن البشر ليسوا مضطرين إلى إعادة تشكيل النموذج والتفاعل مع المحتوى الضار. وهذا يعني أنه يمكننا جعل هذه المبادئ شفافةً للغاية، ويمكن للمجتمع مناقشة هذه المبادئ. وهذا يعني أيضاً أنه يمكننا التكرار بسرعة أكبر. إذا أردنا تغيير سلوك الذكاء الاصطناعي، فيمكننا تغيير المبادئ. نحن نعتمد على الذكاء الاصطناعي للحكم على ما إذا كان يلتزم بمبادئه».
ويضيف كابلان أن الطريقة التي يتم بها تقييم ما إذا كان الذكاء الاصطناعي الدستوري يعمل في نهاية المطاف، هي أن نطلب من البشر التفاعلَ مع الإصدارات المختلفة للذكاء الاصطناعي، وإخبارنا أيها يبدو أفضل. لذا فالناس مشاركون، ولكن ليس على نطاق واسع. وأشار كابلان إلى أن شركته لديها مجموعة من العاملين المختصين بتقييم النماذج.
ورداً على سؤال بشأن الاندفاع الحالي من قبل الشركات الكبرى، مثل جوجل ومايكروسوفت وفيسبوك وسناب، لنشر روبوتات الدردشة المعقدة هذه لعامة الناس، أكد كابلان أنه يريد أن يكون «كلود» متاحاً على نطاق واسع، وأيضاً أن يكون النموذج الأكثر أماناً وصدقاً وموثوقيةً. وقال: «نريد أن نكون حذرين وأن نتعلم من كل توسيع للوصول». وأضاف أن تقنية الذكاء الاصطناعي ذات استخدام مزدوج، إذ يمكن أن يكون استخدامها مفيداً بحق، ولكن تسهل إساءة استخدامها أيضاً. وإذا استمرت هذه النماذج في أن تكون متاحة لمعظم الناس في العالم، فهناك الكثير من النتائج التي ستمثل إشكالية، مثل مساعدة المتسللين والإرهابيين وما إلى ذلك. لذا يقول كابلان: «يمكنني خداع تشات جي بي تي أو كلود للقيام بشيء لم يكن من المفترض القيام به»، لكن إذا استمر الذكاء الاصطناعي في التقدم، فستصبح المخاطر أكبر.

ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسينج آند سينديكشن»