في خطوة جديدة ومهمة، أعلنت مختبرات شركة “أنثروبيك” للأبحاث عن تقنية مبتكرة قد تساعدنا على فهم طريقة عمل النماذج اللغوية الكبيرة، الشركة تطور روبوت المحادثة “كلود” وهو أحد الروبوتات المنافسة في هذا السوق مع “شات جي بي تي” و”جيميناي”. تتيح هذه الطريقة الجديدة للباحثين رسم خريطة للشبكات العصبية المعقدة داخل تلك الأنظمة وتحليلها، مما قد يحدث تحولا جذريا في فهمنا وقدرتنا على التحكم في نماذج الذكاء الاصطناعي.

معضلة الصندوق الأسود

يُوصف نموذج الذكاء الاصطناعي الحديث غالبا بأنه “صندوق أسود”، إذ لا يمنحه المطورون قواعد برمجية صريحة وواضحة لكي يتعلم، بل يغذون تلك الأنظمة بكميات ضخمة من البيانات لتتعلم منها وتتعرف على الأنماط بداخلها بصورة مستقلة.

تعتمد نماذج “الصندوق الأسود” على خوارزميات تستخدم كميات هائلة من البيانات لتتنبأ بالكلمة التالية في النص، ويُطلَق عليها هذا الاسم لأنه لا يمكن لأحد معرفة كيفية عملها تحديدا، حتى مطوروها أنفسهم لا يمكنهم شرح كيف تتنبأ تلك النماذج بهذه المعلومات، قد يمثل هذا الأمر مشكلة في المواقف التي يكون فيها هذا التنبؤ مؤثرا في قرار يخص حياة الناس، كما هي الحال في الرعاية الصحية أو عند اختيار الشخص المناسب للوظيفة أو مَن يستحق الحصول على القروض والتمويل وغيرها من السيناريوهات.

تختار الشركات المطورة مثل “أوبن إيه آي” نموذج “الصندوق الأسود”، لأنها تريد أن تخفي معلوماتها وتحافظ على نقاط قوتها، خصوصا في ظل هذا التنافس المحموم في سوق بدأت تسيطر عليه الشركات الكبرى مثل مايكروسوفت وغوغل.

وهذا تحديدا ما يحاول خبراء المجال التحذير منه، لأننا حين نمنح الثقة الكاملة لنموذج الصندوق الأسود، فهذا لا يعني أن نثق فقط في معادلات هذا النموذج، ولكننا سنمنح الثقة أيضا لقاعدة البيانات بأكملها التي بُني عليها، وإن لم نعرف ما تلك البيانات فإن الأمر يظل خطرا، وسوف يؤثر بالتأكيد على النتائج التي نحصل عليها من هذا النموذج في النهاية.

لذا، تبقى آلية عمل نماذج الذكاء الاصطناعي، خاصة الشبكات العصبية التي تحتوي على مليارات الخلايا العصبية الاصطناعية، مبهمة بالنسبة لنا. وتثير هذه الضبابية مخاوف كثيرة بشأن أمان وسلامة تلك الأنظمة، إذ يصعب التأكد من أمان أي نظام دون فهم وظيفته وأسلوب عمله بالكامل.

تقنية جديدة

تمثل آخر أبحاث شركة “أنثروبيك” تطورا مهما في مواجهة تلك المخاوف، إذ طوّر الباحثون تقنية لفحص “دماغ” نموذج الذكاء الاصطناعي، الأمر الذي يمكّنهم من تحديد مجموعات من الخلايا العصبية تُعرف باسم “الميزات” التي تتوافق مع مفاهيم محددة داخل النموذج. وطبق الباحثون هذه التقنية بنجاح على نموذج لغوي كبير ومتطور وهو “كلود سونيت” ثاني أقوى نموذج لدى الشركة.

مثلا اكتشف الباحثون ميزة داخل نموذج “كلود” تمثل مفهوم “الكود البرمجي غير الآمن”، وعند تحفيز هذه الخلايا العصبية تحديدا، قدم “كلود” أكوادا برمجية تحتوي على ثغرات يمكن استغلالها، ولكن عند قمع تلك الخلايا، أنتج الروبوت أكوادا برمجية آمنة. قد تكون لهذه القدرة على تعديل سلوك النموذج عبر التلاعب بميزات محددة بداخله آثار مهمة وحقيقية على أمن وسلامة نماذج الذكاء الاصطناعي.

كما حدد الفريق البحثي ملايين الميزات داخل “كلود” ومنها الميزات المرتبطة بالتحيز والأنشطة الاحتيالية وخطاب الكراهية، والسلوكيات المخادعة، وعبر قمع تلك الميزات، تمكن الفريق من تقليل تلك السلوكيات غير المرغوب فيها، مما عزز أمان وموثوقية النموذج.

وبينما حدد الباحثون ملايين الميزات، أشاروا إلى أن هذا يمثل جزءا صغيرا فقط من العدد الإجمالي المحتمل، إذ سيتطلب تحديد جميع الميزات قوة حوسبة أكبر مما كان مطلوبا لتدريب “كلود”، وهي مهمة تكلف عشرات أو مئات الملايين من الدولارات.

فحص الدماغ الاصطناعي

تحمل هذه التقنية الواعدة أيضا إمكانية مواجهة المخاطر الافتراضية، مثل احتمال أن تخدعنا أنظمة الذكاء الاصطناعي بإخفاء قدراتها. في المعتاد استخدم الباحثون طريقة تعرف باسم “الفريق الأحمر”، يتفاعل فيها فريق من الباحثين مع نموذج الذكاء الاصطناعي ليحددوا ويعالجوا السلوكيات الضارة أو الخطيرة. لكن هذه الطريقة محدودة في إمكانية اكتشاف السلوكيات المخادعة لمثل هذه النماذج.

بينما توفر التقنية الجديدة أسلوبا مباشرا أكثر عبر تمكين الباحثين من فحص دماغ الذكاء الاصطناعي، على غرار استخدام التصوير بالرنين المغناطيسي لفهم وظائف وطريقة عمل الدماغ البشري.

من جهته، صرح الرئيس التنفيذي لشركة “أنثروبيك” داريو أمودي: “نبدأ في تحقيق تقدم فيما يمكن أن نسميه أشعة سينية أو تصويرا بالرنين المغناطيسي لنموذج الذكاء الاصطناعي، بدلا من التحدث إلى النموذج فقط، يمكننا الآن رؤية ما بداخله”.

لكن بالرغم من هذه التطورات الجديدة، فلا تزال الأبحاث في مراحلها الأولى. وتلخص الشركة نتائجها بنبرة متفائلة، مشيرة إلى أن القدرة على التحكم في هذه الميزات قد تعزز سلامة الذكاء الاصطناعي بصورة ملحوظة. إذ يمكن أن يساعدنا هذا في منع عمليات كسر الحماية التي يتجاوز فيها المخترق آليات الأمان لهذه النماذج الذكية.

يخطط الفريق البحثي لمواصلة تحسين تقنيته الجديدة، بهدف فك تشفير مزيد من الميزات وتحسين أمان نماذج الذكاء الاصطناعي، وقد يسهم هذا العمل في سد الفجوة بين فهم سلوك نماذج الذكاء الاصطناعي وضمان استخدامها بأمان.

ومع انتشار أنظمة الذكاء الاصطناعي بكثرة خلال الفترة الحالية، يعد فهم عملياتها الداخلية من الأمور بالغة الأهمية. لذا، يقدم لنا اكتشاف “أنثروبيك” خطوة واعدة نحو إزالة الغموض المحيط بنماذج “الصندوق الأسود” للذكاء الاصطناعي، مما قد يؤدي إلى تطوير تقنيات أكثر أمانا في المستقبل.

شاركها.
اترك تعليقاً

2024 © الإمارات اليوم. جميع حقوق النشر محفوظة.
Exit mobile version