عندما يفكر الناس في الذكاء الاصطناعي ، فإنهم يفكرون في chatbots ونماذج اللغة الكبيرة. ومع ذلك ، من السهل التغاضي عن الاندماج بشكل متزايد مع القطاعات الحرجة في المجتمع.
لا تنصح هذه الأنظمة فقط بما يجب مشاهدته أو الشراء بعد الآن ؛ كما أنها تشخيص المرض ، والموافقة على القروض ، واكتشاف الاحتيال ، والتهديدات المستهدفة.
عندما تصبح الذكاء الاصطناعى أكثر دمجًا في حياتنا اليومية ، نحتاج إلى التأكد من أنها تتصرف في مصلحتنا. نحن بحاجة إلى التأكد من أن مخرجاتها يمكن إثباتها.
تعمل معظم أنظمة الذكاء الاصطناعى في صندوق أسود ، حيث غالبًا ما لا يكون لدينا طريقة لمعرفة كيفية وصولهم إلى قرار أو ما إذا كانوا يتصرفون على النحو المقصود.
إنه نقص في الشفافية التي يتم خبزها في كيفية عملها ويجعل من المستحيل تقريبًا مراجعة قرارات الذكاء الاصطناعي أو التشكيك فيها بعد الحقيقة.
بالنسبة لبعض التطبيقات ، هذا جيد بما فيه الكفاية. ولكن في قطاعات المخاطر العالية مثل الرعاية الصحية والتمويل وإنفاذ القانون ، فإن هذه العتامة تشكل مخاطر خطيرة.
قد تُشفر نماذج الذكاء الاصطناعى التحيز بشكل غير مدرك ، أو تتلاعب بالنتائج ، أو تتصرف بطرق تتعارض مع المعايير القانونية أو الأخلاقية. بدون وجود مسار يمكن التحقق منه ، يترك المستخدمون تخمين ما إذا كان القرار نزيهًا أو صالحًا أو حتى آمنًا.
تصبح هذه المخاوف وجودية عندما تقترن بحقيقة أن قدرات الذكاء الاصطناعى تستمر في النمو بشكل كبير.
هناك إجماع واسع في هذا المجال على أن تطوير عملية سبران مصطنعة (ASI) أمر لا مفر منه.
عاجلاً أم آجلاً ، سيكون لدينا منظمة العفو الدولية يتجاوز الذكاء البشري في جميع المجالات ، من التفكير العلمي إلى التخطيط الاستراتيجي ، إلى الإبداع ، وحتى الذكاء العاطفي.
استجواب التقدم السريع
تعرض LLMs بالفعل مكاسب سريعة في التعميم واستقلالية المهام.
إذا كان نظام superintyligent يتصرف بطرق لا يمكن للبشر التنبؤ بها أو فهمها ، فكيف نضمن أنه يتماشى مع قيمنا؟ ماذا يحدث إذا كان يفسر أمرًا مختلفًا أو يتابع هدفًا ذا عواقب غير مقصودة؟ ماذا يحدث إذا سارت الأمور المارقة؟
سيناريوهات حيث يمكن أن يهدد هذا الشيء الإنسانية حتى لدعاة منظمة العفو الدولية.
جيفري هينتون ، رائد التعلم العميق ، يحذر من أنظمة الذكاء الاصطناعى القادرة على الهجمات الإلكترونية على مستوى الحضارة أو التلاعب الجماعي. خبراء الأمن الحيوي يخشون المختبرات التي يمكن AI-Augmenty تطوير مسببات الأمراض ما وراء السيطرة البشرية.
وقد ادعى مؤسس أندوريل بالمر لوكي أن نظام شعرية الذكاء الاصطناعي يمكنه مربى أو اختراق أو محاكاة ساخرة الأهداف العسكرية في ثوان ، مما يجعل الحرب المستقلة حقيقة وشيكة.
مع الكثير من السيناريوهات الممكنة ، كيف سنضمن عدم مسح ASI جميعًا؟
ضرورة الشفافة من الذكاء الاصطناعي
الإجابة المختصرة على كل هذه الأسئلة هي التحقق.
لم يعد الاعتماد على الوعود من النماذج المعتمة مقبولة لتكاملها في البنية التحتية الحرجة ، أقل بكثير على نطاق ASI. نحن بحاجة إلى ضمانات. نحن بحاجة إلى دليل.
هناك إجماع متزايد في مجتمعات السياسة والبحث التي تكون هناك حاجة إلى تدابير الشفافية الفنية للمنظمة العفوية.
غالبًا ما تذكر المناقشات التنظيمية مسارات التدقيق لقرارات الذكاء الاصطناعي. على سبيل المثال ، و الولايات المتحدة نيست و قانون الاتحاد الأوروبي منظمة العفو الدولية أبرزت أهمية أنظمة الذكاء الاصطناعى “يمكن تتبعها” و “مفهومة”.
لحسن الحظ ، لا يحدث بحث وتطوير الذكاء الاصطناعي في فراغ. كانت هناك اختراقات مهمة في مجالات أخرى مثل التشفير المتقدم والتي يمكن تطبيقها على الذكاء الاصطناعى والتأكد من أننا نحتفظ بأنظمة اليوم – وفي النهاية نظام ASI – في الفحص وتوافق مع المصالح الإنسانية.
الأكثر صلة من هذه الآن هو أدلة المعرفة صفرية. توفر ZKPs طريقة جديدة لتحقيق التتبع الذي ينطبق على الفور على أنظمة الذكاء الاصطناعي.
في الواقع ، يمكن لـ ZKPs تضمين هذا التتبع في نماذج الذكاء الاصطناعى من الألف إلى الياء. أكثر من مجرد تسجيل ما فعلته الذكاء الاصطناعى ، والذي يمكن العبث به ، يمكنهم توليد دليل ثابت على ما حدث.
باستخدام مكتبات ZKML ، على وجه التحديد ، يمكننا الجمع بين أدلة المعرفة الصفرية والتعلم الآلي الذي يتحقق من جميع الحسابات المنتجة في هذه النماذج.
من الناحية الملموسة ، يمكننا استخدام مكتبات ZKML للتحقق من استخدام نموذج الذكاء الاصطناعى بشكل صحيح ، وأنه يدير الحسابات المتوقعة ، وأن ناتجه يتبع المنطق المحدد – كل ذلك دون تعريض أوزان النموذج الداخلي أو البيانات الحساسة.
الصندوق الأسود
هذا يأخذ بفعالية من الذكاء الاصطناعي من صندوق أسود ويتيح لنا أن نعرف بالضبط أين يقف وكيف وصل إلى هناك. الأهم من ذلك ، أنها تبقي البشر في الحلقة.
يجب أن يكون تطوير الذكاء الاصطناعي مفتوحًا ، لا مركزي ، ويمكن التحقق منه ، ويحتاج ZKML إلى تحقيق ذلك.
يجب أن يحدث هذا اليوم للحفاظ على السيطرة على الذكاء الاصطناعي غدًا. نحتاج إلى التأكد من حماية المصالح الإنسانية من اليوم الأول من خلال القدرة على ضمان أن الذكاء الاصطناعى يعمل كما نتوقع ذلك قبل أن يصبح مستقلاً.
ZKML لا يقتصر فقط على وقف ASI الخبيثة ، ولكن.
على المدى القصير ، يتعلق الأمر بالتأكد من أننا يمكن أن نثق في الذكاء الاصطناعي مع أتمتة العمليات الحساسة مثل القروض والتشخيصات والشرطة لأن لدينا دليل على أنه يعمل بشفافية ومساواة.
يمكن لمكتبات ZKML أن تعطينا أسبابًا للثقة في الذكاء الاصطناعي إذا كانت تستخدم على نطاق واسع.
من المفيد أن يكون هناك نماذج أكثر قوة ، فإن الخطوة التالية في تطوير الذكاء الاصطناعي هي ضمان تعليما وتطوروا بشكل صحيح.
سيكون الاستخدام الواسع النطاق لـ ZKML الفعال والقابل للتطوير قريبًا مكونًا حاسمًا في سباق الذكاء الاصطناعى والإنشاء النهائي لـ ASI.
لا يمكن رصف الطريق إلى superintligence الاصطناعية بالتخمين. عندما تصبح أنظمة الذكاء الاصطناعي أكثر قدرة ودمج في المجالات الحرجة ، فإن إثبات ما يفعلونه – وكيفية قيامهم بذلك – سيكون ضروريًا.
يجب أن تنتقل التحقق من مفهوم البحث إلى مبدأ التصميم. مع أدوات مثل ZKML ، لدينا الآن طريق قابل للتطبيق لتضمين الشفافية والأمان والمساءلة في أسس الذكاء الاصطناعي.
لم يعد السؤال ما إذا كان بإمكاننا إثبات ما تفعله الذكاء الاصطناعي ، ولكن ما إذا كنا اخترنا ذلك.
حرره سيباستيان سنكلير

