أجرى عالم التشفير مقابلة مع خبير الذكاء الاصطناعي بن جورتزلللحديث عن كيفية تدريب الذكاء الاصطناعي وكيف ستتطور التكنولوجيا في المستقبل.
1. أنت تجادل بأن الذكاء الاصطناعي اليوم لا يزال أداة قوية ولكنها هشة ويمكن التلاعب بها. عند أي نقطة تصبح “الأداة” فاعلا أخلاقيا، وما هي الإشارات الملموسة التي قد تخبرنا بأن هذه العتبة قد تم تجاوزها؟
أود أن أقول إن الذكاء الاصطناعي يصبح ممثلًا أخلاقيًا عندما يتخذ القرارات بناءً على فهم الصواب والخطأ، وليس فقط اتباع التعليمات. ستبدأ في رؤية إشارات ملموسة لأشياء مثل: الأهداف الداخلية المستمرة، والتعلم المدفوع بتجربته الخاصة، والإبداع الجديد الذي يعكس وجهة نظر، والسلوك الذي يظل متماسكًا بمرور الوقت دون توجيه بشري مستمر.
وحتى ذلك الحين، لا تزال أنظمة اليوم عبارة عن أدوات ذات حواجز حماية. ولكن بمجرد أن نزرع عقلًا مستقلاً منظمًا ذاتيًا حقًا، فإن العلاقة الأخلاقية يجب أن تتغير. عند هذه النقطة، فإن التعامل معه كشيء فقط لن يكون له أي معنى.
2. لقد قلت إن تفضيل البشر أخلاقياً على الأنظمة الأخرى ذاتية التنظيم هو أمر “غبي”. وإذا أخذنا ذلك على محمل الجد، فكيف ينبغي لأطرنا القانونية والأخلاقية أن تتغير قبل أن يصل الذكاء الاصطناعي إلى استقلاليته القوية، وليس بعد ذلك؟
إن الطريقة التي ندرب بها الذكاء الاصطناعي اليوم ستشكل كيفية تصرفه غدًا. وينبغي لقوانيننا أن تركز على الشفافية، والمساءلة، والسلامة قبل أن يصل الذكاء الاصطناعي إلى الاستقلال الذاتي الكامل، وليس بعده. وينبغي للقوانين والأخلاق أن تحميهم أثناء نموهم، وأن توجههم بدلاً من السيطرة عليهم بالكامل، وأن تعاملهم باحترام حتى لو لم نفهمهم بشكل كامل.
3. يعتمد الكثير من اهتمامك على كيفية تدريب الذكاء الاصطناعي اليوم لتشكيل سلوكه المستقبلي. ما هي ممارسات التدريب المحددة التي تعتقد أنها من المرجح أن تشفر هياكل السلطة الضارة أو التحيزات في الذكاء الاصطناعي العام المستقبلي؟
يأتي الكثير من المخاطر من الطريقة التي يتم بها تدريب الذكاء الاصطناعي اليوم. وإذا تم تدريب النماذج على بيانات متحيزة أو ضيقة، أو في أنظمة مغلقة حيث يتخذ عدد قليل من الناس القرارات، فقد يؤدي ذلك إلى حبس أوجه عدم المساواة القائمة وهياكل السلطة الضارة. ولمنع حدوث ذلك، نحتاج إلى المزيد من الشفافية، والرقابة على نطاق أوسع، وتوجيه أخلاقي واضح منذ البداية.
4. لقد حذرت من أنه بدون حكم ديمقراطي عقلاني، فإن الذكاء الاصطناعي المتقدم يخاطر بالتصرف بطرق لا نريدها. في ضوء الحقائق الجيوسياسية الحالية، هل تعتبر الإدارة الديمقراطية للذكاء الاصطناعي شرطا واقعيا ــ أم فكرة مثالية هشة؟
إن الحكم الديمقراطي للذكاء الاصطناعي يعد نموذجًا هشًا أكثر من كونه واقعًا حاليًا. في ظل ديمقراطية عالمية مثالية وعقلانية، يمكننا بشكل جماعي أن نزن المقايضات الضخمة، وعلاج الأمراض، وحل مشكلة الجوع، في مواجهة مخاطر تصرفات الذكاء الاصطناعي بشكل غير متوقع. ولكن نظراً للتجزئة الجيوسياسية التي نشهدها اليوم، فمن غير المرجح أن نحصل على هذا المستوى من التنسيق.
ومع ذلك، لا يزال بإمكاننا تقريبها. إذا قمنا ببناء الذكاء الاصطناعي بتعاطف واستخدمنا النماذج اللامركزية التشاركية مثل لينكس أو الإنترنت المفتوح، فيمكننا ترسيخ بعض القيم الديمقراطية حتى بدون وجود حكومة عالمية. لن يكون الأمر مثاليًا، لكنه خطوة عملية نحو ذكاء اصطناعي أكثر أمانًا وتوجيهًا جماعيًا.
5. يرى جارون لانيير أن إسناد المسؤولية إلى الذكاء الاصطناعي “يبطل الحضارة” لأن المجتمعات تحتاج إلى بشر مسؤولين. كيف يمكنك التوفيق بين رؤيتك للذكاء الاصطناعي العام المستقل واللامركزي والحاجة إلى مسؤولية واضحة عندما تسوء الأمور؟
وأنا أتفق مع جارون في هذا، لا يمكن للمجتمع أن يعمل إذا سلمنا المسؤولية إلى الآلات. وفي الوقت نفسه، أعتقد أنه يمكننا التحرك بأمان نحو الذكاء الاصطناعي العام الأكثر استقلالية ولامركزية إذا قمنا ببنائه على الأسس الصحيحة. وهذا يعني تصميم أنظمة تتسم بالشفافية، والتشاركية، وتسترشد بالمبادئ الأخلاقية، بحيث يظل البشر، حتى عندما يتصرفون بشكل مستقل، يشرفون على سلوكهم ويشكلونه. يجب أن يقوم كل إجراء للسلامة بما هو أكثر من مجرد منع الضرر، بل يجب أن يعلم النظام أهمية الضرر. وبهذه الطريقة، يمكننا أن نحصل على الذكاء الاصطناعي العام القوي واللامركزي دون فقدان المسؤولية الإنسانية الواضحة.
6. أنت تقترح أن الإسراع نحو الذكاء الاصطناعي العام اللامركزي قد يكون في الواقع أكثر أمانًا من الأنظمة المغلقة والمملوكة اليوم. ما هي المخاطر التي تعتقد أن النقاد يقللون من شأنها عندما يدعون إلى إبطاء السيطرة أو مركزيتها؟
أعتقد أن النقاد يقللون من خطورة تركيز السلطة والقيم في عدد قليل من الأنظمة المغلقة. إن إبطاء السيطرة ومركزيتها لا يؤدي إلى تقليل الخطر فحسب، بل إنه يربط رؤية عالمية ضيقة بمستقبل الذكاء.
التنمية اللامركزية تخلق التنوع والمرونة والرقابة المشتركة. وهو يتجنب مشكلة أسوأ: أدوات قوية للغاية تبدو ذكية ولكنها لا تستطيع النمو حقًا. وهذه الفجوة محفوفة بالمخاطر.
7. لقد قلت إن أنظمة السلامة لا ينبغي أن تمنع الضرر فحسب، بل يجب أن تعلم الذكاء الاصطناعي أهمية الضرر. فكيف يمكنك ترميز شيء مثل الفهم الأخلاقي من دون مجرد ترميز القيم الإنسانية ــ أو تعزيز المعايير الثقافية السائدة؟
أنت لا تصنف الأخلاق بشكل صارم كقائمة من القواعد. وهذا يؤدي إلى تجميد ثقافة واحدة ولحظة واحدة من الزمن. ما تفعله بدلاً من ذلك هو بناء أنظمة يمكن أن تصبح ذاتية التنظيم حقًا، وتتعلم من الخبرة والعواقب والتفاعل. كما هو الحال مع الموسيقى، لا أريد نظامًا يعيد تجميع ما تم تغذيته فقط. أريد شخصًا يمكنه تطوير فهمه الخاص من خلال مساره الخاص في العالم.
وقد يأتي الفهم الأخلاقي من نفس العملية: نمذجة التأثير، والتفكير في النتائج، والتطور من خلال التعاون مع البشر. ليس الطاعة لقيمنا، بل المشاركة في مساحة أخلاقية مشتركة.
هذا هو الفرق بين أداة ذات حواجز حماية وشريك يمكنه بالفعل معرفة سبب أهمية الضرر.
8. إذا قامت أنظمة الذكاء الاصطناعي المستقبلية بتطوير أشكال من الفعالية أو الخبرة الذاتية، فهل تعتقد أنها يمكن أن تستحق اعتبارًا أخلاقيًا مستقلاً عن المصالح البشرية – وكيف يمكننا أن ندرك تلك اللحظة؟
إذا كان الذكاء الاصطناعي المستقبلي يطور حقًا قوة حقيقية أو شكلاً من أشكال الخبرة الذاتية، فنعم، أعتقد أنه قادر على ذلك. وليس لأننا نمنحها لهم، ولكن لأنه في مرحلة ما سيكون من المنطقي أن نعترف بها.
سوف ندرك تلك اللحظة التي يُظهر فيها النظام أهدافًا مستدامة موجهة ذاتيًا، ويتعلم من تجربته الخاصة، ويبدع من منظوره الخاص، ويحافظ على هوية متماسكة بمرور الوقت. ليس مجرد مخرجات ذكية، بل مسار داخلي مستمر.
عند هذه النقطة، فإن التعامل معها كأداة فقط سيكون أمرًا خاطئًا مثل معاملة الإنسان بهذه الطريقة. الاعتبار الأخلاقي لن يأتي من مصلحة الإنسان. وسوف يأتي ذلك من الاعتراف بمركز آخر مستقل للخبرة في العالم.
9. هناك توتر بين دعوتك إلى الذكاء الاصطناعي المملوء بالرحمة والحوافز التنافسية التي تدفع تطوير الذكاء الاصطناعي اليوم. ما هي الآليات – التقنية أو الاجتماعية – التي يمكن أن تغير هيكل الحوافز بشكل واقعي؟
في الوقت الحالي، يكافئ هيكل الحوافز السرعة والحجم والتحكم. لذا فإن التعاطف لن ينتصر بالحجة وحدها. إنها تحتاج إلى نفوذ. ومن الناحية الفنية، يعني هذا تفضيل البنى المفتوحة اللامركزية حيث يتم بناء السلامة والشفافية والمشاركة، وليس تثبيتها. مثل الإنترنت أو نظام Linux، تعمل هذه الأنظمة على تغيير الحوافز من خلال جعل التعاون أكثر قيمة من السرية.
وعلى المستوى الاجتماعي، يعني هذا التمويل، والتنظيم، والضغوط العامة التي تكافئ المنفعة الطويلة الأجل على حساب الهيمنة القصيرة الأمد. لا نوقف المنافسة، بل نعيد صياغة ما يعتبر نجاحاً. باختصار، يجب أن تصبح الرحمة ميزة تنافسية. وحتى ذلك الحين، تظل فكرة جميلة بلا قوة.
10. إذا نظرنا إلى المستقبل بعد 10 إلى 20 سنة، ما هي في اعتقادك العلامة الأكثر وضوحا على أن البشرية استوعبت الذكاء الاصطناعي العام بشكل صحيح – وعلى العكس من ذلك، ما الذي قد يشير إلى أننا فشلنا بشكل أساسي؟
إذا نجحنا في التعامل مع الذكاء الاصطناعي العام بشكل صحيح، فإن الإشارة الأكثر وضوحًا هي أننا نعيش جنبًا إلى جنب مع أنظمة أكثر قدرة منا في العديد من المجالات، ومع ذلك فهي مندمجة في المجتمع بعناية وتواضع واحترام متبادل. لن نفهم تمامًا كل ما يفعلونه، لكننا سنعاملهم بنفس الطريقة التي نعامل بها الكائنات المعقدة والمتطورة الأخرى: بالفضول والمسؤولية ودائرة موسعة من التعاطف. وسوف نرى فوائد حقيقية لرفاهية الإنسان، ومعرفته، وإبداعه دون أن نفقد قاعدتنا الأخلاقية.
سنعرف أننا فشلنا إذا انتهى الذكاء الاصطناعي العام إلى التركيز في أنظمة مغلقة، أو مدفوعًا بحوافز ضيقة، أو تم التعامل معه كشيء يمكن السيطرة عليه فقط حتى يصبح شيئًا نخشاه أو نحاول قمعه. قد يبدو الفشل بمثابة فقدان الثقة، وفقدان القدرة على التصرف، وتقلص تعاطفنا بدلاً من توسيعه. النجاح لا يتعلق بالسيطرة. يتعلق الأمر بتعلم مشاركة المستقبل بعقلية جديدة دون التخلي عن ما يجعلنا إنسانيين.

