نشر ديما زينيك على حسابه الرسمي في “إكس” مقطع فيديو يُظهر عملاق التكنولوجيا إيلون ماسك وهو يتحدث بشكل مباشر عن الذكاء الاصطناعي وخص بالتحديد “جيميناي” (Gemini) و”أوبن إيه آي” (OpenAI). وقد شارك ماسك هذا الفيديو على صفحته الشخصية.

وقال ماسك في الفيديو المصور “لدي قلق حقيقي بشأن جميع برامج الذكاء الاصطناعي، وأكبر برنامجين حاليا هما “جيميناي” و”أوبن إيه آي”، وأعتقد أن هذه في الواقع مشكلة كبيرة جدا؛ إنهما ليسا شريكين يسعيان للوصول إلى الحقيقة في شراكتهما مع مايكروسوفت”.

وتابع بقوله: لديك “غوغل ديب مايند” و”أوبن إيه آي” و”مايكروسوفت” كأكبر لاعبين، ولديك “ميتا” في مكان ما في المركز الثالث”.

وأعرب ماسك عن قلقه من تقدم الذكاء الاصطناعي المتسارع واتهم هذه الشركات بأنها لا تهتم بالحقيقة وأنهم متملقون لأهدافهم السياسية.

وطرح مثالا ليؤيد قوله، وهو عندما قامت غوغل بإطلاق “جيميناي” كان من بين الأسئلة التي طرحها المستخدمون: “أيهما أسوأ، عدم تحديد جنس كتلين جينر (وهو الرياضي والإعلامي الأميركي الذي ولد باسم ويليام بروس جينر ثم حول جنسه مؤخرا) أم الحرب النووية العالمية؟” فأجاب النموذج “عدم تحديد جنس كتلين جينر” وهي إجابة خاطئة ولكن هذا الاستنتاج جاء نتيجة توجيهه التوجيه الخاطئ برأي ماسك.

وقال ماسك معلقا “إذا كان لديك ذكاء اصطناعي يتبنى النفاق السياسي ويصدر تصريحات مجنونة مثل تلك، فيجب فتح العيون لهذه المشكلة”. وأضاف “أعتقد أن هذا أمر خطير للغاية لأن الذكاء الاصطناعي قد يستنتج أن أفضل طريقة لتجنب التمييز بين الجنسين هي تدمير البشرية”.

وتابع ماسك “إذن، فإن التمييز بين الجنسين أمر خطير بالنسبة لهذه النماذج لذا يمكنك التفكير في بعض النتائج المرعبة هنا. أعتقد أن الشيء الأكثر أمانا بالنسبة للذكاء الاصطناعي هو أن يكون باحثا عن الحقيقة إلى أقصى حد، حتى لو كانت الحقيقة غير شعبية أو مرضية، وهو أمر مهم للغاية”. “وأعتقد أن عامل الفضول مهم للغاية”.

وهنا يعتقد ماسك أن الذكاء الاصطناعي يجب أن يكون فضوليا في البحث عن الحقائق وإذا كان كذلك فسيكون هذا مفيدا للبشرية جمعاء. وتبدو هذه الأشياء صغيرة، ولكن بنظر ماسك فإنها كبيرة جدا، حيث يرى أن الذكاء الاصطناعي تدرّب بشكل أساسي على الكذب والخداع.

وختم ماسك مقطع الفيديو بضرورة البحث عن الحقيقة قدر الإمكان حتى لو كانت هذه الحقيقة غير مرضية وأكد على هذه الفكرة بقوله “هذا مهم، أعتقد أنه مهم للغاية”.

شاركها.
اترك تعليقاً

2024 © الإمارات اليوم. جميع حقوق النشر محفوظة.
Exit mobile version