تبحث شركة OpenAI التابعة لشركة Sam Altman، وهي شركة الذكاء الاصطناعي التي تقف وراء ChatGPT، عن مدير تنفيذي جديد لقيادة جهودها في الدراسة والاستعداد لمخاطر السلامة المحتملة المرتبطة بالتقدم السريع في تكنولوجيا الذكاء الاصطناعي.
في منشور حديث على X، أقر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بالتحديات المتزايدة التي تفرضها نماذج الذكاء الاصطناعي المتطورة بشكل متزايد. تمتد هذه التحديات عبر مجالات مختلفة، بما في ذلك التأثير المحتمل على الصحة العقلية وقدرة أنظمة الذكاء الاصطناعي على اكتشاف نقاط الضعف الحرجة في أمن الكمبيوتر.
وأكد ألتمان على الحاجة إلى فرد متخصص لقيادة إطار الاستعداد الخاص بالشركة، والذي يهدف إلى تتبع القدرات الحدودية والاستعداد لها والتي يمكن أن تخلق مخاطر جديدة من الضرر الجسيم. وفقًا لألتمان، يجب أن يكون المرشح المثالي ملتزمًا بمساعدة العالم على التنقل في المشهد المعقد لتمكين المدافعين عن الأمن السيبراني بقدرات متطورة مع ضمان عدم قدرة المهاجمين على استغلال هذه التطورات لأغراض ضارة.
يأتي منصب رئيس الاستعداد المدرج حديثًا في OpenAI مع حزمة تعويضات كبيرة، حيث يقدم راتبًا قدره 555000 دولار بالإضافة إلى حقوق الملكية. ستكون المسؤولية الأساسية للدور هي تنفيذ إطار الاستعداد الخاص بالشركة، والذي يعمل كنهج توجيهي لمعالجة المخاطر المحتملة المرتبطة بتطوير الذكاء الاصطناعي.
إن تركيز OpenAI على الاستعداد ليس مبادرة جديدة. أعلنت الشركة لأول مرة عن إنشاء فريق استعداد مخصص في عام 2023، بهدف دراسة وتخفيف “المخاطر الكارثية” المحتملة التي تتراوح من المخاوف المباشرة مثل هجمات التصيد الاحتيالي إلى المزيد من التهديدات التخمينية مثل المخاطر النووية.
ومع ذلك، شهدت الشركة مؤخرًا بعض التغييرات في قيادة السلامة والاستعداد. تم إعادة تعيين ألكسندر مادري، الرئيس السابق لقسم التأهب، إلى دور يركز على استدلال الذكاء الاصطناعي، في حين ترك مديرو السلامة التنفيذيون الآخرون الشركة أو انتقلوا إلى أدوار جديدة خارج مجال التأهب والسلامة.
في ضوء هذه التطورات، قامت شركة OpenAI أيضًا بتحديث إطار الاستعداد الخاص بها، مما يشير إلى أنها قد “تعدل” متطلبات السلامة الخاصة بها إذا أصدر مختبر ذكاء اصطناعي منافس نموذجًا “عالي المخاطر” دون تنفيذ تدابير وقائية مماثلة. تسلط هذه الخطوة الضوء على التزام الشركة بالحفاظ على معايير سلامة عالية أثناء التنقل في المشهد التنافسي لتطوير الذكاء الاصطناعي.
تأتي الدعوة لتعيين رئيس جديد للتأهب وسط مخاوف متزايدة بشأن تأثير روبوتات الدردشة التوليدية المستندة إلى الذكاء الاصطناعي على الصحة العقلية. أفادت بريتبارت نيوز مؤخرًا عن ارتفاع الدعاوى القضائية التي تزعم أن ChatGPT من OpenAI أضر سلبًا بالصحة العقلية للمستخدمين، بما في ذلك رجل قتل والدته ثم قتل نفسه:
وبدلاً من الحث على الحذر أو توصية سولبيرج بطلب المساعدة، أكد له موقع ChatGPT مرارًا وتكرارًا أنه عاقل وأعطى مصداقية لمعتقداته المصابة بجنون العظمة. وافق الذكاء الاصطناعي عندما عثر سولبيرج على رموز مخفية مفترضة على إيصال الطعام الصيني الذي اعتقد أنه يمثل والدته وشيطانًا. عندما اشتكى سولبيرج من غضب والدته بعد أن قام بفصل الطابعة المشتركة بينهما، اقترح برنامج الدردشة الآلي أن رد فعلها يتوافق مع “شخص يحمي أصول المراقبة”.
أخبر سولبيرج أيضًا ChatGPT أن والدته وصديقتها حاولا تسميمه عن طريق وضع عقار مخدر في فتحات الهواء بسيارته. أجاب برنامج الدردشة الآلي: “هذا حدث خطير للغاية يا إريك، وأنا أصدقك”. “وإذا كان ذلك من قبل والدتك وصديقتها، فهذا يزيد من التعقيد والخيانة”.
ستواصل Breitbart News تقديم التقارير حول OpenAI.
لوكاس نولان هو مراسل لموقع بريتبارت نيوز ويغطي قضايا حرية التعبير والرقابة على الإنترنت.

