دونالد ترامب يضع يده على فخذ قاصر، كامالا هاريس تصرخ وتبصق دما أو ممثلة على شكل دمية : في ثمانية أسابيع مع اقتراب الانتخابات الرئاسية الأمريكية، يتم تداول صور المرشحين التي تم إنشاؤها بواسطة الذكاء الاصطناعي (AI) على شبكات التواصل الاجتماعي. وجميعها بعيدة عن أن تحمل علامة “تم إنشاؤها بواسطة الذكاء الاصطناعي”، مما يجعل تمييزها بسهولة أكبر عن الصور الحقيقية المتداولة.

ومع ذلك، أعلنت شركة Meta، الشركة الأم لفيسبوك وإنستغرام، عن نيتها إضافة هذا النوع من التحذير. وفي بيان صحفي نُشر في فبراير، أعلنت أنها تعمل على ذلك في ضوء الاجتماعات الديمقراطية الكبرى لعام 2024، والتي كانت عديدة بشكل خاص. ولكن بعد مرور ستة أشهر، لم يحرز المشروع تقدما يذكر: لا يوجد حاليا أي تحذير من هذا النوع على فيسبوك ولكن فقط في تطبيق إنستغرام (موقع الشبكة الاجتماعية لا يزال خاصا).

سرية، هذه التسميات تأخذ شكل إشعار “معلومات الذكاء الاصطناعي” والتي يجب على المستخدم النقر عليها للحصول على التوضيحات. أنها لا تزال نادرة نسبيا: وفقا لنتائج عالممعظم الصور على إنستغرام التي تصور شخصيات سياسية أمريكية لا ترتدي واحدة، بما في ذلك عندما تضر بصورتها العامة. على سبيل المثال، الصور المتلاعب بها لكامالا هاريس أمام تجمع شيوعي أو على ذراع المفترس الجنسي جيفري إبستاين بعيدة كل البعد عن أن يتم ختمها بشكل منهجي.

لأن النظام الذي تستخدمه Meta للتعرف على هذه الصور ليس مثاليًا. في الوقت الحالي، تكتفي أجهزة الكمبيوتر الخاصة بها بالبحث عن علامة (مرئية أو غير مرئية) تقوم خدمات الإنشاء المختلفة بتضمينها تلقائيًا في الصور من أجل تسهيل التعرف عليها. وأعلنت Meta في بيانها الصحفي أنها تعمل على هذا الوسم مع معظم الخدمات الإعلامية، التي تديرها Midjourney وOpenAI وMicrosoft وAdobe وGoogle على وجه الخصوص. والذي يستثني العديد من مولدات الصور الصغيرة.

لكن هذه الثغرات في مضرب ميتا لا تفسر كل شيء. وإلا كيف يمكننا تبرير غياب الملصقات على معظم الصور التي تم إنشاؤها باستخدام Midjourney، والتي تعمل معها Meta؟ ربما يكمن الخطأ في صعوبة تحديد موضع “المؤشر” بشكل صحيح، مما يسمح بفصل المحتوى الناتج عن الذكاء الاصطناعي عن المحتوى الآخر. وفي يونيو/حزيران، واجهت ميتا غضب المصورين الذين تم تصنيف صورهم عن طريق الخطأ. وعندما سئلت المجموعة الأمريكية عن هذا الأمر، لم ترغب في الرد.

لديك 61.06% من هذه المقالة متبقية للقراءة. والباقي محجوز للمشتركين.

شاركها.
اترك تعليقاً

2024 © الإمارات اليوم. جميع حقوق النشر محفوظة.
Exit mobile version