منذ إطلاق ChatGPT من OpenAI في نوفمبر 2022، أعرب خبراء التكنولوجيا ووسائل الإعلام والحكومات عن قلقهم بشأن ما يمكن أن يصبح في أيدي الجهات الفاعلة السيئة. ونتيجة لذلك، اتجهت بعض البلدان نحو الإفراط في التنظيم، مما أدى إلى خنق التنمية (الاتحاد الأوروبي)، في حين تبنت دول أخرى، مثل الولايات المتحدة، نهجاً أكثر عدم التدخل في هذه الصناعة.
اعتبارًا من ديسمبر 2024، قامت العديد من البلدان بمحاصرة الشركات الناشئة في مجال الذكاء الاصطناعي مثل OpenAI بشكل قانوني بسبب مزاعم حدوث انتهاكات في سياسات ولوائح خصوصية البيانات.
وفي الآونة الأخيرة، انضمت دور الإعلام الكندية، بما في ذلك تورونتو ستار، وميترولاند ميديا، وبوستميديا، وذا جلوب آند ميل، والصحافة الكندية، وسي بي سي، إلى دعوى قضائيةيقال إنه الأول من نوعه في البلاد. لقد رفعوا جميعًا دعوى قضائية ضد OpenAI بدعوى تجاهل الضمانات مثل نظام حظر الاشتراك غير المدفوع أو إخلاء المسؤولية عن حقوق الطبع والنشر التي تهدف إلى منع النسخ غير المصرح به للمحتوى.
“الصحافة في المصلحة العامة. إن استخدام OpenAI لصحافة الشركات الأخرى لتحقيق مكاسب تجارية خاصة بها ليس كذلك. وزعمت المؤسسات الإعلامية في بيان مشترك أنه أمر غير قانوني.
تطالب المجموعة، التي تضم ناشري أهم الصحف الكندية، بتعويضات قدرها 20 ألف دولار كندي لكل مقال (14300 دولار، 11000 جنيه إسترليني) يُزعم أن OpenAI استخدمته لتدريب ChatGPT بشكل غير قانوني. وقد يصل المبلغ الإجمالي إلى مليارات الدولارات كتعويضات.
تريد المؤسسات الإخبارية أيضًا إصدار أمر من شأنه أن يجبر الشركة على تقاسم الأرباح المحققة من استخدام مقالاتها، بالإضافة إلى أمر قضائي يمنع OpenAI من استخدامها في المستقبل.
وفي الوقت نفسه، تقول OpenAI إن نماذجها “مدربة على البيانات المتاحة للجمهور” وأن البرنامج “يرتكز على الاستخدام العادل ومبادئ حقوق الطبع والنشر الدولية ذات الصلة التي تعد عادلة للمبدعين وتدعم الابتكار”.
وقالت الشركة: “نحن نتعاون بشكل وثيق مع ناشري الأخبار، بما في ذلك العرض والإسناد والروابط لمحتواهم في بحث ChatGPT، ونقدم لهم طرقًا سهلة لإلغاء الاشتراك إذا رغبوا في ذلك”.
قدمت صحيفة نيويورك تايمز وناشرون آخرون أ دعوى قضائية مماثلة ضد OpenAI وMicrosoft في الولايات المتحدة العام الماضي.
تواجه OpenAI معايير تنظيمية مختلفة حول العالم
كانت الصين من أوائل الدول التي أنشأت إطارًا تنظيميًا لتكنولوجيا الذكاء الاصطناعي التوليدي حيث أصدرت النسخة النهائية من تدابير الذكاء الاصطناعي التوليدي في 10 يوليو 2023.
سبع وكالات حكومية مركزية صينية مشتركة مُتَبنى تدابير الذكاء الاصطناعي التوليدية، التي دخلت حيز التنفيذ في 15 أغسطس 2023. بالمقارنة مع المسودة الأولى لتدابير الذكاء الاصطناعي التوليدية التي تم طرحها للتشاور العام في أبريل 2023، شجعت تدابير الذكاء الاصطناعي التوليدية الجديدة على تطوير تكنولوجيا وخدمات الذكاء الاصطناعي التوليدي والاستثمار فيها.
ومع ذلك، فإن ChatGPT الخاص بـ OpenAI والخدمات المماثلة محظورة بسبب قوانين الرقابة والمخاوف من المعلومات المضللة. وقد دفع هذا المطورين الصينيين، الذين استخدم العديد منهم واجهة برمجة تطبيقات OpenAI في منتجاتهم، إلى التدافع بحثًا عن بدائل محلية للذكاء الاصطناعي.
وقد دعمت الحكومة أيضًا هذه البدائل لأنها تتوافق مع لوائحها.
ومن ناحية أخرى، اتخذت روسيا موقفا أكثر تحفظا فيما يتعلق بالذكاء الاصطناعي. وتفرض البلاد الآن قيودًا لمواجهة ما تعتبره مخاطر النفوذ الأمريكي من خلال الذكاء الاصطناعي. كما يشير إلى مخاوف تتعلق بالأمن السيبراني.
في الأشهر التي سبقت الانتخابات الأمريكية، كانت هناك عدة تقارير تزعم أن روسيا كانت تستخدم الذكاء الاصطناعي للتأثير على المنظور، على الرغم من أن الكثيرين اعتبروه دعاية.
وفي كوريا الشمالية، تتعامل الحكومة مع الذكاء الاصطناعي بقدر كبير من الشك والحذر، كما تفعل مع العديد من الابتكارات الخارجية. حظرت الحكومة ChatGPT والتقنيات المماثلة في محاولة للحفاظ على رقابة صارمة على المعلومات ومنع سوء الاستخدام المحتمل.
الاتحاد الأوروبي متأخر في سباق الذكاء الاصطناعي
واتهم العديد من الخبراء أوروبا بخنق الابتكار في مجال الذكاء الاصطناعي من خلال قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي. قانون الاتحاد الأوروبي للذكاء الاصطناعي هو اللائحة التي تم إنشاؤها لتنسيق الإطار القانوني لأنظمة الذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي.
وفقًا للقانون، تنقسم تطبيقات الذكاء الاصطناعي إلى ثلاثة مستويات من المخاطر: المخاطر غير المقبولة (المحظورة)، والمخاطر العالية (تخضع لمتطلبات صارمة)، والمخاطر المنخفضة (غير المنظمة إلى حد كبير). يحظر القانون ممارسات الذكاء الاصطناعي التي تتسم بالتلاعب أو الخداع، ولكن هناك استثناءات لبعض استخدامات إنفاذ القانون.
يمكن أن يؤدي انتهاك القانون إلى فرض غرامات تصل إلى 35 مليون يورو أو 7% من إجمالي المبيعات العالمية. كان النهج الحذر الذي اتبعته أوروبا تجاه الذكاء الاصطناعي واضحًا تمامًا بصفتها الجهة المنظمة لخصوصية البيانات في إيطاليا اشتبكت مع OpenAI للوصول إلى أحد محتويات دورها الإعلامية.
كان الغرض الأساسي من الشراكة هو استخدام محتوى اللغة الإيطالية من محفظة أخبار GEDI لتدريب منتجات OpenAI وتحسينها، وهي خطوة لتدريب نماذج ChatGPT على المحتوى الإيطالي.
ردًا على ذلك، صرحت GEDI، “لم يتم إطلاق المشروع بعد، وبالتالي لم يتم توفير أي محتوى تحريري لـ OpenAI في الوقت الحالي ولن يتم ذلك حتى يتم الانتهاء من المراجعات الجارية.”
ويأتي هذا الصدام بعد عام تقريبًا من قيام هيئة إيطالية أخرى، تُعرف باسم Garante، وهي واحدة من أكثر الهيئات استباقية في الاتحاد الأوروبي في تقييم امتثال منصة الذكاء الاصطناعي لنظام خصوصية البيانات في الكتلة، بحظر ChatGPT.
زعمت الانتهاكات من قواعد الخصوصية للاتحاد الأوروبي (EU)، ولكن تمت إعادة تنشيط الخدمة بعد أن عالجت OpenAI مشكلات مثل حق المستخدمين في رفض الموافقة على استخدام البيانات الشخصية لتدريب الخوارزميات.
وفي بيان عبر البريد الإلكتروني، قالت OpenAI إنها تعتقد أن ممارساتها تتماشى مع قوانين الخصوصية في الاتحاد الأوروبي. وقالت: “نحن نعمل بنشاط لتقليل البيانات الشخصية في تدريب أنظمتنا مثل ChatGPT”، مضيفة أنها “تخطط لمواصلة العمل بشكل بناء مع Garante”.
لقد تأخرت أوروبا في سباق الذكاء الاصطناعي، في حين تواصل أماكن مثل أمريكا القفز إلى الأمام. حاليًا، تهيمن الشركات الأمريكية، بما في ذلك الشركة الأم لـ OpenAI، Microsoft، على صفوف أكبر شركات الذكاء الاصطناعي حسب تقييم السوق. لا شك أن الاستجابة المدروسة للدولة قد أتت بثمارها بالنسبة لشركات الذكاء الاصطناعي، على الأقل على المدى القصير.
وفي الآونة الأخيرة، أصبح كاني ويست، مغني الراب الأمريكي الحائز على جائزة جرامي، آخر من احتضن هذه التكنولوجيا مثله لاول مرة فيديو موسيقي تم إنشاؤه باستخدام الذكاء الاصطناعي التوليدي لأغنيته المنفردة التي تحمل عنوان BOMB.
وفي حين تشير العديد من الأماكن إلى المخاوف بشأن أخلاقيات استخدام الذكاء الاصطناعي كمبرر لقيودها المشددة، يبدو أن ذلك يرجع أيضًا إلى التوترات السياسية والجهود المبذولة لحماية المصالح الوطنية. إذا لم يتغير شيء، فقد يكون العالم متقدمًا بفارق كبير بحلول الوقت الذي تكتشف فيه أوروبا أخيرًا خلل الذكاء الاصطناعي.