تبقى مراقبة المحتوى على نطاق واسع لغزًا صعبًا، ويعتقد أوبن إيه آي أن GPT-4 قد يكون الحلا، مع بعض الشروط.
“أوبن إيه آي –OpenAI” واثقة من أن تكنولوجيتها لديها الإمكانية لمعالجة أحد أصعب مشكلات التكنولوجيا: مراقبة المحتوى على نطاق واسع. وفقًا لأوبن إيه آي، يتمتع GPT-4 بالقدرة على استبدال عشرات الآلاف من المشرفين البشريين مع الحفاظ تقريبًا على نفس الدقة وزيادة التسلسل. قد يؤدي ذلك إلى تفويض المهام الأكثر سمية والأكثر تعبًا عقليًا في عالم التكنولوجيا إلى الآلات.
في منشور مدونة حديث، كشفت أوبن إيه آي أنها قد استخدمت بالفعل GPT-4 لتطوير وتنقية السياسات المتعلقة بالمحتوى ووضع العلامات عليه واتخاذ القرارات بشأنها. صرحت ليليان وينغ، رئيسة أنظمة السلامة في أوبن إيه آي، “هذه خطوة جيدة حقًا في كيفية استخدام الذكاء الاصطناعي لحل قضايا العالم الحقيقي بطريقة تكون مفيدة للمجتمع”.
تسلط أوبن إيه آي الضوء على ثلاث فوائد رئيسية مقارنةً بالنهج التقليدي لمراقبة المحتوى.
أولاً، يدعي أن البشر يفسرون السياسات بطرق مختلفة، بينما تحافظ الآلات على قراراتها متسقة. يمكن أن تكون هذه الإرشادات مطولة مثل الكتاب ومتغيرة باستمرار. بينما يتطلب من البشر تدريبًا كبيرًا للتعلم والتكيف، يُجادِرُ أوبن إيه آي بأنه يمكن لنماذج اللغة الكبيرة مثل GPT-4 تنفيذ سياسات جديدة على الفور.
ثانيًا، يمكن أن يساعد GPT-4 في تطوير سياسة جديدة خلال ساعات. عادةً ما يستغرق عملية صياغة ووضع العلامات وجمع الملاحظات وتنقيح السياسات أسابيع أو حتى شهورًا.
في الثالث، تتناول أوبن إيه آي رفاهية العاملين الذين يتعرضون باستمرار للمحتوى الضار، مثل مقاطع الفيديو التي تصور إيذاء الأطفال أو التعذيب.
بشكل طريف، قد يساهم أوبن إيه آي في حل مشكلة زادتها تكنولوجيتها الخاصة
على الرغم من مضي ما يقرب من عقدين من وجود وسائل التواصل الاجتماعي الحديثة وعدة سنوات إضافية من المجتمعات عبر الإنترنت، ما زالت مراقبة المحتوى تعتبر تحديًا صعبًا للمنصات الرقمية. تعتمد Meta وGoogle وTikTok على فرق كبيرة من المشرفين المكلفين بمراجعة المحتوى المثير للقلق وغالبًا ما يكون مروعًا. يتواجد معظم هؤلاء المشرفين في البلدان النامية ذات الأجور المنخفضة، ويعملون غالبًا لصالح شركات توظيف خارجية، ويعانون من مشاكل صحية نفسية نتيجة الرعاية الصحية النفسية المحدودة.
ومع ذلك، تعتمد أوبن إيه آي بنفسها بشدة على العمالة البشرية. تقوم الآلاف من الأفراد، والعديد منهم في بلدان أفريقية مثل كينيا، بتوضيح ووضع العلامات على المحتوى. يمكن أن يكون طبيعة المحتوى مزعجة، والعمل مرهق، والأجر غير كاف.
في حين تُقدِم أوبن إيه آي نهجها كمبتكر ومبتكر، تم استخدام الذكاء الاصطناعي في مراقبة المحتوى منذ سنوات. لم يتحقق رؤية مارك زوكربيرغ لنظام آلي متكامل بالكامل بعد، ولكن Meta تستخدم خوارزميات لمراقبة غالبية المحتوى الضار والغير قانوني. تعتمد منصات مثل YouTube وTikTok أيضًا على نظم مشابهة، مما يجعل تكنولوجيا أوبن إيه آي مثيرة للاهتمام بالنسبة للشركات الصغيرة التي لا تمتلك الموارد اللازمة لتطوير تكنولوجيا خاصة بها.
يعترف كل منصة بصراحة بأن تحقيق مراقبة مثالية للمحتوى على نطاق واسع أمر مستحيل. سواء كان الأمر يتعلق بالبشر أو الآلات، هناك أخطاء تحدث، وعلى الرغم من أن النسبة قد تكون منخفضة، إلا أن هناك ملايين المنشورات الضارة التي تنجو، بالإضافة إلى المحتوى البريء الذي يختفي أو يُحذف.
المنطقة الرمادية للمحتوى الخادع والخاطئ والعدائي الذي قد لا يكون غير قانوني يشكل تحديًا كبيرًا للأنظمة الآلية. حتى الخبراء البشريين يجدون صعوبة في تصنيف منشورات مثل هذه بدقة، وغالبًا ما تخطئ الآلات. تنطبق نفس المشكلة على السخرية، فضلاً عن الصور ومقاطع الفيديو التي توثق الجرائم أو عنف الشرطة.
قد تكون أوبن إيه آي موضوعة لمعالجة مشكلة أنها في الواقع ساهمت في تفاقمها. أدوات الذكاء الاصطناعي التي تولّدها مثل ChatGPT أو مبدع الصور DALL-E، قد جعلت من السهل بكثير إنشاء نشر المعلومات الخاطئة على نطاق واسع على وسائل التواصل الاجتماعي. على الرغم من أن أوبن إيه آي تعمل على تحسين دقة ChatGPT، فإن GPT-4 لا يزال يولّد أحيانًا أخبار كاذبة ومعلومات خاطئة.