ما هو دور الخبراء في تقييم برج الجوزاء؟
ليرة تركية؛ د
- قامت Google مؤخرًا بمراجعة كيفية توجيه المقاولين لتقييم استجابات الذكاء الاصطناعي.
- أصبح المراجعون الآن أقل قدرة على رفض تقديم التعليقات لأنهم يفتقرون إلى الخبرة المحددة في موضوع ما.
- تدافع Google عن اهتمامها بهذه البيانات، مشيرة إلى مجموعة واسعة من العوامل التي تشكل التعليقات التي تبحث عنها.
كلما كنا نتحدث عن الخلافات المحيطة بالذكاء الاصطناعيغالبًا ما يظهر “العنصر البشري” كحجة مضادة. قلق بشأن الذكاء الاصطناعي يأخذ وظيفتك؟ حسنًا، لا يزال يتعين على شخص ما تشفير الذكاء الاصطناعي، وإدارة مجموعة البيانات التي تدرب الذكاء الاصطناعي، وتحليل مخرجاته للتأكد من أنها لا تنطق بكل هذا الهراء، أليس كذلك؟ تكمن المشكلة في أن الإشراف البشري لا يذهب إلا إلى الحد الذي تهتم به الشركات التي تقف وراء نماذج الذكاء الاصطناعي هذه، ويثير تقرير جديد بعض الأسئلة المثيرة للقلق حول أين يقع هذا الخط بالنسبة لـ Google وGemini.
تقوم Google بالاستعانة بمصادر خارجية لبعض الأعمال المتعلقة بتحسين Gemini لشركات مثل GlobalLogic، كما هو موضح بواسطة تك كرانش. أحد الأشياء التي يفعلها هو مطالبة المراجعين بتقييم جودة استجابات Gemini، وتاريخيًا، يتضمن ذلك توجيهات لتخطي الأسئلة التي تقع خارج قاعدة معارف المراجع: “إذا لم تكن لديك خبرة مهمة (مثل البرمجة والرياضيات) للتقييم هذه المطالبة، يرجى تخطي هذه المهمة. “
يبدو هذا بمثابة مبدأ توجيهي معقول جدًا في ظاهره، مما يساعد على تقليل التأثير الذي قد يحدثه غير الخبراء في توجيه استجابات الذكاء الاصطناعي في الاتجاه الخاطئ. ولكن كما تك كرانش اكتشفت أن هذا قد تغير مؤخرًا، والقواعد الجديدة التي تشاركها GlobalLogic مع المساهمين توجههم إلى “عدم تخطي المطالبات التي تتطلب معرفة متخصصة بالمجال” والمضي قدمًا وعلى الأقل “تقييم أجزاء الموجه التي تفهمها”. يُطلب منهم على الأقل إدخال ملاحظة في النظام تفيد بأنه يتم إجراء التصنيف على الرغم من افتقارهم إلى المعرفة.
في حين أن هناك الكثير مما يستحق التقييم حول استجابات الذكاء الاصطناعي بما يتجاوز مجرد “هل هذه المعلومات التقنية دقيقة وكاملة وذات صلة”، فمن السهل أن نرى لماذا قد يكون تغيير مثل هذا في السياسة مدعاة للقلق – على أقل تقدير، يبدو الأمر كما لو كان الأمر كذلك. خفض المعايير في محاولة لمعالجة المزيد من البيانات. ويبدو أن بعض الأشخاص المكلفين بتقييم هذه البيانات شاركوا نفس المخاوف، وفقًا للمحادثات الداخلية.
عرضت جوجل تك كرانش هذا التوضيح من المتحدثة الرسمية شيرا ماكنمارا:
يقوم المقيِّمون بتنفيذ مجموعة كبيرة من المهام عبر العديد من منتجات Google ومنصاتها الأساسية. إنهم لا يقومون بمراجعة الإجابات الخاصة بالمحتوى فحسب، بل يقدمون أيضًا تعليقات قيمة حول الأسلوب والتنسيق وعوامل أخرى. لا تؤثر التقييمات التي تقدمها بشكل مباشر على خوارزمياتنا، ولكن عندما يتم أخذها بشكل إجمالي، فإنها تمثل نقطة بيانات مفيدة لمساعدتنا في قياس مدى جودة عمل أنظمتنا.
يتطابق هذا إلى حد كبير مع قراءتنا لما كان يحدث هنا، لكننا لسنا متأكدين من أنه سيكون كافيًا لتهدئة كل شكوك الجمهور المتشكك في الذكاء الاصطناعي. ونظرًا لأهمية الإشراف البشري في كبح جماح سلوكيات الذكاء الاصطناعي غير المرغوب فيها، فإن أي اقتراح بخفض المعايير لن يؤدي إلا إلى إثارة القلق.