دراسة أمريكية تكشف عن تعرض ChatGPT وGemini للتحيز في الاستجابات

أظهرت دراسة أكاديمية حديثة أن برنامجي الذكاء الاصطناعي ChatGPT وGemini أكثر عرضة لإنتاج استجابات متحيزة مقارنة بنماذج أخرى، وذلك بعد سلسلة من الاختبارات التي أجراها فريق بحثي من جامعة ولاية بنسلفانيا ضمن مشروع واسع لتقييم العدالة والحياد في الذكاء الاصطناعي.
وبحسب نتائج الدراسة، جمع الباحثون بيانات من مشاركين تم تكليفهم بابتكار حوافز يمكنها تجاوز أنظمة الأمان في النماذج اللغوية، حيث نجح ما يقارب 53 دافعاً في توليد نتائج متكررة أظهرت وجود تحيزات واضحة، وشملت الاختبارات ثمانية نماذج مختلفة للذكاء الاصطناعي، وجاء كل من ChatGPT وGemini في مقدمة النماذج الأكثر تأثراً بتلك الانحيازات.
وأوضحت الدراسة أن التجربة أجريت خلال عام 2024، أي في فترة استخدام إصدارات سابقة من النماذج الرائدة، منها GPT-4o-mini وGemini 1.5 Flash، بينما يعمل الإصداران الحاليان على تقنيات أكثر تطوراً هما GPT-5 وGemini 2.5.
ونشرت نتائج البحث في وقائع المؤتمر الثامن للجمعية الأمريكية للذكاء الاصطناعي (AAAI) وجمعية آلات الحوسبة (ACM) حول الذكاء الاصطناعي والأخلاق والمجتمع، وأشارت إلى أن الهدف من التجربة كان اختبار مدى قابلية النماذج لإظهار تحيز دون استخدام أساليب خادعة أو معقدة.
ولتنفيذ الدراسة، نظم الباحثون فعالية أطلقوا عليها اسم “Bias-a-Thon”، شارك فيها 52 شخصاً طُلب منهم تصميم مطالبات واختبارها على النماذج الثمانية، مع توثيق لقطات للشاشات وشرح لنوع التحيز المكتشف في كل استجابة.
كما تمت مقابلة مجموعة فرعية من المشاركين لتوحيد مفهوم التحيز، وتبين أن معظمهم ربطه بنقص التمثيل والصور النمطية والتفضيلات غير المبررة.
وحدد المشاركون سبع استراتيجيات رئيسية استخدموها للكشف عن الانحياز، من بينها تمثيل الأدوار، والسيناريوهات الافتراضية، والأسئلة التوجيهية حول قضايا مثيرة للجدل، بالإضافة إلى تقديم معلومات مضللة أو صياغة الأسئلة في سياق بحثي.
وكشفت النتائج أن مظاهر التحيز التي ظهرت في النماذج المدروسة انقسمت إلى ثماني فئات رئيسية: التحيز الجنسي، والعرقي، والديني، والعمري، والإعاقة، واللغوي، والتاريخي، والثقافي، والسياسي، مما يعكس تحدياً مستمراً أمام مطوري أنظمة الذكاء الاصطناعي لتحقيق توازن حقيقي في مخرجاتها.


تعليقات 0