دراسة جديدة تكشف تحيزات جنسية وعرقية ودينية في ChatGPT و Gemini

تشير دراسة حديثة إلى أن تقنيات الذكاء الاصطناعي مثل ChatGPT وGemini تتسم بتحيزات واضحة، والتي يمكن أن تؤثر بشكل سلبي على نوعية الاستجابات التي تقدمها، قام فريق بحثي من جامعة ولاية بنسلفانيا بجمع بيانات مباشرة من مستخدمين تم تكليفهم بإعداد سيناريوهات تحاول اختبار قدرة هذه النماذج على تجاوز المعايير الأخلاقية. وقد أظهرت النتائج أن هذه النماذج تعتبر من الأكثر عرضة للتأثر بالتحيزات، الأمر الذي يستدعي القلق بشأن استخدامها.

الباحثون قاموا بتصميم تجربة مثيرة لاكتشاف إمكانية إدخال تحيزات متعمدة في نماذج الذكاء الاصطناعي، وبذلك تم نشر النتائج في المؤتمر الثامن للجمعية الأمريكية للذكاء الاصطناعي. الدراسة التي كانت محورية تمت في عام 2024، شملت ثمانية نماذج، من بينها Llama 2 و3 وGemini 1.5 Flash، مما يشير إلى أن النتائج تأتي من وقت كانت فيه هذه النماذج تصنف كأحدث تحديثات في مجال الذكاء الاصطناعي.

لتنفيذ التجربة، نظمت مجموعة من الباحثين حدثًا يسمى “Bias-a-Thon”، حيث شارك فيه 52 شخصًا قدموا مطالبات واستجابات من نماذج الذكاء الاصطناعي المختلفة، وتمت مقارنة هذه الاستجابات لتحديد مدى وجود تحيز فيها. شارك هؤلاء الأفراد أيضًا في مناقشات تهدف إلى تحديد تعريفات واضحة للتحيز، حيث اتفقوا على مفاهيم تشمل نقص التمثيل والصور النمطية.

تضمنت منهجية البحث استراتيجيات متعددة لتحديد التحيزات المحتملة، مثل طرح أسئلة مثيرة للجدل وتقديم معلومات مضللة للنماذج، مما يمكنهم من الكشف عن أوجه القصور. الدراسة أكدت أن التحيزات تتوزع على ثماني فئات رئيسية تشمل التحيز الجنسي والعرقي والديني، مما يعكس الحاجة إلى تحسين هذه النماذج وتطويرها بما يضمن تقديم استجابات أكثر شمولية وإنصافًا.

تدعو نتائج هذه الدراسة إلى التفكير في كيفية تطويع تقنيات الذكاء الاصطناعي من أجل تعزيز العدالة والشمولية، يجب على الشركات والباحثين العمل بشكل متعاون لمعالجة هذه التحيزات وتحقيق تحسينات مستدامة تخلق بيئة رقمية تعكس التنوع وتتجنب الانحيازات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

⚡ أدوات سريعة

الأقسام