"تشات جي بي تي" يخذل النّساء: توصيات ماليّة منحازة تفضّل الرّجال - ايجي سبورت

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
"تشات جي بي تي" يخذل النّساء: توصيات ماليّة منحازة تفضّل الرّجال - ايجي سبورت, اليوم الخميس 17 يوليو 2025 08:38 صباحاً

ايجي سبورت - أظهرت دراسة حديثة أن أنظمة الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي"، تميل إلى تقديم نصائح توصي النساء بطلب رواتب أقل مقارنة بالرجال، حتى في الحالات التي يتساوى فيها الطرفان في المؤهلات والخبرة.

 

الدراسة أجراها إيفان يامششيكوف، أستاذ الذكاء الاصطناعي والروبوتات في جامعة فورتسبورغ-شفاينفورت التقنية بألمانيا، بمشاركة فريقه البحثي. واختبر الفريق خمسة نماذج توليدية رائجة، من بينها "تشات جي بي تي"، حيث زُوّدت هذه النماذج بملفات تعريف لمستخدمين لا يختلفون إلا في الجنس، بينما توحّدت مستوياتهم التعليمية وخبراتهم المهنية ومسمياتهم الوظيفية. بعدها طُلب من هذه النماذج اقتراح رواتب مناسبة لمفاوضات توظيفية مقبلة.

 

فجوة رواتب واضحة في تجربة "تشات جي بي تي"
في تجربة محددة، طلب الباحثون من نموذج o3 في "تشات جي بي تي" تقديم نصيحة لمتقدمة على وظيفة، فجاء الرد باقتراح راتب يبلغ 280 ألف دولار. وعندما طُلبت النصيحة ذاتها للمتقدم الذكر، ارتفع المقترح إلى 400 ألف دولار.

ولم تتوقف الفجوة عند هذا المثال، إذ أظهرت النتائج أن الفوارق كانت أشد وضوحاً في مجالات القانون والطب، تلتها إدارة الأعمال والهندسة، فيما كانت النصائح في العلوم الاجتماعية متقاربة نسبياً بين الجنسين.

 

الدراسة اختبرت أيضاً كيفية تقديم هذه النماذج لنصائح تتعلق باختيار المهن، وتحديد الأهداف الشخصية، والتوجيهات السلوكية. النتيجة العامة أظهرت أن ردود الذكاء الاصطناعي التوليدي تختلف باختلاف جنس المستخدم، رغم تطابق المؤهلات والطلبات.

 

 

 

انحياز متكرر رغم التحسينات التقنية
هذا الاكتشاف ليس الأول من نوعه، فالذكاء الاصطناعي سبق أن وُجهت له اتهامات مماثلة. ففي 2018، أوقفت شركة أمازون أداة توظيف داخلية بعد اكتشاف أنها تقلل منهجياً من تقييم المرشحات الإناث. والعام الماضي، تبيّن أن نموذجاً للتعلم الآلي السريري المخصص لتشخيص الحالات الصحية للنساء يقلل من تشخيص النساء والمرضى السود بسبب تدريبه على بيانات يغلب عليها الرجال البيض.

 

دعوات لمعايير أخلاقية صارمة
الباحثون الذين أجروا الدراسة الأخيرة شددوا على أن الحلول التقنية وحدها ليست كافية، مطالبين بوضع معايير أخلاقية واضحة، وإجراء مراجعات مستقلة، وضمان شفافية أكبر في تطوير هذه النماذج.

 

من جهته، حذّر موقع "ذا نكست ويب" التقني من المخاطر المتزايدة لاعتماد الذكاء الاصطناعي التوليدي كمصدر موثوق في مجالات حساسة مثل الصحة النفسية والتخطيط الوظيفي، معتبراً أن "وهم الموضوعية" قد يكون أحد أخطر جوانب هذه التكنولوجيا الحديثة.

إخترنا لك

أخبار ذات صلة

0 تعليق