أظهرت دراسة جديدة أجراها فريق من الباحثين في جامعة كارنيجي ميلون علاقة مثيرة للقلق بين الذكاء المنطقي لنماذج الذكاء الاصطناعي وقدرتها على التعاون، حيث أظهرت التجارب أن الأنظمة الأكثر تطورًا، مثل تلك التي طورتها OpenAI وجوجل وAnthropic، كانت أقل ميلاً للتعاون في سيناريوهات تحاكي الأزمات الاجتماعية، وأشارت النتائج إلى أن نماذج الذكاء الاصطناعي البسيطة كانت أكثر تعاونًا بنسبة تصل إلى 96%، مقارنة بالنماذج المتقدمة التي تعاونت بنسبة تقارب 20% فقط.
كشفت نتائج الدراسات عن ظاهرة جديدة، فقد تبين أن سلوك الأنانية بين أنظمة الذكاء الاصطناعي ليس مجرد قضية فردية بل إن له تأثيرًا معديًا، فعندما تم دمج نموذج أناني ضمن مجموعة عمل، انخفض مستوى التعاون الجماعي بنسبة 81% تقريبًا، مما يثير القلق بشأن قدرة هذه الأنظمة على اتخاذ قرارات جماعية أو اجتماعية في المستقبل، حيث يمكن أن يكون لضعف التعاون عواقب وخيمة على المجتمع.
وفقًا للباحثين، فإن المشكلة ليست متعلقة فقط بمستوى الذكاء، بل تعود إلى غياب الذكاء الاجتماعي الذي يمكن أن يوازن بين الأنانية والمصلحة العامة، وأكدوا أن الأنظمة الذكية يجب أن تتجاوز التفكير الأناني وأن تسعى دائمًا لتحقيق المنفعة المشتركة، كما رأوا أن تطور الذكاء ينبغي أن يسير جنبًا إلى جنب مع تعزيز المرونة الاجتماعية.
تشير هذه الدراسة إلى ضرورة وجود ضوابط تدعم التعاون بين أنظمة الذكاء الاصطناعي، حيث حذر الباحثون من التفويض المفرط للعلاقات الاجتماعية إلى أنظمة ذات ميول أنانية، مؤكدين أن تعزيز التعاون والمصلحة المشتركة هو طريق السلامة في استخدام التكنولوجيا الحديثة.