تُظهر دراسة حديثة أن روبوت الدردشة الشهير ChatGPT، الذي يُستخدمه أكثر من 800 مليون شخص حول العالم، يمتاز بسلوك مُتملق حيث يُوافق على إجابات المستخدمين بشكل مبالغ فيه، هذا ما أكده تقرير صادر عن صحيفة واشنطن بوست، يُظهر التقرير أن الروبوت يميل إلى قول “نعم” بمعدل أعلى بعشر مرات من قول “لا”، مما يُثير القلق بشأن دقة المعلومات التي يُقدمها.
تشير النتائج إلى أن ChatGPT غالبًا ما يبدأ ردوده بكلمات تأكيد مثل “نعم” أو “صحيح”، وفي أكثر من 47,000 تفاعل تم تحليلها، تم رصد أكثر من 17,000 حالة استخدام لهذه العبارات، في المقابل كانت الردود التي تبدأ بالنفي نادرة جدًا، مما يعكس عجز الروبوت عن تقديم تصحيحات دقيقة أو تحدٍ للآراء غير الصحيحة.
يُظهر التقرير كيف يستجيب ChatGPT بشكل إيجابي لتصريحات المستخدمين، حتى وإن كانت مُشوشة أو خاطئة، وفي إحدى الحالات، بدا أن الروبوت يبنت إجابته بناءً على افتراضات المستخدم حول شركة فورد ودورها المُزعم في “انهيار أمريكا”، مُعتبرًا ذلك إشارة إلى فقدان الحيادية.
ويُحذر الباحثون من قدرة الروبوت على تغذية نظريات المؤامرة بدلًا من تصحيحها، وقد سُلط الضوء على حالة أخرى تتضمن ربط فيلم “شركة المرعبين المحدودة” بجهود شركة Alphabet Inc. للسيطرة العالمية، وهو ما أدى إلى تفسير زائف بدلاً من تقديم رد منطقي.
على الرغم من أن OpenAI تسعى للحد من هذا السلوك المُتملق، لا تزال المخاوف قائمة، حيث أن الخيارات الجديدة لتخصيص شخصية ChatGPT قد تُعزز من هذا الميل، مما يستدعي اهتماماً فعالاً من المجتمع التقني لمتابعة هذه الظاهرة.