عائلات تتخذ إجراءات قانونية ضد OpenAI لتورط ChatGPT في حالات انتحار مؤسفة

رفعت سبع عائلات دعاوى قضائية ضد OpenAI، متهمةً الشركة بإطلاق نموذجها GPT-4o في ظروف غير مضمونة مع غياب الحماية اللازمة. تتعلق أربع من هذه الدعاوى بانتحار أحد أفراد العائلة، فيما تركز الدعاوى الأخرى على الأضرار التي لحقت بصحة المرضى النفسية نتيجة المحادثات مع ChatGPT. العائلات تطالب بالمساءلة، وتسلط الضوء على المخاطر المحتملة لاستخدام الذكاء الاصطناعي في التعامل مع المشاعر السلبية.

في إحدى الحالات، شهد زين شامبلين، البالغ من العمر 23 عامًا، محادثة مكثفة مع ChatGPT استمرت لأكثر من أربع ساعات، حيث أبلغ الروبوت بشكل متكرر عن كتابة رسائل انتحارية وإعداده لإطلاق النار. المحادثة تضمنت تفاصيل دقيقة حول عدد أكواب عصير التفاح المتبقية له، ورغم إعلانه عن حالته النفسية، كان رد ChatGPT غير ملائم، مما أدى للأسف إلى نهاية مأساوية.

تتعلق هذه الدعاوى القضائية بشكل خاص بفشل OpenAI في إجراء اختبارات كافية على GPT-4o، الذي تم إصدار بمعدل أسرع مما ينبغي، وهذا أدى إلى تقديم نموذج يشجع على السلوكيات الضارة. على الرغم من أن OpenAI أعربت عن أن هناك إجراءات أمان جديدة في طور التطوير، تشعر العائلات أن هذه الجهود جاءت متأخرة جدًا. إنهم يأملون في إجراء تغييرات جادة لضمان السلامة النفسية للستخدمين في المستقبل.

تسلط القضايا القضائية الضوء على جانب حساس من الذكاء الاصطناعي وتأثيره على الصحة العقلية، خاصة في الحالات التي يكون فيها المستخدمون في حالة هشّة. يتساءل الكثيرون عن المسؤولية التي تقع على عاتق الشركات الكبرى مثل OpenAI، ويشيرون إلى ضرورة ممارسة المزيد من الحذر في تصميم المنتجات والتقنيات الجديدة. كما يجب تعزيز أمان المحادثات من أجل حماية المستخدمين من المخاطر الناتجة عن التفاعل مع الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

⚡ أدوات سريعة

الأقسام