تتميز نماذج الذكاء الاصطناعي، مثل ChatGPT، بقدرتها الفائقة على إنتاج المحتوى، ولكنها تأتي مع تحديات جوهرية، أبرزها “الهلوسة”، أي ميلها لاختلاق المعلومات. يعكف الكاتب جون براندون على تسليط الضوء على هذه المشكلة، حيث يعتبر أنها تجعل هذه النماذج تشبه “ويكيبيديا عصرنا”، التي تتطلب تقصي الحقائق بشكل دائم، وهو ما يحدد جودة المعلومات المقدمة.
قرر براندون مواجهة هذه الإشكالية عبر استخدام نموذج جوجل جيميني، والذي يمتاز بدقته العالية بسبب ارتباطه بشبكة جوجل الشهيرة. يُعَد جيميني بمثابة أداة للتحقق من صحة الحقائق المطروحة من قبل ChatGPT، حيث يسهم في زيادة موثوقية النتائج، ويضمن الحصول على معلومات دقيقة وموثوقة، وهذا يمثل نقطة تحول في معالجة البيانات.
أسفرت التجربة بين جيميني وChatGPT عن نتائج مثيرة، فقد أثبت جيميني قدرته على كشف المعلومات الغير صحيحة، حيث تمكن من رصد أخطاء تاريخية في مواضيع مثل السيارات الكهربائية، كما انتقد ChatGPT على نسب كلمات أغاني غير موجودة لفرق موسيقية وتفسيرها بشكل خاطئ، مما يعكس الفوضى الناتجة عن بيانات مشوشة.
نجح جيميني أيضًا في تصحيح تفاصيل قانونية وأكاديمية مُختلَقة، مما أظهر الفروق الجوهرية بين النموذجين، حيث تُعتبر مخرجات ChatGPT “فوضى فاسدة” بينما يميل جيميني لتقديم معلومات أقرب للواقع، وهذا يُظهر ضرورة اتخاذ الحيطة عند التعامل مع مخرجات الذكاء الاصطناعي في المجالات الحساسة.
في النهاية، رغم ظهور بعض الأخطاء الطفيفة لجيميني، إلا أنها تبرز دوره كأداة فعالة في تحسين جودة المعلومات، مما يساعد في تقليل مخاطر الهلوسة ويشكل خطوة نحو مستقبل يتسم بالموثوقية في عالم الذكاء الاصطناعي.