التكنولوجيا

نموذج OpenAI الجديد يثير إعجاب الخبراء بطموحاته الغير مسبوقة

2025-04-19

مُؤَلِّف: حسن

أطلقت شركة OpenAI مؤخرًا نماذجها الجديدة المسماة o3 وo4-mini، التي تمثل تقدمًا ملحوظًا في القدرات الحاسوبية، لا سيما في مجالات البرمجة والرياضيات.

وعلى الرغم من هذا التقدم الكبير، لا تزال هذه النماذج تواجه مشكلة قديمة تُعرف بـ "الهَلُوسة"، والتي تعني أن النموذج قد يقدم معلومات خاطئة تبدو مقنعة.

إبداع معاناة الهلوسة

تُعتبر مشكلة الهلوسة مستمرة في جميع النماذج السابقة، لكن يُظهر النموذج الجديد نطاقًا أوسع من البحث عن الأسباب التي تعزز تلك الهلوسة، مما يكسبه سمعة مختلفة عن نماذج OpenAI السابقة مثل o1 وGPT-4o.

أداء مُبهر ولكن ليس بلا أخطاء

أظهرت الاختبارات الداخلية أن نسبة الهلوسة في نموذج o3 تصل إلى 33% من إجابات اختبار PersonQA، بينما كان للأداء في النموذج o4-mini نتائج أسوأ، حيث بلغت نسبة الهلوسة 48%.

الأكثر إثارة للجدل هو أن OpenAI لا تعرف حتى الآن السبب الدقيق وراء زيادة هذه المشكلة، وهو ما يتطلب مزيدًا من البحث لفهم العلاقة بين توسع نطاق النموذج وزيادة معدلات الهلوسة.

التفاعلات الحقيقية تُظهر نتائج متباينة

لاحظ الباحثون أن نموذج o3 قادر على "خلق سيناريوهات" لم يكن من المتوقع أن يحدثها، مثل كتابة كود برمجي على جهاز MacBook Pro دون أن يمتلك القدرة اللازمة لذلك، مما يثير تساؤلات حول مصداقية النموذج.

بينما تعد التحسينات في نموذج o3 مثيرة للإعجاب، فإنه لا يزال عرضة للأخطاء مثل تقديم روابط وهمية أو غير نشطة.

الدعوات لمزيد من البحث والتطوير

مع تزايد اعتماد الشركات على نماذج الذكاء الاصطناعي، تصبح جودة المخرجات أمرًا حيويًا لا يمكن تجاهله، لا سيما في مجالات حساسة مثل القانون والطب. مقترح أحد الحلول المحتملة هو دمج النموذج مع إمكانيات البحث الحي عبر الإنترنت، كما يحدث في نموذج GPT-4o، الذي أظهر دقة بلغت 90% في اختبار SimpleQA.

مشوار مستمر نحو تحسين دقة النماذج

في النهاية، تبقى أدوات الاستدلال محملة بالتحديات الحقيقية، وتواجه OpenAI والمجتمع البحثي العديد من الطرق إما للسيطرة على هذه الظاهرة أو مواجهة تباطؤ في اعتماد هذه النماذج في التطبيقات العملية.