أهم مميزات يتفوق بها نموذج GPT-4o الجديد على نموذج GPT-4
حصل الروبوت (ChatGPT) على تحسين هائل بإطلاقه لنموذج جديد (GPT-4o).الذي يجعل التفاعل بين الإنسان والحاسوب يبدو أكثر طبيعية، بفضل مهاراته المتقدمة في التعامل مع النصوص المكتوبة والأوامر الصوتية والصور ومقاطع الفيديو، بالإضافة إلى قدرته على فهم واستيعاب ما تراه الكاميرا. الهواتف الذكية في اللحظة الأولى، مثل: التردد في الأصوات، والتفحص لملامح الوجوه واستيعاب المشاعر التي تنطوي عليها.
يأتي نموذج (GPT-4o) بنفس القدرات التي يقدمها نموذج (GPT-4)، ولكنه يتمتع بتحسينات ومزايا تجعله يتفوق على الإصدار السابق.
هذه الآن التفوقات الخمسة التي يتمتع بها نموذج GPT-4o على نموذج GPT-4:
1- ChatGPT-4o مجاني للجميع:
تمثل نموذج (GPT-4o) خطوة هامة نحو تعزيز الوصول إلى القدرات المتقدمة. للذكاء الاصطناعي التوليدي بعض الناس) من مقالاتنا، ولكن الآن يمكن للجميع الوصول إليه واستخدامه بحرية. ChatGPT Plus بتكلفة 20 دولار شهرياً. لكن الآن، بفضل تحسينات في كفاءة المعالجة، يمكن لجميع المستخدمين استخدام GPT-4o مجاناً من خلال OpenAI.
بالإضافة إلى التحديثات الأصلية التي تُقدمها نموذج (GPT-4o)، أعلنت الشركة عن توفير عدد كبير من الميزات لجميع المستخدمين مجانًا، منها:
- تصفح الويب عبر ChatGPT مجانًا.
- تحليل البعانات وانشاء الرسوم البيانية
- التعامل مع الصور.
- رفع الملفات والبدء في عمليات التلخيص، والتحليل والكتابة.
- كان الوصول إلى متجر الروبوتات البرمجية (GPTs Store) متاحًا سابقًا فقط لمستخدمي الإصدار المدفوع (ChatGPT Plus)، ولكن الآن متاح للجميع.
- استخدام ميزة الذاكرة، التي تساعد الروبوت في الاحتفاظ ببعض التفاصيل والمعلومات التي يرغب في استخدامها في وقت لاحق.
ومع ذلك، لا تُعنى جميع تلك الميزات المساواة مع مشتركي “ChatGPT Plus”، الذين سيحصلون على ميزات إضافية تتضمن زيادة خمسة أضعاف في عدد المطالبات اليومية، والوصول المبكر إلى ميزات الصوت والرؤية المتقدمة، والتي ستحدث ثورة في تفاعلنا مع الذكاء الاصطناعي.
هناك تحسينات كبيرة في التفاعل مع الصوت
يضم نموذج GPT-4 وضعًا صوتيًا ، ومع ذلك ، فإنه محدود للغاية حيث يمكنه الرد فقط على استفسار واحد في كل مرة ، مما يجعله يشبه المساعدين الصوتيين مثل Alexa من أمازون أو مساعد Google أو Siri من آبل. ومع GPT-4 ، تم تغيير الأمور بشكل جذري كما هو موضح في الفيديو التالي.
أدهشت الشركة الجميع بعرض نموذج (GPT-4o) بقدرته على إبتكار قصص إبداعية لحظية مثل (قصة ما قبل النوم عن الروبوتات والحب)، كما يستطيع الرد بذكاء على التعديلات السريعة التي يتم طلبها أثناء سرد القصة، مما جعل تفاعل ChatGPT الصوتي أكثر سلاسة.
بالاضافة الى ذلك، اصبح لدى طراز GPT-40 القدرة على تغيير نبرة صوته لتتناسب مع القصة واضافة لمسات درامية، ويمكنه حتى انهاء القصة بأغنية لإسعاد السامعين.
ميزة GPT-4o الرئيسية هي قدرته على الاحتفاظ بالموضوع الأساسي للمحادثة أثناء التفاعل مع المستخدم، وهذه القدرة لا يمكن لأفضل المساعدات الذكية حاليًا تحقيقها.
نموذج GPT-4o يتمتع بقدرات رؤية مذهلة
بعد عرض مذهل لإمكانيات الصوت، تم عرض قدرات نموذج GPT-4o في مجال الرؤية، حيث تفوقت التوقعات، حيث نجح النموذج في حل معادلة خطية مكتوبة على ورقة ببساطة عن طريق التقاط صورة لها بكاميرا الهاتف على الفور، والأهم من ذلك، استطاع تقديم المساعدة للمستخدم بدون الكشف عن الإجابة مباشرة كما طلب منه المستخدم، مما يعزز ذكاءه وتفاعله.
تجاوزت قدرات GPT-4o في التعامل مع النصوص، حيث نجحت في تحديد مشاعر السعادة والإثارة على وجه شخص في صورة شخصية مختلفة، كما هو موضح في الفيديو التالي.
افتتاح إمكانيات الرؤية المتقدمة لنموذج GPT-4o يفتح آفاقًا جديدة لتطبيقات متنوعة، مثل شرح رموز البرمجة عند توجيه كاميرا الهاتف نحوها، أو تلخيص النصوص الأجنبية بمجرد رؤيتها في صورة.
في الوقت الحالي، يبدو أن تحسينات الرؤية تركز على الصور الثابتة، ولكن في المستقبل القريب، تعتقد OpenAI أن GPT-4 سيتطور ليتمكن من معالجة مقاطع الفيديو، مثل متابعة الفعاليات الرياضية وشرح القوانين، مما يفتح الباب أمام تطبيقات ثورية أخرى.
أداء أسرع كثيرًا:
يوضح النموذج (GPT-4) بعض التأخير في معالجة المطالبات المعقدة، بالرغم من سرعته الرائعة. ولكن مع نموذج GPT-4o، ستلاحظ تحسناً ملحوظاً في السرعة، حيث يمكنه إنتاج إجابته النصية المؤلفة من 488 كلمة في فترة زمنية قصيرة. أقل من 12 ثانية ، بينما يحتاج الرد الذي يتميز بنفس السرعة من GPT-4 إلى حوالي دقيقة.
يتمتع النموذج الجديد GPT-4o بسرعة استجابة رائعة حيث يستطيع الرد على المداخلات الصوتية بمعدل متوسط يبلغ 320 ميلّي/ الثانية، وهذا يقترب من زمن استجابة الإنسان في المحادثات. بينما يحتاج النموذج السابق GPT-4 في المتوسط إلى 5.4 ثانية للاستجابة، ويرجع ذلك إلى أن وضع الصوت كان يشتغل كثلاثة نماذج منفصلة.
- نموذج بسيط يحول الصوت إلى نص.
- يقوم نموذج GPT-3.5 أو GPT-4 بمعالجة النص وإنتاج نص آخر.
- نموذج بسيط ثالث يقوم بتحويل النص إلى صوت مرة أخرى.
هذه العملية تسبب في فقدان الكثير من المعلومات، حيث لا يمكن للنموذج (GPT-4) تماماً التعرف على نبرة الصوت أو وجود أكثر من متحدث أو الضوضاء الخلفية مباشرة. ولا يمكن له أن ينطق بالضحك أو يغني أو يعبر عن المشاعر.
توفر تطبيق سطح المكتب لنظام التشغيل macOS وويندوز قريبًا
يعمل على إصدار نسخة خاصة بتطبيقات سطح المكتب من ChatGPT. بإطلاق تطبيق جديد من منتج ChatGPT لأجهزة الكمبيوتر التي تعمل بنظام macOS.
سيسمح التطبيق بإجراء محادثات صوتية مباشرة مع الروبوت من الحاسوب، سواء في الوضع الصوتي التقليدي أو باستخدام إمكانيات الصوت والفيديو في نموذج GPT-4o الجديد.
أكدت شركة OpenAI أن تطبيق ويندوز قيد التطوير الآن لمستخدمي نظام التشغيل ويندوز، ومن المتوقع أن يتم إصداره بحلول نهاية عام 2024.
وقد يكون التأخير ناتجًا عن سعي مايكروسوفت إلى توجيه مستخدمي نظام ( ويندوز 11 ) إلى المساعد ( Copilot ) المدعوم من ChatGPT.