حصل روبوت (ChatGPT) على تحسين كبير بإصدار نموذج (GPT-4o) الجديد، الذي يجعل التفاعل بين الإنسان والحاسوب أكثر طبيعية بفضل قدراته المتقدمة في معالجة النصوص المكتوبة والأوامر الصوتية والصور والفيديوهات، بالإضافة إلى فهم وإدراك ما تلتقطه كاميرات الهواتف الذكية بشكل مباشر، مثل نبرة الأصوات، وتحليل ملامح الوجوه وفهم المشاعر من خلالها.

يقدم (GPT-4o) الجديد نفس القدرات التي يقدمها نموذج (GPT-4)، ولكنه يأتي مع العديد من التحسينات والمزايا التي تجعله يتفوق على سابقه.

إليك 5 فوائد يتفوق بها نموذج GPT-4o على نموذج GPT-4:

 1- ChatGPT-4o مجاني للجميع:

يمثل نموذج GPT-4o خطوة كبيرة نحو تعزيز الوصول إلى القدرات المتقدمة للذكاء الاصطناعي التوليدي، خصوصًا للمستخدمين العاديين. في الماضي، كان الاستفادة من GPT-4 الأكثر تطورًا تتطلب اشتراكًا في إصدار ChatGPT Plus بتكلفة 20 دولارًا شهريًا. لكن الآن، بفضل التحسينات في كفاءة المعالجة، تتيح OpenAI استخدام GPT-4o مجانًا للجميع.

وبالإضافة إلى التحسينات الأساسية التي يوفرها نموذج (GPT-4)، أعلنت الشركة عن توفير عدد كبير من الميزات لجميع المستخدمين مجانًا، ومنها:

  • تصفح الويب عبر ChatGPT مجانًا.
  • تحليل البيانات، فضلاً عن إنشاء المخططات البيانية.
  • التعامل مع الصور.
  • تحميل الملفات والبدء في عمليات التلخيص، والكتابة، والتحليل.
  • الوصول إلى متجر برامج الروبوتات (GPTs Store) كان متاحًا من قبل فقط لمستخدمي الإصدار المدفوع (ChatGPT Plus).
  • استخدام ميزة (الذاكرة)، التي تمكّن الروبوت من تخزين بعض التفاصيل والمعلومات التي يود استخدامها في المستقبل.

لكن كل هذه الميزات لا تعني المساواة مع المشتركين في إصدار (ChatGPT Plus)، الذين سيحصلون على مزايا إضافية تشمل: زيادة عدد المطالبات اليومية بمقدار خمسة أضعاف، والوصول المبكر إلى ميزات الصوت والرؤية المتقدمة، التي ستُغير بشكل جذري طريقة التفاعل مع الذكاء الاصطناعي.

 2- تحسينات ملحوظة في التفاعل مع الصوت:

يحتوي نموذج (GPT-4) على وضع صوتي، لكنه محدود للغاية. يستطيع فقط الاستجابة لاستفسار واحد في كل مرة، مما يجعله مشابهًا للمساعدات الصوتية مثل أليكسا من أمازون أو مساعد جوجل أو سيري من آبل. ولكن مع GPT-4o، تغيرت الأمور بشكل جذري، كما يتضح في الفيديو التالي:

أثار نموذج (GPT-4o) دهشة الجميع في العرض الذي قدمته الشركة بفضل قدرته الفورية على خلق قصص إبداعية مثل “قصة ما قبل النوم عن الروبوتات والحب”. كما يمتاز بقدرته على الاستجابة الفورية للمقاطعات التي تتطلب تعديلات سريعة أثناء سرد القصة بذكاء، مما جعل التفاعل الصوتي مع ChatGPT سلسًا للغاية.

علاوة على ذلك، أصبح نموذج GPT-4o قادرًا على تعديل نبرة صوته لتناسب القصة، وإضفاء طابع درامي، وحتى اختتام القصة بأغنية لإبهار المستمعين.

ولكن ما يميز GPT-4 بشكل خاص هو قدرته على الحفاظ على الموضوع الرئيسي للمحادثة أثناء التفاعل مع المستخدم، وهو شيء لا تستطيع أفضل المساعدات الذكية حاليًا تحقيقه.

بعد إظهار القدرات المدهشة في المجال الصوتي، تم عرض إمكانيات نموذج (GPT-4o) في مجال الرؤية التي تجاوزت التوقعات، حيث تمكن النموذج من حل معادلة خطية مكتوبة على ورقة بواسطة التقاط صورة لها بكاميرا الهاتف في اللحظة ذاتها. والأهم من ذلك، أنه استطاع تقديم المساعدة للمستخدم دون الكشف عن الحل مباشرة، وفقاً لما طلبه المستخدم، مما يعزز من ذكائه وتفاعله.

كما تجاوزت إمكانيات GPT-4 معالجة النصوص، إذ استطاع التعرف على مشاعر السعادة والحماس في وجه شخص ضمن صورة شخصية جديدة، كما هو موضح في الفيديو التالي:

تفتح إمكانيات الرؤية المتقدمة لنموذج GPT-4o أفقًا جديدة لمجموعة واسعة من التطبيقات، مثل شرح الأكواد البرمجية بمجرد توجيه كاميرا الهاتف نحوها، أو تلخيص النصوص الأجنبية بمجرد رؤيتها في صورة.

في الوقت الراهن، يبدو أن قدرات الرؤية المعززة تركز على الصور الثابتة. ومع ذلك، تؤمن OpenAI أن GPT-4o سيتطور قريبًا ليتمكن من التعامل مع مقاطع الفيديو، مثل مشاهدة حدث رياضي وشرح القواعد، مما سيفتح الباب لتطبيقات أكثر ابتكاراً.

 4- أداء أسرع كثيرًا:

يواجه نموذج (GPT-4) بعض التأخير عند معالجة الطلبات المعقدة، على الرغم من سرعته الفائقة. ولكن مع النموذج (GPT-4o)، ستلاحظ تحسنًا كبيرًا في السرعة، حيث يمكنه توليد نص مكون من 488 كلمة في أقل من 12 ثانية، بينما يتطلب النموذج (GPT-4) حوالي دقيقة لتوليد استجابة مماثلة.

يتميز النموذج الجديد GPT-4o بسرعة استجابة استثنائية، حيث يمكنه الرد على المدخلات الصوتية في متوسط زمن قدره 320 ملّي/ثانية، مما يجعله قريبًا جدًا من زمن استجابة الإنسان في المحادثة. بينما يستغرق النموذج (GPT-4) حوالي 5.4 ثانية في المتوسط، وذلك لأن وضع الصوت فيه كان يعمل كسلسلة من ثلاثة نماذج منفصلة.

  • نموذج بسيط يحول الصوت إلى نص.
  • يقوم نموذج GPT-3.5 أو GPT-4 بمعالجة النص وإنتاج نص آخر.
  • نموذج آخر بسيط يقوم بتحويل النص إلى صوت مرة أخرى.

تؤدي هذه العملية إلى خسارة قدر كبير من المعلومات، حيث أن نموذج (GPT-4) لا يمكنه التعرف على نبرة الصوت أو تعدد المتحدثين أو الضوضاء الخلفية بشكل مباشر. كما لا يتمكن من إنتاج الضحك أو الغناء أو التعبير عن المشاعر.

5- سيتوفر تطبيق سطح المكتب لنظام التشغيل macOS وويندوز قريبًا:

تطبيق سطح المكتب لنظام التشغيل macOS وويندوز
تطبيق سطح المكتب لنظام التشغيل macOS وويندوز

قد يكون إصدار الويب من ChatGPT مناسبًا لمعظم الناس، ولكن لأولئك الذين يفضلون التطبيقات الخاصة بسطح المكتب، بدأت شركة OpenAI بإصدار تطبيق جديد لروبوت ChatGPT لأجهزة الكمبيوتر التي تعمل بنظام macOS.

سيوفر التطبيق القدرة على إجراء محادثات صوتية مباشرة مع الروبوت من خلال الكمبيوتر، سواء كان ذلك عبر الوضع الصوتي التقليدي المتاح بالفعل، أو باستخدام إمكانيات الصوت والفيديو المقدمة في نموذج GPT-4o الجديد.

وبالنسبة لمستخدمي نظام ويندوز، أعلنت شركة OpenAI أن التطبيق الخاص بنظام ويندوز قيد التطوير في الوقت الحالي، ومن المنتظر إطلاقه بحلول نهاية عام 2024.

قد يكون التأخير بسبب محاولة شركة مايكروسوفت توجيه مستخدمي نظام (ويندوز 11) إلى استخدام المساعد (Copilot) المدعوم بواسطة ChatGPT.

الوسوم

ChatGPT ChatGPT Plus مساعد الطيار GPT-4 GPT-4o macOS الأوس نظام الذكاء الاصطناعي الذكاء الاصطناعي التوليدي النماذج اللغوية الكبيرة مايكروسوفت ويندوز 11

Shares:

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *