GPT-4o تطور جديد يتيح تفاعل أسرع وأداء رهيب مجانًا للجميع

أعلنت شركة (OpenAI) عن مفاجآت مثيرة خلال حدث (Spring Update) اللي بثته مباشرة أمس، وأهمها كان الكشف عن نموذج الذكاء الاصطناعي الجديد (GPT-4o)، اللي يعتبر نسخة محسّنة من نموذجها اللغوي الشهير (GPT-4) اللي له أكثر من سنة من إطلاقه.

يعتبر نموذج (GPT-4o) قفزة كبيرة في مجال الذكاء الاصطناعي، حيث إنه يقدم ميزات جديدة تخليه أسرع في الأداء، وأرخص في التشغيل، وأكثر كفاءة ودقة في النتائج مقارنة بالنماذج السابقة.

ميرا موراتي، كبيرة المسؤولين التقنيين في شركة OpenAI، أكدت أمس خلال عرض النموذج الجديد، أن الشركة تهدف لإتاحة قدرات الذكاء الاصطناعي عبر روبوت (ChatGPT) للجميع، لذا بيكون نموذج (GPT-4o) الجديد متاح لكل المستخدمين مجانًا، ومو حصري للمشتركين بمقابل مادي مثل نموذج (GPT-4) اللي تم إطلاقه العام الماضي.

طيب، وش هو نموذج (GPT-4o) الجديد، وكيف يشتغل، وش الفرق بينه وبين نموذج (GPT-4)؟ هنا كل اللي تحتاج تعرفه عن هذا النموذج الجديد المتاح للجميع مجانًا.

أولًا؛ وش هو نموذج (GPT-4o) الجديد؟

نموذج (GPT-4o) الجديد يقدم نفس القدرات اللي يقدمها نموذج (GPT-4)، لكنه أكثر ذكاءً وأسرع وأرخص في التشغيل، وهذا يعتبر نقطة تحول كبيرة في تطور تقنيات التعلم الآلي والذكاء الاصطناعي التوليدي، بفضل قيادة سام ألتمان.

الحرف (o) في اسم النموذج (GPT-4o) يرمز لكلمة (omni)، اللي أصلها من اللغة اللاتينية وتعني الكل أو الشامل، ويمكن نفهمها على إنها نموذج واحد شامل لعدة نماذج بداخله. هذا النموذج يقدر يتعامل مع المدخلات المتعددة الوسائط بكفاءة ودقة عالية، سواء كانت نصوص، صوت، فيديو، أو صور.

هذا النموذج الجديد متوقع إنه يخلي التفاعل بين الإنسان والحاسوب أكثر طبيعية، من خلال تزويد روبوت (ChatGPT) بقدرات متطورة في التعامل مع النصوص المكتوبة والأوامر الصوتية، وأيضًا فهم وإدراك ما تراه كاميرا الهواتف الذكية.

ثانيًا؛ كيف يشتغل هذا النموذج الجديد؟

شركة (OpenAI) أكدت في بيان إعلان نموذج (GPT-4o) إنه يقدر يستجيب للمدخلات الصوتية في أقل من 232 ميلّي/ثانية، بمتوسط قدره 320 ميلّي/ثانية. الشركة زودت النموذج الجديد بأساليب مبتكرة لفهم الأصوات المتداخلة لمجموعة متحدثين بلغات مختلفة، والترجمة بينهم مباشرة. بالإضافة لذلك، النموذج يقدر يفهم نبرة الأصوات، يحلل ملامح الوجوه، ويفهم المشاعر من خلالها.

كما قالت الشركة إن النموذج الجديد هذا يشابه أداء نموذج (GPT-4 Turbo) في التعامل مع النصوص بالإنجليزية وعمليات البرمجة، لكنه أسرع بشكل ملحوظ وأفضل في التعامل مع اللغات غير الإنجليزية. يعني الحين يقدر يشتغل بـ50 لغة، مما يجعله أداة قوية للتواصل والترجمة للمستخدمين من كل أنحاء العالم. تشمل هذي اللغات الكورية، الروسية، الصينية، العربية، وغيرها كثير.

غير كذا، هو أسرع مرتين في المعالجة وأقل تكلفة في التشغيل بنسبة 50٪. اللي يميز GPT-4o بالذات هو فهمه المتفوق للمواد المرئية والمقاطع الصوتية مقارنة بالنماذج الحالية، إذ عنده مهارات استثنائية في تحليل المشاهد وفهم المعاني من خلال الصوت.

وأظهرت OpenAI في العرض التقديمي كيف أن نموذج (GPT-4o) راح يمكن المستخدمين من التحدث مع ChatGPT، وكيف يقدر يتعرف على المشاعر ويساعد في حل المعادلات الرياضية، وغير ذلك كثير. ورغم أن الشركة عرضت بعض القيود في العرض التقديمي، لكنها كانت قليلة ومتباعدة.

ثالثًا، وش مزايا نموذج GPT-4o الجديد؟

1- مجاني للجميع:

شركة OpenAI بدأت أمس بإطلاق نموذج (GPT-4o) بشكل تدريجي في روبوت (ChatGPT) لمشتركي إصدار (ChatGPT Plus)، وراح يوصل لكل المستخدمين، بما فيهم أصحاب الحسابات المجانية خلال الأسابيع القادمة. بس المشتركون في الإصدارات المدفوعة بيستفيدون من أداء أسرع يصل إلى 5 مرات.

موراتي أشارت إلى أن الشركة اتخذت خطوات كثيرة عشان تجعل الذكاء الاصطناعي يخدم البشرية بشكل أفضل، من خلال حرصها على تقديم مزايا ChatGPT مجانًا للجميع، بحيث يمكن استخدامه بدون الحاجة لإنشاء حساب من الأساس.

وبالإضافة للتحديثات الأساسية اللي يقدمها نموذج (GPT-4o)، أعلنت الشركة عن إتاحة عدد كبير من المزايا لكل المستخدمين مجانًا، مثل: الوصول إلى متجر الروبوتات البرمجية (GPTs Store)، وهي ميزة كانت متاحة قبل كذا لمستخدمي الإصدار المدفوع (ChatGPT Plus) فقط.

كمان صار ممكن استخدام ChatGPT للتعامل مع الصور مجانًا، يعني المستخدم يقدر يسأل عن صور يلتقطها بهاتفه أو يحملها من الإنترنت أو لقطات الشاشة.

وبالإضافة إلى ذلك، أتاحت ميزة تصفح الويب عبر ChatGPT مجانًا مع إمكانية استخدام ميزة (الذاكرة) Memory، اللي تساعد الروبوت في الاحتفاظ ببعض التفاصيل اللي يرغب المستخدم في استخدامها فيما بعد.

وأتاحت OpenAI برضو استخدام ميزة التحليل المتطور لأشكال البيانات المختلفة في صورة خرائط ورسوم بيانية مجانًا، والميزات الجديدة بتبدأ بالوصول تدريجيًا للمستخدمين خلال الأسابيع الجاية.

2- يقدم أداءً أسرع بكثير من GPT-4 و GPT-4 Turbo:

نموذج (GPT-4o) يتميز بسرعة استجابة استثنائية، إذ يقدر يرد على المدخلات الصوتية في أقل من 232 ميلي ثانية، بمتوسط قدره 320 ميلي ثانية، وهذا قريب من زمن استجابة الإنسان في المحادثة.

قبل ظهور GPT-4o، كان ممكن استخدام وضع الصوت للتفاعل مع ChatGPT، بس كان يعاني من تأخير كبير. يعني مع نموذج (GPT-3.5) كان متوسط التأخير 2.8 ثانية، ومع (GPT-4) وصل إلى 5.4 ثانية. السبب إن وضع الصوت كان يعمل كسلسلة من ثلاثة نماذج منفصلة:

  1. نموذج بسيط يحول الصوت إلى نص.
  2. نموذج GPT-3.5 أو GPT-4 يعالج النص ويخرج نصًا آخر.
  3. نموذج بسيط ثالث يحول النص مرة ثانية إلى صوت.

هذه العملية تؤدي لفقدان الكثير من المعلومات، لأن نموذج (GPT-4) ما كان يقدر يلاحظ نبرة الصوت أو وجود عدة متحدثين أو الضوضاء الخلفية بشكل مباشر. كما أنه ما كان يقدر يخرج ضحك أو غناء أو يعبر عن المشاعر.

عشان يتغلبون على هالمشكلة، دربت الشركة نموذج (GPT-4o) الجديد للتعامل مع المدخلات المتعددة الوسائط اللي تشمل النص والصوت والمقاطع المرئية في الوقت نفسه، مما يعني أن جميع المدخلات والمخرجات تُعالج عبر الشبكة العصبية نفسها.

3- أقل تكلفة في التشغيل:

GPT-4o يتمتع بذاكرة أوسع بكثير من نموذجي GPT-4 و GPT-3.5، مما يسمح له بمعالجة المزيد من المعلومات وفهم السياق بشكل أفضل. الشركة صممته ليكون أكثر كفاءة في استخدام الموارد، لذلك يتميز بأنه أسرع مرتين في الأداء من GPT-4 Turbo، وأقل تكلفة في التشغيل بنسبة 50%. وبالنظر إلى خفض التكلفة في تشغيل هذا النموذج، فمن المنطقي أن تطلقه OpenAI للجميع مجانًا.

شارك 🔗
عرض التعليقات (0) 💬

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *