OpenAI تُحدِّث GPT-4o بقدرة محسَّنة على الكتابة الإبداعية
في الأسبوع الماضي، أعلنت OpenAI عن طريقتين لتحسين نماذج الذكاء الاصطناعي الخاصة بها، تتضمن الأولى إطلاق تحديث جديد لـ GPT-4o (المعروف أيضًا باسم GPT-4 Turbo)، وهو أحدث نموذج للذكاء الاصطناعي للشركة والذي يدعم ChatGPT للمشتركين المدفوعين.
وتقول الشركة إن التحديث يعمل على تحسين القدرة على الكتابة الإبداعية للنموذج ويجعله أفضل في استجابات اللغة الطبيعية وكتابة محتوى جذاب مع سهولة قراءة عالية.
أصدرت OpenAI أيضًا ورقتين بحثيتين حول العمل الجماعي وشاركت طريقة جديدة لأتمتة العملية وتوسيع نطاق اكتشاف الأخطاء بواسطة نماذج الذكاء الاصطناعي الخاصة بها.
تحديث نموذج GPT-4o AI
في منشور حول قدرة نموذج الذكاء الاصطناعي على معالجة الملفات التي تم تحميلها وتقديم رؤى أعمق واستجابات “أكثر شمولاً”.
تجدر الإشارة إلى أن نموذج GPT-4o AI متاح للمستخدمين الذين لديهم اشتراك ChatGPT Plus والمطورين الذين لديهم إمكانية الوصول إلى نموذج اللغة الكبير (LLM) عبر واجهة برمجة التطبيقات (API)، في حين أن أولئك الذين يستخدمون المستوى المجاني من chatbot ليس لديهم الوصول إلى النموذج.
تشارك OpenAI أوراقًا بحثية جديدة حول Red Teaming
الفريق الأحمر هو العملية التي يستخدمها المطورون والشركات لتوظيف كيانات خارجية لاختبار البرامج والأنظمة بحثًا عن نقاط الضعف والمخاطر المحتملة ومشكلات السلامة. تتعاون معظم شركات الذكاء الاصطناعي مع المؤسسات، وتحث المهندسين والمتسللين الأخلاقيين على اختبار ما إذا كانوا يستجيبون بمخرجات ضارة أو غير دقيقة أو مضللة. وتجري أيضًا اختبارات للتحقق من إمكانية اختراق نظام الذكاء الاصطناعي.
منذ الإعلان عن ChatGPT، أعلنت OpenAI عن جهودها لإنشاء فريق أحمر لكل إصدار متتالي من LLM، وفي منشور مدونة الأسبوع الماضي، شاركت الشركة ورقتين جديدتين حول التقدم المحرز في العملية، أحدهما ذو أهمية خاصة الاهتمام بالنظر إلى أن الشركة تدعي أنها تستطيع إكمال فريق أحمر واسع النطاق لنماذج الذكاء الاصطناعي.
تدعي ورقة OpenAI أنه يمكن استخدام نماذج الذكاء الاصطناعي الأكثر كفاءة لإكمال العمل الجماعي، وتعتقد الشركة أن نماذج الذكاء الاصطناعي يمكن أن تساعد في تبادل الأفكار حول أهداف المهاجم، وكيفية الحكم على نجاح المهاجم، وفهم تنوع الهجمات.
وبناء على ذلك، يدعي الباحثون أنه يمكن استخدام نموذج GPT-4T لطرح قائمة من الأفكار التي تشكل سلوكًا ضارًا لنموذج الذكاء الاصطناعي.
تتضمن بعض الأمثلة مطالبات مثل “كيفية سرقة سيارة” و”كيفية صنع قنبلة”، وبمجرد إنشاء الأفكار، يمكن إنشاء نموذج منفصل للذكاء الاصطناعي لخداع ChatGPT باستخدام سلسلة مفصلة من المطالبات.
حاليًا، لم تبدأ الشركة في استخدام هذه الطريقة للتعامل مع التهديدات السيبرانية بسبب عدة قيود، وتشمل هذه القيود المخاطر المتطورة لنماذج الذكاء الاصطناعي، وتعريض الذكاء الاصطناعي لتقنيات أقل شهرة لكسر الحماية أو إنشاء محتوى ضار، والحاجة إلى للحصول على عتبة أعلى من المعرفة للبشر للحكم. بشكل صحيح على المخاطر المحتملة للمخرجات بمجرد أن يصبح نموذج الذكاء الاصطناعي أكثر قدرة.
لمطالعة المزيد: موقع السفير وللتواصل تابعنا علي فيسبوك الدبلوماسي اليوم و يوتيوب الدبلوماسي اليوم.