أعلنت شركة OpenAI عن شراكة مع معهد سلامة الذكاء الاصطناعي في الولايات المتحدة، وكجزء من هذا التعاون، ستوفر OpenAI للمعهد إمكانية الوصول المبكر إلى نموذجها الأساسي التالي، ChatGPT-5، وفقًا للرئيس التنفيذي لشركة OpenAI سام ألتمان. تهدف الشراكة مع الوكالة الفيدرالية إلى ضمان أن تكون نماذج الذكاء الاصطناعي القادمة آمنة وموثوقة قبل إصدارها للجمهور.
وأعلن ألتمان عن هذا التعاون في منشور حديث على منصة Platform X، قائلًا: “يعمل فريقنا مع معهد سلامة الذكاء الاصطناعي على اتفاقية حيث سنوفر الوصول المبكر إلى نموذجنا الأساسي التالي حتى نتمكن من العمل معًا لتطوير علم تقييمات الذكاء الاصطناعي”.
وبموجب هذه الشراكة، تم تكليف معهد سلامة الذكاء الاصطناعي الأمريكي، الذي تم إنشاؤه رسميًا من قبل المعهد الوطني للمعايير والتكنولوجيا (NIST)، بتطوير المبادئ التوجيهية والمعايير الخاصة بقياس الذكاء الاصطناعي والسياسات المتبعة فيه، وضمان قوة بروتوكولات السلامة وإثبات صحتها تجريبياً.
يأتي الإعلان عن الشراكة بين OpenAI ومعهد سلامة الذكاء الاصطناعي الأمريكي وسط مخاوف متزايدة بشأن سلامة الذكاء الاصطناعي واتجاه أولويات OpenAI. في وقت سابق من هذا العام، في مايو، قامت OpenAI بحل فريق Superalignment، الذي كان مكرسًا لضمان اتساق نماذج الذكاء الاصطناعي مع النوايا البشرية وعدم “خروجها عن القانون”. بعد التفكيك، غادر العديد من أعضاء الفريق الرئيسيين OpenAI، بما في ذلك Jan Leike والمؤسس المشارك Ilya Sutskever. انضم Leike لاحقًا إلى Anthropic AI، بينما أسس Sutskever شركة ناشئة جديدة لسلامة الذكاء الاصطناعي، Safe Superintelligence Inc.
حتى أن ليكه أعرب عن إحباطه من افتقار OpenAI للموارد الموعودة، وخاصة قوة الحوسبة، التي كان من المفترض أن تدعم جهود السلامة، وانتقد قيادة OpenAI لإعطاء الأولوية لإطلاق منتجات جديدة على ضمان السلامة. ومع ذلك، ردًا على هذه المخاوف، كرر ألتمان التزام الشركة بالسلامة، مشيرًا إلى أن الشركة تخصص ما لا يقل عن 20٪ من موارد الحوسبة الخاصة بها لجهود السلامة، وهو التعهد الذي تم تقديمه في البداية في يوليو.
وفي الوقت نفسه، أعلن ألتمان في إعلانه عن التعاون عن إزالة بنود عدم التشهير من عقود الموظفين، وهي خطوة تهدف إلى تعزيز بيئة يشعر فيها الموظفون الحاليون والسابقون بحرية التعبير عن مخاوفهم دون خوف من الانتقام. وكتب ألتمان في منشوره: “هذا أمر بالغ الأهمية لأي شركة، ولكن بالنسبة لنا بشكل خاص، وهو جزء مهم من خطتنا للسلامة”.
تجدر الإشارة إلى أن شراكة OpenAI مع المعهد الأمريكي لسلامة الذكاء الاصطناعي ليست أول تعاون لها مع الهيئات الحكومية في مجال سلامة الذكاء الاصطناعي. في العام الماضي، وافقت كل من OpenAI وDeepMind على مشاركة نماذج الذكاء الاصطناعي الخاصة بهما مع حكومة المملكة المتحدة، مما يؤكد الاتجاه المتزايد للتعاون بين مطوري الذكاء الاصطناعي والهيئات التنظيمية.
بالإضافة إلى ذلك، أعلنت شركة OpenAI عن تعيين الجنرال المتقاعد من الجيش الأمريكي بول إم ناكاسوني في مجلس إدارتها للتركيز على الأمن والحوكمة. وكتبت شركة OpenAI في منشور على مدونتها أن “تعيين ناكاسوني يعكس التزام OpenAI بالسلامة والأمن، ويسلط الضوء على الأهمية المتزايدة للأمن السيبراني مع استمرار تأثير تكنولوجيا الذكاء الاصطناعي في النمو”.
لمطالعة المزيد: موقع السفير وللتواصل تابعنا علي فيسبوك الدبلوماسي اليوم و يوتيوب الدبلوماسي اليوم.