الرئيسية / تكنولوجيا / لاختبار ChatGPT-5 .. كل ما تريد معرفته عن شراكة OpenAI والحكومة الأمريكية

لاختبار ChatGPT-5 .. كل ما تريد معرفته عن شراكة OpenAI والحكومة الأمريكية



أعلنت OpenAI عن شراكة مع معهد سلامة الذكاء الاصطناعي الأمريكي، وكجزء من هذا التعاون، ستوفر OpenAI  للمعهد إمكانية الوصول المبكر إلى نموذجه التأسيسي التالي، ChatGPT-5 وفقًا للرئيس التنفيذي لشركة  OpenAI Sam Altman، وتهدف الشراكة مع الهيئة الفيدرالية إلى التأكد من أن نماذج الذكاء الاصطناعي القادمة آمنة وموثوقة قبل إصدارها العام.


أعلن ألتمان عن التعاون في منشور حديث على المنصة  X، حيث قال “يعمل فريقنا مع معهد سلامة الذكاء الاصطناعي الأمريكي على اتفاقية حيث سنوفر وصولاً مبكرًا إلى نموذجنا التأسيسي التالي حتى نتمكن من العمل معًا للمضي قدمًا علم تقييمات الذكاء الاصطناعي”.


وبموجب هذه الشراكة، تم تكليف معهد سلامة الذكاء الاصطناعي الأمريكي، الذي أنشأه المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا، بوضع مبادئ توجيهية ومعايير لقياس وسياسات الذكاء الاصطناعي، مما يضمن قوة بروتوكولات السلامة والتحقق من صحتها تجريبيًا.


ويأتي إعلان الشراكة بين OpenAI ومعهد سلامة الذكاء الاصطناعي الأمريكي وسط مخاوف متزايدة بشأن سلامة الذكاء الاصطناعي واتجاه أولويات OpenAI في وقت سابق من هذا العام في شهر مايو، قامت OpenAI بحل فريق Superalignment الخاص بها، والذي كان مكرسًا لضمان توافق نماذج الذكاء الاصطناعي مع نوايا الإنسان وعدم “الخروج عن القانون”، بعد هذا التفكيك، غادر العديد من أعضاء الفريق الرئيسيين  OpenAI، بما في ذلك جان لايكي والمؤسس المشارك إيليا سوتسكيفر، وانضمت Leike  لاحقًا إلى  Anthropic AI، بينما أسس Sutskever شركة ناشئة جديدة للسلامة في مجال الذكاء الاصطناعي، وهي Safe Superintelligence Inc.


حتى أن Leike أعرب عن إحباطه بسبب افتقار OpenAI إلى الموارد الموعودة، وخاصة القوة الحاسوبية، والتي كان من المفترض أن تدعم جهود السلامة، وانتقد قيادة OpenAI  لإعطاء الأولوية لإطلاق منتجات جديدة على ضمان السلامة، ومع ذلك، ردًا على هذه المخاوف، أكد ألتمان التزام الشركة بالسلامة، وأشار سام إلى أن الشركة تخصص ما لا يقل عن 20% من مواردها الحاسوبية لجهود السلامة، وهو التعهد الذي تم التعهد به في البداية في يوليو.


وفي الوقت نفسه، في إعلان التعاون، أعلن ألتمان أيضًا عن إزالة بنود عدم الاستخفاف من عقود الموظفين، وتهدف هذه الخطوة إلى تعزيز بيئة يشعر فيها الموظفون الحاليون والسابقون بالحرية في التعبير عن مخاوفهم دون خوف من الانتقام، وكتب ألتمان في منشوره: “هذا أمر بالغ الأهمية لأي شركة، ولكن بالنسبة لنا بشكل خاص، وجزء مهم من خطة السلامة لدينا”.


ومن الجدير بالذكر أن شراكة OpenAI مع معهد سلامة الذكاء الاصطناعي الأمريكي ليست أول تعاون لها مع الهيئات الحكومية بشأن سلامة الذكاء الاصطناعي، وفي العام الماضي، اتفقت كل من OpenAI وDeepMind على مشاركة نماذج الذكاء الاصطناعي الخاصة بهما مع حكومة المملكة المتحدة، مما يؤكد الاتجاه المتزايد للتعاون بين مطوري الذكاء الاصطناعي والهيئات التنظيمية.


بالإضافة إلى ذلك، قامت OpenAI بتعيين الجنرال المتقاعد بالجيش الأمريكي بول إم ناكاسوني في مجلس إدارتها للتركيز على الأمن والحوكمة، معلنة عن تعيينه، وكتبت OpenAI  في منشور مدونتها أن “تعيين ناكاسوني يعكس التزام OpenAI بالسلامة والأمن، ويسلط الضوء على النمو المتزايد، أهمية الأمن السيبراني مع استمرار نمو تأثير تكنولوجيا الذكاء الاصطناعي”.

عن y2news

اترك تعليقاً