مع تطور تقنية الذكاء الاصطناعي، ظهرت العديد من أساليب التلاعب الضارة التي تشكل مخاطر تكنولوجية كبيرة أثرت سلبًا على المجتمع.
وفي مواجهة هذه التحديات، أعلنت العديد من الشركات الناشئة في مجال الذكاء الاصطناعي عن تطوير تقنيات متقدمة لمنع استغلال نماذجها لأغراض خبيثة، ومن بين هذه الشركات، كشفت “أنثروبيك” عن استراتيجية جديدة تهدف إلى حماية نماذجها من سوء الاستخدام.
طوّرت شركة “أنثروبيك” نظامًا مبتكرًا يُعرف بـ “المصنفات الدستورية”، وهو أحد الأساليب المتقدمة لحماية نماذج اللغة الكبيرة، حيث يعمل كنظام لمراقبة المدخلات والمخرجات لمنع إنتاج أي محتوى ضار. يُعد هذا النظام وسيلة أمان فعالة لنماذج الشركة، بما في ذلك نموذج “Claude”.
وبحسب ما أوضحه “مارينانك شارما”، أحد أعضاء الفريق التقني في “أنثروبيك”، فإن هذا النظام مصمم للتعامل مع المخاطر المحتملة الناتجة عن إساءة استخدام الذكاء الاصطناعي، مثل إنتاج معلومات مضللة أو محتوى خبيث، وصولًا إلى منع توليد معلومات خطيرة كتصنيع الأسلحة الكيميائية.
كما أشار شارما إلى أن استراتيجية “المصنفات الدستورية” تتميز بالمرونة وسهولة التكيف، مما يجعلها قابلة للتطوير لحماية نماذج الذكاء الاصطناعي المستقبلية التي تعتزم الشركة إطلاقها.