مجلس السلامة الجديد في OpenAI من دون سام ألتمان

أعلنت OpenAI عن تغييرات كبيرة في ممارسات السلامة والأمن الخاصة بها، بما في ذلك إنشاء لجنة إشراف مستقلة جديدة لمجلس الإدارة.

 تأتي هذه الخطوة مع تحول ملحوظ: لم يعد الرئيس التنفيذي سام ألتمان جزءًا من لجنة السلامة، مما يمثل خروجًا عن الهيكل السابق.

سيرأس لجنة السلامة والأمن (SSC) المشكلة حديثًا زيكو كولتر، مدير قسم التعلم الآلي في جامعة كارنيجي ميلون. 

ومن بين الأعضاء الرئيسيين الآخرين الرئيس التنفيذي لشركة Quora آدم دانجيلو، والجنرال المتقاعد في الجيش الأمريكي بول ناكاسوني، ونيكول سيليجمان، نائب الرئيس التنفيذي السابق والمستشار العام لشركة Sony Corporation.

تحل هذه اللجنة الجديدة محل لجنة السلامة والأمن السابقة التي تم تشكيلها في يونيو 2024، والتي ضمت ألتمان بين أعضائها.

 تم تكليف اللجنة الأصلية بتقديم توصيات بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI.

تمتد مسؤوليات لجنة السلامة والأمن الآن إلى ما هو أبعد من التوصيات. وستتمتع اللجنة بسلطة الإشراف على تقييمات السلامة لإصدارات النماذج الرئيسية وممارسة الرقابة على إطلاق النماذج.

 والأمر الحاسم هو أن اللجنة ستتمتع بسلطة تأخير الإصدار حتى تتم معالجة المخاوف المتعلقة بالسلامة بشكل كافٍ.

تأتي إعادة الهيكلة هذه بعد فترة من التدقيق فيما يتعلق بالتزام OpenAI بسلامة الذكاء الاصطناعي. 

واجهت الشركة انتقادات في الماضي لحل فريق Superalignment ورحيل الموظفين الرئيسيين الذين يركزون على السلامة. 

ويبدو أن إزالة ألتمان من لجنة السلامة هي محاولة لمعالجة المخاوف بشأن تضارب المصالح المحتمل في إشراف الشركة على السلامة.

تتضمن أحدث مبادرة سلامة لشركة OpenAI أيضًا خططًا لتعزيز تدابير الأمن وزيادة الشفافية حول عملهم والتعاون مع المنظمات الخارجية.

 وقد توصلت الشركة بالفعل إلى اتفاقيات مع معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة للتعاون في البحث في مخاطر سلامة الذكاء الاصطناعي الناشئة ومعايير الذكاء الاصطناعي الجدير بالثقة.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *