قامت شركة أوبن إيه آي OpenAI، الثلاثاء بتشكيل لجنة للسلامة والأمن بقيادة كبار المسؤولين التنفيذيين، بعد حل مجلس الرقابة السابق في منتصف مايو/ أيار.
وقالت الشركة إن اللجنة الجديدة ستكون مسؤولة عن تقديم توصيات إلى مجلس إدارة أوين إيه أي "بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI".
وتضم اللجنة كلاً من بريت تايلور، وآدم دانجيلو، ونيكول سيليغمان، وجميعهم أعضاء في مجلس إدارة OpenAI، إلى جانب سام ألتمان.
يأتي ذلك في الوقت الذي أعلن فيه مطور المساعد الافتراضي ChatGPT أنه بدأ تدريب النموذج الجديد.
وقالت الشركة في منشور على مدونتها إنها تتوقع "أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا نحو الذكاء الاصطناعي العام"، أو الذكاء العام الاصطناعي، الذي يرتبط بالذكاء الاصطناعي الذي يكون ذكياً أو أكثر ذكاءً من البشر.
اقرأ أيضاً: أوبن إيه أي تعتزم الكشف عن محرك بحث يعمل بالذكاء الاصطناعي لمنافسة غوغل
ويأتي تشكيل فريق إشراف جديد بعد أن قامت OpenAI بحل فريق سابق كان يركز على المخاطر طويلة المدى للذكاء الاصطناعي.
وقامت شركة OpenAI بحل فريقها الذي يركز على المخاطر طويلة المدى للذكاء الاصطناعي بعد عام واحد فقط من إعلان الشركة عن الفريق، حسبما أكد مصدر مطلع على الوضع لـ CNBC الجمعة 17 مايو/ أيار.
قبل ذلك، أعلن كل من قائدي الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من مايكروسوفت.
أصبحت سلامة الذكاء الاصطناعي في طليعة النقاش والبحث على مستوى الحكومات أيضاً، حيث أصبحت النماذج الضخمة التي تدعم تطبيقات مثل ChatGPT أكثر تقدماً.
وتتدفق الأسئلة على مطوري منتجات الذكاء الاصطناعي عن موعد وصول الذكاء الاصطناعي العام وما هي المخاطر التي ستصاحبه.
فترة الـ90 يوماً القادمة، ستقوم مجموعة السلامة بتقييم عمليات OpenAI والضمانات ومشاركة توصياتها مع مجلس إدارة الشركة، وتقديم التوصيات.
تابعونا على منصات التواصل الاجتماعي