كيف أدى مشروع قانون الذكاء الاصطناعي بكاليفورنيا إلى الانقسام في وادي السيليكون؟

نشر
آخر تحديث

استمع للمقال
Play

أحدثت محاولة ولاية كاليفورنيا الأميركية من خلال مشروع قانون جديد لتنظيم الذكاء الاصطناعي انقساماً في وادي السيليكون، حيث حذر المعارضون من أن الإطار القانوني قد يقوض المنافسة ومكانة أميركا كرائدة عالمية في التكنولوجيا.

بعد خوض معركة شرسة لتعديل أو تخفيف مشروع القانون أثناء مروره عبر الهيئة التشريعية في كاليفورنيا، ينتظر المسؤولون التنفيذيون في شركات، بما في ذلك OpenAI وMeta، بفارغ الصبر لمعرفة ما إذا كان حاكم الولاية الديمقراطي، جافين نيوسوم، سيوقع عليه ليصبح قانوناً، مع  فرصة لديه حتى 30 سبتمبر/ أيلول لاتخاذ القرار.

تعد كاليفورنيا قلب صناعة الذكاء الاصطناعي الناشئة، وفي غياب قانون فدرالي لتنظيم التكنولوجيا في جميع أنحاء الولايات المتحدة - بالإضافة إلى عدم وجود معيار عالمي موحد - فإن عواقب ما يحدث ستمتد إلى ما هو أبعد من الولاية، بحسب صحيفة فايننشال تايمز البريطانية.

قال الأستاذ في جامعة مونتريال والمعروف بـ "عراب" الذكاء الاصطناعي، يوشوا بينغيو، للصحيفة: "من المؤكد أن بقية العالم يولي اهتماماً وثيقاً لما يحدث في كاليفورنيا والولايات المتحدة على نطاق أوسع الآن، ومن المرجح أن تكون للنتيجة هناك تداعيات على الجهود التنظيمية للدول الأخرى". 

لماذا تريد كاليفورنيا تنظيم الذكاء الاصطناعي؟

أدى التطور السريع لأدوات الذكاء الاصطناعي التي يمكنها توليد ردود شبيهة بالإجابات البشرية عن للأسئلة إلى تضخيم المخاطر المتصورة حول التكنولوجيا، بدءاً من النزاعات القانونية مثل انتهاك حقوق النشر إلى المعلومات المضللة وانتشار التزييف العميق. يعتقد البعض حتى أن الذكاء الاصطناعي قد يشكل تهديداً للإنسانية.


اقرأ أيضاً: كيف تستفيد عائلات مشاهير هوليود القدامى من استخدام أصواتهم عبر الذكاء الاصطناعي؟


أصدر الرئيس الأميركي جو بايدن أمراً تنفيذياً العام الماضي يهدف إلى وضع معايير وطنية لسلامة الذكاء الاصطناعي، لكن الكونغرس الأميركي لم يحرز أي تقدم في تمرير القوانين على مستوى البلاد.

غالباً ما سبقت كاليفورنيا الليبرالية إلى تنظيم القضايا التي تأخرت فيها الحكومة الفدرالية. أصبح الذكاء الاصطناعي الآن في بؤرة الاهتمام مع "قانون كاليفورنيا للابتكار الآمن والمضمون لأنظمة الذكاء الاصطناعي الرائدة"، والذي طرحه السناتور سكوت وينر. 

من بين مشروعات القوانين المختلفة المقدمة في ولايات مختلفة، فإن مشروع القانون في كاليفورنيا هو الأكثر احتمالاً لإحداث تأثير حقيقي، حيث تقع الولاية في قلب طفرة الذكاء الاصطناعي، وهي موطن لشركات كبرى بما في ذلك OpenAI، وAnthropic، وMeta، وGoogle.

ماذا يقول مشروع القانون؟

قال سكوت وينر إن مشروع القانون الخاص به "يتطلب فقط من أكبر مطوري الذكاء الاصطناعي القيام بما تعهد به كل واحد منهم مراراً وتكراراً: إجراء اختبارات السلامة الأساسية على نماذج الذكاء الاصطناعي القوية للغاية".

سيتطلب مشروع القانون من المطورين الذين يقومون ببناء نماذج كبيرة تقييم ما إذا كانوا "قادرين بشكل معقول على التسبب في ضرر بالغ أو تمكينه (الضرر)"، بدءاً من الاستخدام الخبيث أو السرقة إلى إنشاء سلاح بيولوجي. ومن المتوقع بعد ذلك أن تتخذ الشركات ضمانات معقولة ضد تلك المخاطر المحددة.

سيتعين على المطورين بناء "مفتاح لإيقاف التشغيل" في أي نماذج جديدة تزيد عن حجم معين في حالة إساءة استخدامها أو خروجها عن السيطرة. كما سيُلزمون بصياغة تقرير السلامة قبل تدريب نموذج جديد، وأن يكونوا أكثر شفافية، حيث سيتعين عليهم "الإبلاغ عن كل حادثة تتعلق بسلامة الذكاء الاصطناعي" إلى المدعي العام للولاية وإجراء تدقيق من طرف ثالث لضمان الامتثال كل عام.

مشروع القانون موجه إلى النماذج التي تكلف أكثر من 100 مليون دولار للتدريب، وهو المبلغ المطلوب تقريباً لتدريب أفضل النماذج اليوم. لكن هذا هدف سريع الحركة حيث توقع الرئيس التنفيذي لشركة Anthropic، داريو أمودي، أن المجموعة التالية من النماذج المتطورة ستكلف مليار دولار للتدريب، و10 مليارات دولار بحلول عام 2026.

قال بينغيو إن مشروع القانون سينطبق على جميع الشركات التي تعمل في كاليفورنيا، بغض النظر عن مكان وجودها، وهو ما سيغطي فعلياً كل شركة قادرة حالياً على تطوير أفضل نماذج الذكاء الاصطناعي.

من شأن مشروع القانون أن يقدم عقوبات مدنية تصل إلى 10% من تكلفة تدريب النموذج، ضد المطورين الذين تسبب أدواتهم في الوفاة أو السرقة أو الإضرار بالممتلكات. كما سيخلق التزامات على الشركات التي تقدم موارد الحوسبة لتدريب تلك النماذج وشركات التدقيق، مما يجعلها مسؤولة عن جمع المعلومات التفصيلية حول هويات العملاء ونواياهم والاحتفاظ بها. وقد يؤدي الفشل في القيام بذلك إلى غرامات تصل إلى 10 ملايين دولار.

من يؤيد مشروع القانون ومن يعارضه؟

يقول وينر وزملاؤه إن هناك دعماً عاماً قوياً لقواعد الذكاء الاصطناعي الجديدة. كما حصل على دعم مؤهل من شركة الذكاء الاصطناعي الرائدة Anthropic، وإيلون ماسك، بالإضافة إلى نقابة ممثلي الشاشة "SAG-AFTRA"، ومجموعتين نسائيتين. يوم الاثنين التاسع من سبتمبر/ أيلول، وقع 100 موظف في شركات الذكاء الاصطناعي الكبرى بما في ذلك OpenAI، وxAI، وGoogle DeepMind على خطاب يدعو نيوسوم إلى التوقيع على مشروع القانون.

وكتبوا: "من الممكن والمناسب لشركات الذكاء الاصطناعي الرائدة أن تختبر ما إذا كانت أقوى نماذج الذكاء الاصطناعي قادرة على التسبب في أضرار جسيمة، وأن تنفذ هذه الشركات ضمانات معقولة ضد مثل هذه المخاطر".


اقرأ أيضاً: آبل توقع على خطة أميركية طوعية لإدارة مخاطر الذكاء الاصطناعي


يزعم المنتقدون - بما في ذلك الأكاديميون مثل أستاذ الذكاء الاصطناعي في جامعة ستانفورد، فاي فاي لي، وشركة رأس المال الاستثماري Andreessen Horowitz، ومسرع الشركات الناشئة Y Combinator - أن مشروع القانون من شأنه أن يعيق الشركات في المراحل المبكرة، ومطوري البرامج مفتوحة المصدر الذين يتشاركون علناً الكود الأساسي لنماذجهم.

حذر كبير مسؤولي الاستراتيجية في شركة OpenAI، جيسون كوون، في رسالة إلى وينر الشهر الماضي، من أن مشروع القانون من شأنه أن "يبطئ وتيرة الابتكار، ويدفع المهندسين ورجال الأعمال من الطراز العالمي في كاليفورنيا إلى مغادرة الولاية بحثاً عن فرص أكبر في أماكن أخرى". وردد إحدى الشكاوى الأكثر شيوعاً: "أن وينر يتدخل في مجال يجب التعامل معه على المستوى الفدرالي".

ويقول المعارضون أيضاً إنه سيخنق الابتكار من خلال تكديس المتطلبات الشاقة على المطورين وجعلهم مسؤولين عن استخدام الجهات الفاعلة السيئة لنماذج الذكاء الاصطناعي الخاصة بهم. ويضيفون أنه يشرع للمخاطر التي لا وجود لها بعد.

قال مدير الأبحاث في IBM، داريو غيل: "من الناحية الفلسفية، فإن توقع عواقب كيفية استخدام الناس لكودك في البرنامج يمثل مشكلة صعبة للغاية. كيف سيستخدمه الناس، وكيف تتوقع أن يتسبب شخص ما في ضرر؟ إنه مثبط كبير".

وقال مدير مركز سلامة الذكاء الاصطناعي، الذي لعب دوراً حاسماً في صياغة مشروع القانون، دان هندريكس: إن المعارضين "يريدون من الحكومات أن تمنحهم شيكاً مفتوحاً لبناء ونشر أي تقنيات يريدونها، بغض النظر عن المخاطر أو الأذى الذي قد يلحق بالمجتمع".

تعرض هندريكس، الذي يعمل أيضاً كمستشار لشركة xAI التابعة لإيلون ماسك، لانتقادات من المعارضين للقانون الذين وصفوا مركزه بأنها منظمة هامشية مهتمة بشكل مفرط بالمخاطر الوجودية من الذكاء الاصطناعي. 

كما أعرب المعارضون عن مخاوفهم من ممارسة هذا المركز ضغوطاً من أجل التأثير على "مجلس نماذج الحدود" الذي سينشئه مشروع القانون، والذي يضم تسعة مديرين من الصناعة والأوساط الأكاديمية ومكلفين بتحديث اللوائح حول نماذج الذكاء الاصطناعي وضمان الامتثال.

رفض وينر هذه الحجج باعتبارها "نظرية مؤامرة". وقال: "حاولت المعارضة تصوير أي شخص يدعم مشروع القانون على أنه متشائم. قالوا إن هذه مخاطر خيال علمي؛ وأننا نركز على فيلم Terminator. نحن لسنا كذلك، نحن نركز على مخاطر حقيقية للغاية مثل إغلاق الشبكة الكهربائية، أو النظام المصرفي، أو إنشاء سلاح كيميائي أو بيولوجي".

كيف حاول مؤلفو مشروع القانون معالجة المخاوف؟

قال وينر إنه وفريقه أمضوا الأشهر الثمانية عشر الماضية في التواصل مع أي شخص يرغب في الاجتماع معهم لمناقشة مشروع القانون، بما في ذلك فاي فاي لي، والشركاء في Andreessen وY Combinator.

كان أحد مخاوفهم هو أن مطالبة النماذج مفتوحة المصدر بمفتاح إيقاف التشغيل من شأنه أن يمنع المطورين الآخرين من تعديلها أو البناء عليها خوفاً من إيقاف تشغيلها في أي لحظة. قد يكون هذا قاتلاً للشركات الناشئة والأوساط الأكاديمية، التي تعتمد على نماذج مفتوحة المصدر أرخص أو مجانية الوصول.


اقرأ أيضاً: كيف استغل مارك زوكربيرغ مستخدمي ميتا للهيمنة على سباق الذكاء الاصطناعي؟


تم تعديل مشروع قانون وينر لاستبعاد النماذج مفتوحة المصدر التي تم ضبطها بدقة تتجاوز مستوى معيناً من قبل أطراف ثالثة. فلن يُطلب منها توفير مفتاح إيقاف التشغيل.

كما تم تعديل بعض القيود الأصلية لمشروع القانون، بما في ذلك تضييق نطاق العقوبات المدنية، والحد من عدد النماذج التي تغطيها القواعد الجديدة.

هل يصبح مشروع القانون تشريعاً رسمياً؟

مر مشروع القانون بسهولة في الهيئة التشريعية للولاية. الآن يتعين على نيوسوم أن يقرر ما إذا كان سيوقع على مشروع القانون، أو يسمح له بأن يصبح قانوناً بدون توقيعه أو يعترض عليه. إذا اعترض، يمكن للهيئة التشريعية في كاليفورنيا تجاوز ذلك بتصويت أغلبية الثلثين. ولكن وفقاً لمتحدث باسم وينر، لا توجد فرصة تقريباً لحدوث ذلك. كانت آخر مرة تم فيها إبطال حق النقض لحاكم كاليفورنيا في عام 1980.

يواجه الحاكم موقفاً صعباً، نظراً لأهمية صناعة التكنولوجيا بالنسبة لولايته. لكن السماح للذكاء الاصطناعي بالنمو دون رادع قد يكون أكثر إشكالية.

قال وينر: "أود أن يصبح هذا تشريعاً فدرالياً: إذا تحرك الكونغرس في هذا المجال وأقر مشروع قانون قوي لسلامة الذكاء الاصطناعي، فسأكون سعيداً بحزم أمتعتي والعودة إلى المنزل". 

وأضاف: "لكن الحقيقة المحزنة هي أنه في حين حقق الكونغرس نجاحاً كبيراً في الرعاية الصحية والبنية الأساسية والمناخ، إلا أنه واجه صعوبة كبيرة في تنظيم التكنولوجيا... حتى يتحرك الكونغرس، فإن كاليفورنيا ملزمة بالقيادة لأننا قلب صناعة التكنولوجيا".

تابعونا على منصات التواصل الاجتماعي

الأكثر تداولاً

    أخبار ذات صلة

    الأكثر قراءة

    الأكثر تداولاً

      الأكثر قراءة