مشهد حوكمة الذكاء الإصطناعي بعيد الأمد: لمحة عامة
الهدف: إعطاء لمحة عامة أساسية عما يجري في حوكمة الذكاء الاصطناعي بعيد الأمد.
الجمهور: الأشخاص الذين لديهم معرفة محدودة عن حوكمة الذكاء الاصطناعي بعيد الأمد ويريدون فهمها بصورةٍ أفضل. لا أتوقع أن يكون المنشور مفيدًا لمن له معرفة بالمجال. تعديل: وجد بعض الأشخاص الذين كانوا بالفعل على دراية تامة بهذا المجال فائدةً في هذا المنشور.
يحدد هذا المنشور مختلف أنواع الأعمال الحادثة في حوكمة الذكاء الاصطناعي بعيد الأمد. سأشرح كل نوع منها، وأعطي عليه الأمثلة، وأسرد بعض القصص لكيفية إحداثه تأثيرًا إيجابيًّا، وأُدرِج الجهات التي تعمل عليه حاليًا على حد علميa.
أولًا، بعض التعاريف:
-
تعني حوكمة الذكاء الاصطناعي التوصل محليًّا وعالميًّا إلى تحقيق المعايير والسياسات والقوانين والإجراءات وإنشاء المؤسسات (ليس على المستوى الحكومي فحسب) التي ستؤثر على المخرجات الاجتماعية من تطوير ونشر أنظمة الذكاء الاصطناعيb.
-
حوكمة الذكاء الاصطناعي بعيد الأمد هي - بالتحديد - مجموعة فرعية من مثل هذه الأعمال مدفوعة بالقلق من تأثيرات الذكاء الاصطناعي بعيد الأمد. يتداخل هذا العمل بشكل كبير مع العمل الذي يهدف إلى تنظيم الذكاء الاصطناعي التحويلي (TAI).
من الجدير بالذكر أن مجال حوكمة الذكاء الاصطناعي بعيد الأمد صغير جدًّا. أعتقد أن هناك حوالي 60 شخصًا يعملون في حوكمة الذكاء الاصطناعي مدفوعين بالقلق من تأثيرات الأمد البعيد.
موجز
بنظرةٍ شمولية، أجد من المفيد افتراض وجود طيف بين العمل التأسيسي والتطبيقي. من الناحية التأسيسية، هناك أبحاث استراتيجية تهدف إلى تحديد أهداف جيدة رفيعة المستوى لحوكمة الذكاء الاصطناعي بعيد الأمد؛ ثم هناك أبحاث تكتيكية تهدف إلى تحديد الخطط التي ستساعد في تحقيق تلك الأهداف رفيعة المستوى. أما من الناحية التطبيقية، فهناك أعمال رسم السياسات وهي ما تترجم هذه الأبحاث إلى سياسات واقعية، والأعمال التي تدعو إلى تنفيذ تلك السياسات، وأخيراً التنفيذ الفعلي لتلك السياسات (من قِبَل موظفي الخدمة المدنية مثلاً).
هناك أيضًا أعمال تأسيس المجال (ليس لها مكان واضح على الطيف)، وهي أعمال لا تنصب مباشرةً على حل المشكلة، بل تهدف إلى بناء مجال من الأشخاص الذين يقومون بعمل قيِّم لحلها.
بالطبع، هذا التصنيف هو تبسيط ولن تتلاءَم جميع الأعمال بدقة مع فئة واحدة.
قد تعتقد أن الأفكار تتدفق في الغالب من الطرف الأكثر تأسيسيَّة إلى الطرف الأكثر تطبيقيَّة من الطيف، ولكن من المهم أيضًا أن يكون البحث حساسًا لمخاوف السياسة، على سبيل المثال مراعاة فرص قيام بحثك بطرح اقتراحات ممكنة التنفيذ سياسيًّا.
سنقوم الآن بمراجعة كل نوع من هذه الأعمال بمزيد من التفصيل.
الأبحاث
الأبحاث الاستراتيجية
تهدف الأبحاث الاستراتيجية في الذكاء الاصطناعي بعيد الأمد في النهاية إلى تحديد الأهداف عالية المستوى التي يمكننا السعي وراءها، والتي ستزيد بوضوح عند تحقيقها فرصة تحقيق نتائج نهائية جيدة من الذكاء الاصطناعي المتقدم، من منظور بعيد الأمد (سأشير أحيانًا إلى هذا الهدف على أنه «الحصول على وضوح استراتيجي» كما فعل مولهاوزر (Muehlhauser)).
يمكن أن تتنوع هذه الأبحاث نفسها على طيف بين الأبحاث الموجهة والأبحاث الاستكشافية على النحو التالي:
- تجيب الأبحاث الإستراتيجية الموجهة على أسئلة تسلط الضوء على أسئلة أخرى محددة ومهمة ومعروفة
- على سبيل المثال «أريد معرفة مقدار الحوسبة التي يستخدمها الدماغ البشري، لأن هذا سيساعدني في الإجابة على سؤال متى سيتم تطوير الذكاء الاصطناعي التحويلي (مما يؤثر على الأهداف عالية المستوى التي يجب أن نسعى إليها)»
- تجيب الأبحاث الإستراتيجية الاستكشافية على الأسئلة دون معرفةٍ دقيقة بالأسئلة المهمة الأخرى التي ستساعدنا في الإجابة عليها
- على سبيل المثال «أريد أن أعرف كيف تبدو السياسة الصناعية للصين، لأن هذا قد يساعدني في الإجابة على مجموعة من الأسئلة الاستراتيجية المهمة، على الرغم من أنني لا أعرفها على وجه التحديد»
أمثلة
- العمل على التنبؤ باستخدام الذكاء الاصطناعي التحويلي، مثل الدعائم البيولوجية وقوانين التوسع لنماذج اللغة العصبية.
- مثال على الأهمية الاستراتيجية: إذا كان الذكاء الاصطناعي التحويلي وشيك التحقق، فإن النمو البطيء لمجال كبير من الخبراء يبدو أقل جدوى؛ أما إذا كان بعيد التحقق، فعلى الأرجح علينا وضع حوكمة الذكاء الاصطناعي بعيد الأمد في درجة أقل من حيث الأولوية.
- العمل على توضيح مصادر مخاطر الذكاء الاصطناعي الوجودية، مثل كتابات كريستيانو (Christiano) وكريتش (Critch) وكارلسميث (Carlsmith) ونغو (Ngo) وغارفينكل (Garfinkel).
- مثال على الأهمية الاستراتيجية: إذا كانت معظم المخاطر الوجودية من الذكاء الاصطناعي تأتي من وكلاء الذكاء الاصطناعي غير المتوافقين المتقدمين، فيجب أن تركز الحوكمة على التأثير على الجهات التي تبنيها أولًا.
- العمل على التحقيق في سرعة تقدم الذكاء الاصطناعي حول الذكاء الاصطناعي التحويلي، على سبيل المثال التحقيق والتحليل بواسطة AI Impacts.
- مثال على الأهمية الاستراتيجية: إذا حدث تقدم في مجال الذكاء الاصطناعي بشكل متقطع، فمن المحتمل أن يكون هناك عدد قليل فقط من الجهات عالية المخاطر، وستأتي معظم قيمة الحوكمة من التأثير على تلك الجهات.
من السهل الخلط بين البحث الاستراتيجي (وخاصة البحث الاستراتيجي الاستكشافي) والبحث واسع النطاق. كما تُظهِر العديد من الأمثلة المذكورة أعلاه، يمكن تضييق نطاق الأبحاث الإستراتيجية - لتتمكن من الإجابة على سؤال دقيق إلى حد ما. إليك بعض الأمثلة على الأسئلة واسعة النطاق في مقابل الأسئلة ضيقة النطاق:
- فيما يتعلق بقوانين التوسع:
- سؤال واسع النطاق: عمومًا، كيف يتغير أداء نماذج التعلم العميق مع زيادة حجم هذه النماذج؟
- سؤال أضيق نطاقًا: كيف يتغير أداء النماذج اللغوية الكبيرة على وجه التحديد (مثل GPT-3) مع زيادة حجم هذه النماذج؟ (السؤال الذي تناولته هذه الورقة).
- فيما يتعلق بمصادر المخاطر الوجودية للذكاء الاصطناعي:
- سؤال واسع النطاق: ما مقدار المخاطر الوجودية التي يشكلها الذكاء الاصطناعي المتقدم عمومًا؟
- سؤال أضيق نطاقًا: ما مقدار المخاطر التي يشكلها وكلاء الذكاء الاصطناعي الباحثون عن النفوذ على وجه التحديد؟ (السؤال الذي تناوله هذا التقرير).
في الحقيقة، أعتقد أن اختيار الأسئلة ضيقة النطاق أفضل غالبًا، خاصة للباحثين المبتدئين، لأنها تميل إلى أن تكون أكثر قابلية للحل.
لدى لوك مولهاوزر بعض التوصيات لأولئك الذين يرغبون في تجربة هذا النوع من الأعمال: أنظر النقطة 4 في هذا المنشور. وانظر هذا المنشور للحصول على بعض الأمثلة على أسئلة البحث المفتوحةc.
قصص عن الأثر
- الأثر المباشر: هناك العديد من الأهداف المحتملة في حوكمة الذكاء الاصطناعي، ونحن بحاجة إلى إعطاء الأولوية لأهمها. غالبًا ما يكون الدافع وراء هذا العمل هو انطباعات الباحثين بأن الوضوح قليل جدًا حول الموضوعات التي تؤثر على الأهداف التي يجب أن نسعى إليها. على سبيل المثال، انظر نتائج هذه الاستطلاعات التي تظهر خلافًا واسعًا حول سيناريوهات المخاطر الوجودية للذكاء الاصطناعي والمقدار الكلي لتلك المخاطر، على التوالي.
- الأثر غير المباشر:
- بناء المجال: الحصول على فهم واضح لما نعمل على تحقيقه وسبب أهميته سيساعد في جذب المزيد من الأشخاص إلى المجال.
- توضيح الحاجة إلى تغيير السياسة: إذا كنت تريد إقناع الناس بالقيام بأشياء مكلفة أو جذرية في المستقبل، فمن الأفضل أن تملك نقاطًا واضحة لتخبرهم عما تعمل على تحقيقه وسبب أهميته.
القائمون على هذه الأبحاث
بعض أعضاء المنظمات التالية: FHI, GovAI, CSER, DeepMind, OpenAI, GCRI, CLR, Rethink Priorities, OpenPhil, CSET,d بالإضافة إلى بعض الأكاديميين المستقلين.
الأبحاث التكتيكية
تهدف الأبحاث التكتيكية في الذكاء الاصطناعي بعيد الأمد في النهاية إلى تحديد الخطط التي ستساعد في تحقيق الأهداف عالية المستوى (التي حددتها الأبحاث الاستراتيجية كأولوية). وتميل هذه الأبحاث بطبيعتها إلى أن تكون أضيق نطاقًا.
من الجدير بالذكر أنه قد توجد لديك أسباب لإجراء أبحاث تكتيكية حتى لو لم تكن قد حددت بوضوح بعض الأهداف كأولوية: لكي تتعلم، وتزيد من رأس مالك الوظيفي، وتساعد في بناء المجال الأكاديمي.
أمثلة
- بند الأرباح الهائلة (The Windfall Clause)
- الخطة: تطوير أداة لتوزيع فوائد الذكاء الاصطناعي من أجل الصالح العام
- الأهداف رفيعة المستوى التي تسعى هذه الخطة إلى تحقيقها: إضعاف الحافز لدى الجهات العاملة في هذا المجال للتنافس في تحقيق السبق في تطوير الذكاء الاصطناعي المتقدم، والحد من التفاوت الاقتصادي.
- آليات لدعم المطالبات التي يمكن التحقق منها (Mechanisms or Supporting Verifiable Claims)
- الخطة: تطوير ممارسات تمكن مطوري الذكاء الاصطناعي من جعل ادعاءاتهم حول تطوير الذكاء الاصطناعي أكثر قابلية للتحقيق (أي المطالبات التي يمكن مساءلة المطورين بشأنها)
- الأهداف رفيعة المستوى التي تسعى هذه الخطة إلى تحقيقها: وضع آليات لإثبات السلوك المسؤول لنُظُم الذكاء الاصطناعي، وتحقيق رقابة أكثر فعالية، وتخفيف الضغط الذي يؤدي لاتباع طرق ملتوية بهدف الحصول على ميزة تنافسية.
- الذكاء الاصطناعي ومكافحة الاحتكار
- الخطة: اقتراح سبل لتخفيف حدة التوترات بين قانون المنافسة والحاجة إلى تطوير تعاوني للذكاء الاصطناعي.
- الهدف رفيع المستوى الذي تسعى إليه هذه الخطة: زيادة التعاون بين الشركات التي تطور الذكاء الاصطناعي المتقدم.
قصص عن الأثر
- الأثر المباشر: إيجاد حلول تُستخدم للمساعدة في اتخاذ قرارات أفضل (في مجال السياسات والبحوث المستقبلية).
- وهو ما يطلق عليه آلان دافو (Allan Dafoe) «نموذج أبحاث المنتج».
- الأثر غير المباشر: حتى لو لم تُستَخدم جميع الحلول للمساعدة في اتخاذ قرارات أفضل، فإنها ستساعد في توسيع مجال الأشخاص الذين يهتمون بقضايا حوكمة الذكاء الاصطناعي بعيد الأمد، وتحسين المعرفة والخبرة والعلاقات والمصداقية عند الباحثين.
- هذا ما يسميه آلان دافو «نموذج أبحاث بناء المجال».
القائمون على هذه الأبحاث
بعض أعضاء المنظمات التالية: FHI, GovAI, CSER, DeepMind, OpenAI, GCRI, CSET, Rethink Priorities, Institute for Law & AI, بالإضافة إلى بعض الأكاديميين المستقلين.
رسم السياسات ومناصرتها، وتنفيذها
تنتج الأبحاث الاستراتيجية أهدافًا رفيعة المستوى. وتأخذ الأبحاث التكتيكية هذه الأهداف وترسم الخطط لتحقيقها. أما أعمال رسم السياسات، فهي تأخذ تلك الخطط وتترجمها إلى توصيات سياسية جاهزة للتسليم إلى واضعي السياسات. وهذا يتطلب معرفة ما هو المطلب الذي يجب تقديمه تحديدًا (على سبيل المثال)، وما هي اللغة التي يجب استخدامها (سواء في السياسة الرسمية أو في المطلب)، وغيرها من السمات السياقيَّة التي تؤثر على فرص التنفيذ الناجح لهذه السياسات.
تدعو أعمال مناصرة السياسات إلى تنفيذ هذه السياسات، على سبيل المثال تحديد أفضل من يمكنه تقديم المطلب السياسي، وإلى من يقدمه، ومتى.
تنفيذ السياسات هو العمل على التنفيذ الفعلي للسياسات على أرض الواقع، من قِبَل موظفي الخدمة المدنية أو الشركات.
يجدر بنا التمييز بين سياسات الحكومة (أي السياسات التي تهدف الحكومات أو المنظمات الحكومية الدولية إلى سنها) وسياسات الشركات (أي السياسات التي تعتزم الشركات اعتمادها). يركز بعض الأشخاص الذين يعملون على حوكمة الذكاء الاصطناعي بعيد الأمد على تحسين سياسات الشركات (لا سيما سياسات مطوري الذكاء الاصطناعي)، بينما يركز آخرون في المجال على تحسين سياسات الحكومات ذات الصلة.
يتمثل أحد الدوافع المشتركة لجميع أعمال السياسة في أن تفاصيل التنفيذ غالبًا ما يُعتقد أنها حاسمة لنجاح صنع السياسات. على سبيل المثال، إذا كانت اللوائح الحكومية بها ثغرة خفية، فقد يجعل ذلك التشريع عديم الفائدة.
مقارنةً بالأبحاث، يتضمن هذا النوع من العمل درجةً أقل نسبيًا من التفكير الفردي، والمزيد نسبيًّا من المحادثات/جمع المعلومات (على سبيل المثال، عقد اجتماعات لمعرفة من لديه السلطة على السياسة، وما الذي يهمه، وما يريده العاملون الآخرون في السياسة) بالإضافة إلى التنسيق (على سبيل المثال معرفة كيفية إقناع مجموعة من الجهات بتأييد سياسة ما، ثم تحقيق ذلك).
كما ذكرنا سابقًا، تتدفق الرؤية السياسية «رجعيًّا» أحيانًا. فعلى سبيل المثال، يمكن إعادة رسم السياسات بغرض تحسينها بناءً على معرفتك المكتسبة من المناصرة السياسية (ومشهد السياسات).
أمثلة
- السياسات الحكومية:
- الالتزام بعدم دمج تكنولوجيا الذكاء الاصطناعي في القيادة والتحكم والاتصالات النووية (NC3)، على سبيل المثال كما دعت شركة CLTR في تقريرها Future Proof.
- المراقبة الحكومية لتطوير الذكاء الاصطناعي، على سبيل المثال كما تطرح هذه الورقة البيضاء بشأن مراقبة الذكاء الاصطناعي.
- جعل تشريعات أو استراتيجيات/مبادئ الذكاء الاصطناعي الناشئة حساسة للمخاطر الناجمة عن أنظمة الذكاء الاصطناعي المتقدمة (وكذلك الأنظمة الحالية)، على سبيل المثال التعليقات من مختلف منظمات الإحسان الفعال حول قانون الذكاء الاصطناعي للاتحاد الأوروبي.
- سياسات الشركات:
- وضع معايير للنشر المسؤول للبحوث المتعلقة بالذكاء الاصطناعي، نظراً لفرص إساءة استخدامها، مثل هذه التوصيات الصادرة عن معهد البحوث الزراعية (PAI).
وتتفاوت هذه الأفكار على طيف يتراوح بين الأكثر تخصُّصًا (مثل عدم دمج الذكاء الاصطناعي في القيادة والتحكم والاتصالات النووية) والأكثر عمومية (بمعنى إنشاء قدرة عامة الغرض للتعامل مع فئة واسعة من المشاكل التي يُحتَمل نشوؤها، مثل معظم المشاكل الأخرى أعلاه). أعتقد أن تطوير سياستنا ومناصرتها وتنفيذها اليوم يجب أن يركز في الغالب على أفكار أكثر عمومية، نظرًا لعدم اليقين لدينا حول الكيفية التي سيتجلى بها الذكاء الاصطناعي (مع الضغط أيضًا من أجل أفكار جيدة محددة بوضوح، عند ظهورها).
قصص عن الأثر
-
الأثر المباشر: وجود سياسات جيدة يزيد من فرصنا في الانتقال بنجاح إلى عالم به ذكاء اصطناعي متقدم.
-
الأثر غير المباشر: حتى لو لم تكن واثقًا من جدوى بعض أفكار السياسة، فإن تطويرها/مناصرتها/تنفيذها سيساعد في بناء رؤية وخبرة وعلاقات ومصداقية لأفراد حوكمة الذكاء الاصطناعي بعيد الأمد. لا نريد الوصول إلى «وقت أزمة» الذكاء الاصطناعيe، لنبدأ حينها فقط في تعلم كيفية تطوير السياسة وصنع القرار.
- ومع ذلك، يجب أن نكون حذرين للغاية في تنفيذ السياسات التي من شأنها أن تكون ضارة، على سبيل المثال من خلال تقييد تطوير السياسات في المستقبل.
القائمون على هذه الأعمال
- التطوير:
- المناصرة:
- التنفيذ:
بناء المجال
هذا عمل يهدف صراحة إلى تنمية مجال أو مجتمع الأشخاص الذين يقومون بعمل قيم في حوكمة الذكاء الاصطناعي بعيد الأمدf. يمكن النظر إلى هذا هذا العمل على أنه يتضمن (1) ضم أشخاص جدد، و(2) جعل المجال أكثر فعالية.
أمثلة
- ضم أشخاص جدد من خلال إنشاء:
- الزمالات في مجال السياسات مثل زمالة أوبن فيلانتروفي Open) Philanthropy) في مجال السياسات التكنولوجية؛
- برامج أو دورات عبر الإنترنت لمساعدة المبتدئين على مواكبة ما يحدث في حوكمة الذكاء الاصطناعي؛
- مواد علمية عالية الجودة وجذابة على نطاق واسع تصل إلى العديد من الطلاب الجامعيين لتعطيهم مقدمة عن المجال؛
- زمالات بحثية أكثر قابلية للتطوير بهدف التواصل مع المبتدئين المهتمين ودعمهم واعتمادهم.
- جعل المجال أكثر فعالية من خلال إنشاء:
- خطط بحوث؛
- طرق لكبار الباحثين لتوظيف مساعدين بحثيين بسهولةg.
قصص عن الأثر
- نموذج النمو: بناء مجال حوكمة بعيد الأمد للذكاء الاصطناعي مع الكثير من الأشخاص الذين يحملون نفس الفكر مع القدرة والخبرة ذات الصلة للقيام بأعمال بحثية وسياسية مهمة (ربما بصورة خاصة عندما يكون هذا العمل أقل تعسُّرًا بسبب عدم الوضوح الاستراتيجي).
- نموذج المدينة الكبيرة (ميتروبوليس)[^8]: بناء مجال حوكمة من منظور بُعد الأمديَّة للذكاء الاصطناعي مع صلات كثيفة بالمجتمعات الأوسع (مثل صنع السياسات، والعلوم الاجتماعية، والتعلم الآلي)، بحيث يمكن للمجال الاعتماد على خبرات متنوعة من هذه المجتمعات.
القائمون على هذه الأعمال
GovAI, OpenPhil, SERI, CERI, CHERI, EA Cambridge. من وجهة نظر أوسع، جميع أعضاء حركة الإحسان الفعال أيضًا. هذا هو النوع الأقل استكشافًا من الأعمال التي نوقشت في هذا المنشور.
وجهات نظر أخرى لمشهد حوكمة الذكاء الاصطناعي بعيد الأمد
لقد قدمت وجهة نظر واحدة محتملة لمشهد حوكمة الذكاء الاصطناعي بعيد الأمد - وبالطبع هناك طرقٌ أخرى للنظر إليه، والتي قد تكون أكثر فائدة لأغراض أخرى. على سبيل المثال، يمكنك تقسيم المشهد بناءً على أنواع مختلفة من التدخلات، مثل:
- تحويل المناقشات الحالية في مجال السياسات لجعلها أكثر حساسية لمخاطر الذكاء الاصطناعي الوجودية (مثل زيادة الوعي بصعوبة ضمان أمان أنظمة الذكاء الاصطناعي المتطورة)
- اقتراح أدوات سياساتية جديدة (مثل المعايير الدولية للذكاء الاصطناعي)
- حث الحكومات على تمويل أبحاث سلامة الذكاء الاصطناعي
- تغيير سلوك الشركات (مثل بند الأرباح الهائلة)
- وتدخلات أخرى
أو يمكنك تقسيم الأشياء حسب المركز الجغرافي (على الرغم من أن بعض المنظمات غير تابعة لمركز جغرافي):
- منطقة خليج سان فرانسيسكو: OpenPhil, OpenAI, PAI وعدد من منظمات التحكم في الذكاء الاصطناعي. ومعظمها يركز بصورة أكبر على سوء التحكم في الذكاء الاصطناعي باعتباره مصدر المخاطر الوجودية للذكاء الاصطناعي؛ وهي أقرب ثقافيا إلى وادي السيليكون والثقافات العقلانية.
- واشنطن العاصمة: حكومة الولايات المتحدة الأمريكية، CSET، تركزان على رسم السياسات ومناصرتها وتنفيذها في الولايات المتحدة؛ وهما أقرب ثقافيا إلى ثقافة واشنطن العاصمة.
- المملكة المتحدة: FHI/GovAi, DeepMind, حكومة المملكة المتحدة، CSER, CLTR, (وآخرون؟). وتهتم في الغالب بصورة أكبر على مجال أوسع من مصادر المخاطر الوجودية للذكاء الإصطناعي.
- الاتحاد الأوروبي: في 2020، صاغت المفوضية الأوروبية أول قانون للذكاء الاصطناعي في العالم، والذي يرجح تمريره في السنوات القليلة المقبلة ويمكن أن يؤدي إلى تأثير بروكسل.
- الصين.
- ومراكز أخرى.
أو يمكنك تقسيم المشهد بناءً على «نظريات النصر» المختلفة، أي قصص كاملة حول كيفية نجاح البشرية في الانتقال إلى عالم به ذكاء اصطناعي متقدم. يمكن الحديث أكثر عن كل هذا؛ وكان الهدف من هذا المنشور هو تقديم لمحة عامة موجزة عن أنواع الأعمال الجاري حاليًا.
هذا العمل مرخص بموجب رخصة المشاع الإبداعي 4.0 الدولية.