مشروع حالة العلم : “منطقة مجهولة: حوكمة الذكاء الاصطناعي من منظور عالمي”

إعداد: إبراهيم طنطاوي – باحث مشارك بالمشروع.
إشراف ومراجعة: د. لبنى غريب عبد العليم مكروم – مدرس العلوم السياسية بجامعة السويس ومدير المشروع.
الملخص
“بينما يشترك الذكاء الاصطناعي التوليدي في بعض أوجه التشابه مع الاختراقات التكنولوجية السابقة، فإنه يثير أيضًا تحديات فريدة لاحتواء الأضرار الاجتماعية والاقتصادية. تختلف نهج الدول في حوكمة الذكاء الاصطناعي؛ بعضها يضع أساسًا للحكم عبر الوطني بينما لا يفعل البعض الآخر. ندرس بعض الأبعاد التقنية لأمان الذكاء الاصطناعي في كل من الأنظمة المفتوحة والمغلقة، وكذلك الأفكار التي تتبلور حاليًا لحماية تطورها المستقبلي. من خلال فحص المبادرات للمجتمع العالمي ولتحالف المجتمعات المفتوحة، نجادل بضرورة بناء استراتيجية تفاعلية ذات مسارين لاحتواء العواقب غير المقصودة المحتملة للذكاء الاصطناعي. نستنتج أن أمان الذكاء الاصطناعي هو حوكمة الذكاء الاصطناعي، مما يعني أن الجهود التعددية لسد الفجوات بين النظرية والتطبيق وبين العلوم والتكنولوجيا والعلوم الإنسانية هي أمر حاسم لاستدامة الديمقراطية.”
الكلمات المفتاحية: الذكاء الاصطناعي، المجتمعات المفتوحة، الاستدامة، الحكم، التعددية، الديمقراطية، لا مساواة
Abstract
While generative AI shares some similarities with previous technological breakthroughs, it also raises unique challenges for containing social and economic harms. State approaches to AI governance vary; some lay a foundation for transnational governance whereas others do not. We consider some technical dimensions of AI safety in both open and closed systems, as well as the ideas that are presently percolating to safeguard their future development. Examining initiatives for the global community and for the coalition of open societies, we argue for building a dual-track interactive strategy for containing AI’s potentially nightmarish unintended consequences. We conclude that AI safety is AI governance, which means that pluralist efforts to bridge gaps between theory and practice and the STEM–humanities divide are critical for democratic sustainability.
Keywords: artificial intelligence, AI, open societies, sustainability, governance, plurality, democracy, inequality.
المقدمة
في عدد يونيو 1955 من مجلة “Fortune”، نشر العبقري متعدد الثقافات جون فون نيومان-وهو جسر فكري بين الحقبين الذري والرقمي- تأملا رائعا حول التهديدات الوجودية التي تواجه البشرية. يبدأ مقال فون نيومان، بسؤال “هل يمكننا البقاء على قيد الحياة من التكنولوجيا؟”، بتحذير رهيب: “بالمعنى الحرفي والمجازي، تنفد الغرفة. (von Neumann 1963, p.505) كان فون نيومان يتحدث بالطبع عن العصر النووي، ولكن يمكن قول الشيء نفسه عن التطورات السريعة في الذكاء الاصطناعي اليوم (Ord 2022). في كلتا الحالتين، تجاوزت سرعة الابتكار البشري القدرة البشرية على الإشراف عليه، مما يهدد القيم الإنسانية.
على الرغم من هذا التشابه اللافت للنظر، فإن الثورات النووية وثورة الذكاء الاصطناعي مختلفة في النوع، خاصة من منظور معرفي. ولا يفهم منشئو الذكاء الاصطناعي كيف يصل إلى مخرجاته وتكراراته اللاحقة، مما يشير إلى أنهم لا يستطيعون التنبؤ بشكل كامل بسلوكه المستقبلي (Ganguli et al. 2022, Wei et al. 2022, Schaeffer et al. 2023)؛ نظرا لأن نماذج الذكاء الاصطناعي أصبحت أكثر قدرة وانتشارا على نطاق أوسع، فإن فهمنا لكيفية عملها بشكل دائم لا يزال محدودا. على سبيل المثال، قد يكون من الصعب اكتشاف ما إذا كانوا يستخدمون استدلالات متحيزة أو ينخرطون في الخداع من مخرجاتهم (Park et al. 2023). أدت الصفات الناشئة والأغراض العامة لنماذج اللغات الكبيرة (LLMs) إلى زيادة عدم اليقين المحيط بآثارها المستقبلية.
والأخبار السارة هي أنه في خلال صيف عام 2023، استيقظ العالم بأسره أخيرا لخطورة هذا الأمر، وقد تم تصميم عدد كبير من المبادرات لتوفير حواجز واقية وخنادق للابتكار التكنولوجي أثناء تسارعه؛ ففي أبريل 2023، نشرت الصين “تدابير لإدارة خدمات الذكاء الاصطناعي التوليدي”، والتي دخلت حيز التنفيذ في أغسطس 2023. (Sheehan 2023) وفي مايو 2023، أطلقت مجموعة السبع عملية “هيروشيما الذكاء الاصطناعي”. وفي الشهر التالي، أقر البرلمان الأوروبي مسودة الذكاء الاصطناعي للاتحاد الأوروبي Act.In ، وفي يوليو 2023، دعا الأمين العام للأمم المتحدة “أنطونيو غوتيريش” إلى إنشاء هيئة رقابة تنظيمية عالمية على الذكاء الاصطناعي. ولدى الكونجرس الأمريكي مجموعة واسعة من مشاريع القوانين قيد التنفيذ، وفي أغسطس 2023 أطلقت إدارة “بايدن”، تحت قيادة (وكالة مشاريع البحوث الدفاعية المتقدمة) وبالتعاون مع Microsoft, Google, OpenAI, Anthropic)) تحدي الذكاء الاصطناعي السيبراني. (White House 2023a) ويبدو من الواضح أن هذا موضوع سريع التطور.
وتعد مراجعة الأدبيات الموجودة حاليا تشبه إلى حد ما محاولة الشرب من خرطوم إطفاء الحريق. هدفنا هو وصف الوضع كما هو في منتصف ديسمبر 2023، واقتراح بعض المجالات الجديدة للبحث المستقبلي، وإطار هذا الجهد بطريقة تمنح تماسكًا أكبر لجسم العمل المتزايد قيد التقدم، مع تقديم بعض الرؤى حول كيفية وضع التطورات الجديدة المستقبلية أثناء حدوثها. على مدار النص، نستخدم تعريف دافو (2022، P. 1) لحوكمة الذكاء الاصطناعي باعتبارها “المعايير والمؤسسات التي تشكل كيفية بناء الذكاء الاصطناعي ونشره، بالإضافة إلى جهود السياسة والبحث لجعل ذلك يسير بشكل جيد.”
وبشكل عام، يشمل تاريخ الفضاء السيبراني أو محيط الذكاء الاصطناعي حتى الآن ثلاث مراحل متميزة. يشير Web2 إلى الإنترنت الاجتماعي، الذي بُني على الإنترنت الأصلي القائم على القراءة/الكتابة فقط (Web1). بينما يشير Web3 إلى إنترنت الذكاء الاصطناعي اللامركزي، والميتافيرس، والتقنيات المستوحاة من blockchain، من العملات المشفرة إلى المنظمات المستقلة اللامركزية مثل BlueSky وMastodon. تبدأ المقالة بالقول إن تحدي إدارة الذكاء الاصطناعي يُوصف بشكل أكثر دقة بأنه تحدي إدارة الذكاء الغريب، وهو محرك قوي للتغيير الثوري. تعتبر نماذج اللغة الكبيرة، مثل ChatGPT، انتصارات للظهور، حيث تولد نتائج لا يمكن تفسيرها بدقة نيوتونية (Kauffman 2008). بينما تشترك الذكاءات الاصطناعية التوليدية في بعض أوجه التشابه مع الاختراقات التكنولوجية السابقة، فإنها تثير أيضًا تحديات جديدة في احتواء عواقبها الاجتماعية والاقتصادية السلبية، ومن ثم نبرز نهج الدول في إدارة الذكاء الاصطناعي ضمن أنظمتها السياسية ونحقق في كيفية بناء هذه الدول أو عدم بناء أساس معقول للحكم عبر الوطنية.
ثم ندرس الأبعاد التقنية لأمان الذكاء الاصطناعي في كل من الأنظمة المفتوحة والمغلقة والأفكار التي تتبلور حاليًا لحماية الأمن القومي. بعد ذلك، نفحص المبادرات للمجتمع العالمي والمجتمعات المفتوحة، مجادلين بضرورة التمييز بين الاثنين وبناء استراتيجية ذات مسارين من أجل استغلال إمكانات الذكاء الاصطناعي للخير. ويولي القسم الختامي اهتمامًا خاصًا بالمبادئ الخاصة بالحكم الفعال للذكاء الاصطناعي وفرص التعاون عبر المناطق، والتي توفر تأمينًا إضافيًا ضد العواقب السلبية للتسارع في وتيرة التغيير الذي تواجهه البشرية الآن.
كيف يختلف حوكمة الذكاء الاصطناعي عن التحديات السابقة في الحوكمة
إن العالم الحديث عالم مليء بالآلات المعقدة التي يعتمد المستخدمون على الخبراء لفهمها؛ فعلى سبيل المثال، إذا تعطلت سيارتي، لا أعرف كيف أصلحها، ولكن من المحتمل أن يتمكن الميكانيكي من ذلك. وعلى الناحية الأخرى الذكاء الاصطناعي التوليدي شيء مختلف تمامًا؛ فلا يفهم أي إنسان بشكل دقيق كيف يصل إلى استجاباته، على الأقل ليس بالمعنى التقليدي لسلسلة السبب والنتيجة، بل إنه في بعض الأحيان خرج عن المسار، كما حدث عندما حاول إقناع مراسل نيويورك تايمز “كيفن روس” بأن يطلق زوجته ويكرس نفسه لصديقه الجديد المصنوع من السيليكون، وفي سياق حل المشكلة يمكن تطبيق حل مؤقت مثل التعلم المعزز من خلال التغذية الراجعة البشرية (RLHF) على النموذج لمنع سلوك مشابه في المستقبل. يعتمد RLHF على العمل الخفي البشري، وهو العمل غير المرئي وراء الكواليس الذي يجعل تهيئة البيانات الخام ممكنة للذكاء الاصطناعي التوليدي (Gray & Suri 2019). ومع ذلك، فإن هذا التعديل لا يحدث فورًا؛ حيث إن النموذج يحتاج إلى إعادة التدريب ليعمل بشكل مختلف في المستقبل، وهذا يستغرق وقتًا.
بالإضافة إلى ذلك، هناك حدود لفوائد الأمان لـ RLHF، ومع ظهور نماذج الأساس مفتوحة المصدر التي يمكن تشغيلها على جهاز كمبيوتر محمول، قد يحاول بعض المستخدمين في المستقبل اختطاف النماذج الظاهرة كأنها حميدة وتحويلها لأغراض خبيثةو (Casper et al. 2023). نعني بنموذج الأساس أي نموذج يتم تدريبه على كميات كبيرة من البيانات ويمكن تكييفه عبر التعديل لمجموعة واسعة من المهام اللاحقة.
نظرًا لأن تكاليف بناء نماذج الأساس المتطورة عالية جدًا، فإن الشركات الغنية فقط يمكنها حشد الموارد اللازمة لإنشائها (Knight 2023, Maslej et al. 2023). وعلى ما يبدو أن نماذج الأساس تمنح ميزة هائلة لشركات التكنولوجيا الكبرى، ولكن يمكن أن يعطل الوصول المفتوح هذه الميزة. على سبيل المثال، في مارس 2023، أصدرت Meta نموذج أساس مفتوح الوصول، ظاهريًا لتحدي النموذج المغلق السائد في ذلك الوقت، ChatGPT. دفع هذا المنافس مفتوح المصدر أحد موظفي Google إلى الاستنتاج، في مذكرة مسربة تم تداولها على نطاق واسع (Patel & Ahmad 2023)، “لسنا مستعدين للفوز في هذا السباق التسليحي ولا حتى Open AI. في حين أن قدمت Microsoft وMeta معًا نموذج Llama 2 مفتوح الوصول الأكثر قوة في يوليو 2023. قوته تنافس نماذج مغلقة، ومع ذلك يمكن تخصيصه بسهولة بتكلفة إضافية ضئيلة من قبل شخص واحد مع جهاز كمبيوتر محمول وأمسية مجانية (Touvron et al. 2023).
في قدراته، فلقد قفز GPT-4قفزة كبيرة إلى الأمام عن سابقه GPT-3.5، وحدث هذا التحسن الهائل في غضون عام واحد. إذا كانت الإصدارات الأكثر قوة من النموذج ستقدم أفكارًا أكثر فتكًا (مثل وصفة خطوة بخطوة لمرض جديد قاتل) تنتشر بشكل فيروسي، كما يحدث كل شيء في عالم اليوم المتصل بشكل مفرط، فسيحدث ضرر كبير لا يمكن إصلاحه قبل أن يتم اتخاذ مسار تصحيحي (Soice et al. 2023).
على الرغم من وجود علماء مفكرين قد يختلفون (Mitchell 2020, 2023)، نرى أنفسنا على أعتاب عصر جديد، خاصة فيما يتعلق بالتحديات المتعلقة بالحوكمة في بيئة تتميز بقوة الشركات غير المسبوقة. تمنح نماذج الأساس قوة إضافية هائلة لشركات التكنولوجيا الكبرى مقارنة بالحكومات الوطنية. في عدد سبتمبر/أكتوبر 2023 من مجلة الشؤون الخارجية، انضم مصطفى سليمان، المؤسس المشارك لشركة Google DeepMind والرئيس التنفيذي الحالي لشركة Inflection (شركة ذكاء اصطناعي)، إلى عالم السياسة إيان بريمر ليجادل بأن الوقت قد حان لدعوة شركات التكنولوجيا إلى طاولة الحوكمة الدولية. يشيرون إلى أن هؤلاء الفاعلين “قد لا يستمدون الشرعية من عقد اجتماعي أو ديمقراطية أو تقديم السلع العامة، ولكن بدونهم، لن تكون الحوكمة الفعالة للذكاء الاصطناعي ممكنة (Bremmer & Suleyman 2023). وتتضمن هذه الوصفة السماح لشركات التكنولوجيا الكبرى الأمريكية بالأساس بإدارة نفسها بينما تجمع ثروات مذهلة. أصبحت عمالقة التكنولوجيا متعددة الجنسيات في الغرب قوية جدًا لدرجة أنها تعمل كحكومات شبه وطنية عابرة للحدود، تشكل السياق للحكومة الفيدرالية بطرق عميقة. (Lanier & Weyl 2018) بينما يرى بريمر وسليمان أنفسهم بالتأكيد كواقعيين، فإن حجتهم تبدو لكثير من الناخبين الأمريكيين كدعم لحكم القلة التكنولوجي.
ويواصل بريمر وسليمان اقتراح ثلاثة أنظمة حوكمة متداخلة: “واحد لتحديد الحقائق وتقديم المشورة للحكومات بشأن المخاطر التي يشكلها الذكاء الاصطناعي، وواحد لمنع سباق تسلح شامل بينهما، وواحد لإدارة القوى المدمرة لتكنولوجيا لم يشهد العالم مثلها من قبل.” وتستعرض مقالتنا الأدبيات الحالية وتقترح حلولًا محتملة من خلال مخطط ثلاثي مختلف، حيث ننطلق من الفهم النظري للحوكمة والسلطة، بدلاً من تلك المتعلقة بالتكنولوجيا والسلطة.
أولاً، هناك المبادرات التي يمكن اتخاذها على المستوى المحلي (الوطني أو دون الوطني). ثانيًا، هناك مسألة الحوكمة العالمية، التي يمكن أن تشمل كل من المجتمعات المغلقة والمفتوحة، عندما يكون ذلك ممكنًا، أو تركز على الحلول التي يمكن للعالم الديمقراطي وحده أن يتخذها بشكل جماعي لجعل الديمقراطية مستدامة. أخيرًا، هناك مسألة أمان الذكاء الاصطناعي التقني، أو الضمانات التي يمكن تضمينها في التكنولوجيا نفسها. تلعب كل من الشركات التكنولوجية الكبيرة والصغيرة، وكذلك الأوساط الأكاديمية، دورًا كبيرًا في أمان الذكاء الاصطناعي التقني، في حين أن الفئتين الأوليين هما المجال الشرعي للحكومات وشبكات المجتمع المدني. في كل من هذه المستويات توجد مخاطر جديدة وشاملة، لم تكن هياكل الحوكمة الحالية مصممة لاحتوائها.
على نفس المنوال، تم تصميم وثيقة حقوق الدستور الأمريكي في الأصل لحماية المواطنين من تعديات الحكومة على خصوصيتهم أو حرية التعبير والتجمع، ولكن في الساحة العامة الافتراضية والخاصة اليوم، هي شركات وسائل التواصل الاجتماعي التي تقرر متى تسود حرية التعبير ومتى يسود الرقابة. يتيح القسم 230 من قانون آداب الاتصالات لعام 1996 لشركات WEP 2مراقبة الكلام ومحتوى المستخدمين كما تراه مناسبًا، مع تحميل المتحدث المسؤولية عن الكلام الضار، وليس الخدمة التي تستضيفه وتضخمه. قامت المنصات بذلك حتى الآن بطريقة تخدم مصالحها المالية بدلاً من أي مجموعة من القواعد، سواء كانت ضمنية أو صريحة، مصممة للتوسط بين القيم المتنافسة (Lanier & Stanger 2024). وكما توقع (Lessig، p236, 2006) قبل ما يقرب من عقدين من الزمن، “إن بنية الفضاء الإلكتروني هي الحامي الحقيقي للكلام هناك؛ إنها “التعديل الأول الحقيقي في الفضاء الإلكتروني”، وهذا التعديل الأول ليس قانونًا محليًا.”
أبرزت إخفاقات حوكمة الإنترنت والبيانات الحالية التنازلات التي لا مفر منها في الحفاظ على الخصوصية وحماية الأمن القومي في نفس الوقت (Stanger 2019). نموذج الأعمال المدفوع بالإعلانات الذي يدير Meta وGoogle، والذي يحول البيانات الشخصية إلى فئة أصول جديدة غالبًا ما يتم استغلالها دون موافقة المستخدمين، هو ما أطلق عليه Zuboff (2019) “رأسمالية المراقبة”. كان النظام البيئي الرقمي الذي أنشأته هذه القوى في الويب 2 جاهزًا للتدخل الانتخابي الأجنبي. في وقت كتابة هذا المقال، لا تزال جميع احتمالات التلاعب بالناخبين التي شهدناها في الانتخابات الأمريكية لعامي 2016 و2020 قائمة، ومع إضافة المعلومات المضللة الآلية عبر الذكاء الاصطناعي التوليدي، قد يكون التدخل الانتخابي تحديًا خطيرًا لمجموعة من الانتخابات المهمة في الأفق في عام 2024.”
بينما ألهم سباق التسلح النووي جهودًا تعاونية للسيطرة على الأسلحة تستحق التكرار كلما أمكن ذلك، هناك اختلافات جوهرية بين التأثير المحتمل للإنجازين التكنولوجيين. أولاً، نظرًا لأنه في النهاية مجرد برنامج، يمكن للذكاء الاصطناعي أن ينتشر بسرعة، في حين أن إشراف الوكالة الدولية للطاقة الذرية على اليورانيوم المخصب يمثل عقبة كبيرة (وإن لم تكن مستعصية) أمام انتشار الأسلحة النووية. ثانيًا، هناك عدد محدود من التطبيقات المباشرة للتكنولوجيا النووية، مثل الأسلحة والقنابل، في حين أن الذكاء الاصطناعي هو تكنولوجيا عامة يمكن أن تؤثر على كل قطاع اقتصادي تقريبًا بالإضافة إلى امتلاك مجموعة من التطبيقات العسكرية. أخيرًا، تقدم أنظمة الأسلحة الذكية إمكانية أنظمة غير حية تمتلك قوة تدميرية هائلة. قد يبدأ الأمر بزملاء الطيارين الذين يعملون بالذكاء الاصطناعي في القوات الجوية (Lipton 2023)، ولكن إمكانية جيوش الطائرات بدون طيار التي يتحكم فيها الذكاء الاصطناعي لم تعد بعيدة المنال. (Russell 2022، Anderljung & Hazell 2023)
النظام المالي العالمي المتشابك، الذي تديره الخوارزميات، قد أنتج أزمات مالية عالمية لم يتم التعامل معها بشكل صحيح بعد من خلال الحوكمة العالمية لمنع تكرارها (Stiglitz 2002). تم تصميم إصلاحات دود-فرانك المالية بعد انهيار عام 2008 لتقليل احتمال تكرار سلسلة من التأثيرات الكارثية. ولكن تم التلاعب بهذه الإصلاحات في السنوات التي تلت ذلك. التفاصيل ليست مهمة لأغراضنا هنا، ولكننا نشير إلى أن التداول الآلي القائم على الاختراقات في الذكاء الاصطناعي التوليدي سيزيد فقط من سرعة المعاملات، مما يزيد من احتمالات الظواهر الناشئة التي يمكن أن تسقط النظام المعقد والمتكيف بأكمله.
بينما توجد أمثلة تاريخية على التغيير التكنولوجي العميق واستجابات الحوكمة المصممة لمواجهتها، فإن تلك المشاكل تتضاءل أمام التعقيدات الناجمة عن عالم مترابط من الذكاء الاصطناعي التوليدي غير المقيد نتيجة زيادة سرعة التغيير التكنولوجي (Kurzweil 2006، Amodei 2023)، وإن الطبيعة غير الملموسة لأصول الذكاء الاصطناعي مقارنة بالأصول الأخرى (Harari 2017) والطبيعة العالمية لأبحاث وتطوير الذكاء الاصطناعي (Susskind & Susskind 2022) تضعنا في منطقة غير معروفة.
الذكاء الاصطناعي المتقدم، الذي يُعرف بأنه “نماذج عالية القدرة يمكن أن تمتلك قدرات خطيرة كافية لتمثل مخاطر جسيمة على السلامة العامة (Anderljung et al, p2, 2023)؛ انظر أيضًا (Shevlane et al. 2023 هو فئة مفيدة للإشارة إلى أنواع الذكاء الاصطناعي التوليدي بعد GPT-4 التي من المحتمل أن نراها في العام المقبل حيث تتسابق وادي السيليكون لتوسيع النماذج الحالية بكمية غير مسبوقة من القدرة الحاسوبية. يأخذ مفهوم الذكاء الغريب أهمية جديدة عندما نتأمل النماذج الآلية التي يمكنها تنفيذ مهام الإنترنت والتواصل مع بعضها البعض بأقل تدخل بشري. علاوة على ذلك، يمكن للآلات الفائقة الذكاء المفترضة أن تطور مفاهيم واكتشافات جديدة قد تكون غير مفهومة لنا، بنفس الطريقة التي قد تكون بها سيارة آيفون أو سيارة محيرة للفلاسفة اليونانيين القدماء.
البشرية عند مفترق طرق. كما قال الفيلسوف الألماني مارتن هايدغر في مقاله البصير عام 1954، “السؤال المتعلق بالتكنولوجيا”، يقف الفرد “على حافة سقوط حاد؛ أي أنه يصل إلى النقطة التي يجب أن يُعتبر فيها نفسه كاحتياطي قائم). (Heidegger, p 27, 1977) (قد يكون البشر على وشك أن يتجاوزهم إبداعاتهم الخاصة، التي لا يفهمونها تمامًا، ومن المحتمل أن يتسع الفجوة المعرفية بين الإنسان والآلة، في غياب التدخل البشري. يعد الوعد والخطر للذكاء الاصطناعي المتقدم “يجعل البشرية ظاهرة صغيرة جدًا مقارنة بشيء آخر أكثر ذكاءً وسيصبح غير مفهوم لنا”، كما يقول الإنساني “دوغلاس هوفستاتر”، مؤلف كتاب (Gödel, Escher, /Bachغير مفهوم لنا كما نحن للصراصير). نقلا عن (gwern ,2023)
مناهج الدول في حوكمة الذكاء الاصطناعي
ستكون لقدرات الذكاء الاصطناعي الجديدة عواقب واسعة على الأمن القومي، واستقرار الاقتصاد العالمي، واستدامة الكوكب. تم تصميم مؤسسات الحوكمة التقليدية في العالم لعالم لم يعد موجودًا؛ فقد تجاوز الابتكار التكنولوجي الأطر القانونية والمؤسسية اللازمة لتوجيهه في المصلحة العامة. الكود هو القانون (Lessig 2006)، والكود ينتشر بسرعة في كل من الأنظمة المفتوحة والمغلقة.
وفي الولايات المتحدة، سعت إدارة بايدن لمواجهة التحدي من خلال تعزيز أمان الذكاء الاصطناعي داخل شركات التكنولوجيا وتشجيع ضبط النفس الطوعي بين اللاعبين الرئيسيين في التكنولوجيا الكبرى. (White House 2023d)
يطمح الأمر التنفيذي الصادر في نوفمبر 2023 إلى اتباع نهج قائم على الحقوق، ولكن التفاصيل ستكون حاسمة. (White House 2023c) ومع أنه تم تقديم جهود تشريعية مختلفة في الكونغرس، ولكن حتى الآن لم تنتج أي لوائح تنظيمية كبيرة للصناعة. وفي الممارسة العملية، اتبع الجهاز التنظيمي الأمريكي نهجًا يعتمد إلى حد كبير على السوق، حيث إن هناك معايير طوعية موجودة ومحاولة ناشئة لإنشاء معايير قانونية وتنظيمية.
على النقيض من ذلك، يوجد جهاز تنظيمي في الاتحاد الأوروبي يركز بالفعل على حماية الحقوق؛ فيحمي اللائحة العامة لحماية البيانات (GDPR) لعام 2018 خصوصية وبيانات المواطنين في الاتحاد الأوروبي، ويضمن قانون الأسواق الرقمية لعام 2022 أسواقًا رقمية عادلة ومفتوحة من خلال استهداف الشركات الكبيرة التي تتحكم في الوصول، وينظم قانون الخدمات الرقمية الجديد لعام 2023 المنصات عبر الإنترنت، خاصة الكبيرة منها؛ لضمان مساحة رقمية أكثر أمانًا وانفتاحًا. هذه كلها أمثلة على النهج التنظيمي القائم على الحقوق في الممارسة، ولا يختلف قانون الذكاء الاصطناعي الجديد لعام 2023 عن النموذج العام. (Hoffman 2023) ما أطلق عليه برادفورد (2020) بشكل مناسب “تأثير بروكسل” يحدث عندما ينظم الاتحاد الأوروبي السوق العالمية بشكل غير مباشر من خلال فرض معاييره ولوائحه على الدول الأعضاء في الاتحاد الأوروبي والشركات متعددة الجنسيات، مما يؤدي إلى تأثيرات متتالية تتجاوز حدود أوروبا. على سبيل المثال، أصر الاتحاد الأوروبي على أن يكون لدى Apple منفذ واحد لجميع منتجاتها المستقبلية، بدلاً من نشر منافذ جديدة بشكل متكرر لكل نموذج جديد، وأعلنت Apple أنها ستطبق على الأرجح حكم الاتحاد الأوروبي على السوق الأمريكية أيضًا، استجابةً لشكاوى مستخدمي Mac المستمرة الذين كانوا مطالبين بتحديث ملحقاتهم بشكل دائم. على سبيل المثال، يتميز iPhone 15 الجديد بمنفذ USB-C العام بدلاً من منفذ Lightning الغريب فيiphone14 ولقد سبب تأثير بروكسل في شكاوى البعض بأن الولايات المتحدة تصدر مسؤولياتها التنظيمية إلى أوروبا.
في كتاب “الإمبراطوريات الرقمية: المعركة العالمية لتنظيم التكنولوجيا”، تقارن برادفورد (2023) “النموذج التنظيمي الذي تقوده الدولة الصينية” مع النهج الأمريكي القائم على السوق والنهج الأوروبي القائم على الحقوق. تجادل بأن النموذج الأوروبي الذي يركز على الحقوق مجهز بشكل أفضل لتوحيد العالم الحر كمعارضة لنفوذ الصين المتزايد في المجال الرقمي. كان الاتحاد الأوروبي رائدًا فريدًا ومختبرًا في الوقت الحقيقي لاستكشاف العواقب المقصودة وغير المقصودة للجهود المبذولة لتسخير التكنولوجيا في خدمة الصالح العام (Bradford 2023).
وبالحديث عن النموذج التنظيمي الذي تقوده الدولة الصينية هو في الواقع نموذج تنظيمي يقوده الحزب الشيوعي الصيني، فتكون كل مؤسسة أو شركة حكومية صينية لديها خلية حزبية ذات صلة داخلها لضمان أن كل قرار يتماشى مع قيم الحزب (Pearson et al. 2022). على هذا النحو، لا يتطلب النموذج التنظيمي الذي تقوده الدولة وظيفة تدقيق قوية لأنه مدمج فعليًا في عظام المنظمات والمجتمع المدني الصيني (Strittmatter 2020).
على النقيض من ذلك، يضمن مبدأ التبعية في قانون الاتحاد الأوروبي أن تُتخذ القرارات بأقرب ما يمكن إلى المواطن، مما يوسط العلاقة بين القوانين الأوروبية والوطنية والمحلية. يضمن مبدأ التبعية أن يتصرف الاتحاد الأوروبي فقط عندما يكون ذلك ضروريًا، مع احترام تنوع الدول الأعضاء فيه. على وجه التحديد، يجب ألا يتخذ الاتحاد الأوروبي إجراءً تشريعيًا إلا إذا كان أكثر فعالية بشكل واضح من الإجراء المتخذ على المستوى الوطني أو الإقليمي أو المحلي (European, Parliament 2024) وبالتالي، فإن الالتزام بمبدأ التبعية يخدم بشكل غير مباشر وظيفة التدقيق أو الرقابة.
في حين أن النهج الأمريكي، الذي يركز على تعزيز الابتكار وترك آليات السوق تحكم كلما أمكن، لم ينتج فقط عن نقص في التنظيم، ولكنه أيضًا يفتقر إلى آلية إشراف، باستثناء المراجعة الدستورية، لمواءمة المجال الرقمي مع حقوق المستخدم أو احتياجات المواطنين. على سبيل المثال يُعد مجلس الرقابة العالمي على فيسبوك مثالًا جيدًا على جهد صناعي ذاتي لفرض بعض المساءلة العالمية. كان من المفترض أن يشرف على قرارات تعديل المحتوى على فيسبوك، ولكن في النهاية، لم يفي الرئيس التنفيذي مارك زوكربيرغ بوعوده، وساد النهج الأمريكي التقليدي القائم على التدخل الحكومي الأدنى (Stanger 2024). بالمقارنة مع أوروبا والصين، كانت صناعة التكنولوجيا هي التي تقود الأمور إلى حد كبير في الولايات المتحدة حتى الآن، ولم يكن هناك تشريع جديد كبير يستهدف العواقب العامة السلبية لنموذج الأعمال المدفوع بالإعلانات منذ فشل الانتخابات لعام 2016.
قد يعتقد المرء في البداية أن هذه النماذج التنظيمية المختلفة ستنتج ببساطة أنظمة بيئية رقمية مختلفة تحدد السيادة الرقمية (سيطرة الدولة على بياناتها وتقنياتها) بشكل مختلف في الولايات المتحدة والاتحاد الأوروبي والصين، ولكن ذلك سيكون تجاهلًا للأبعاد العابرة للحدود لتدفقات البيانات نفسها. في الواقع، حركة البيانات من شركات التكنولوجيا الكبيرة في الولايات المتحدة إلى الصين تهدد السيادة الرقمية حول العالم. في تفضيل النمو والابتكار، تجاهل المنظمون الأمريكيون ممارسات جمع البيانات المفترسة. تستفيد الحكومة الصينية من ممارسة شركات التكنولوجيا الأمريكية لتحويل المستخدمين إلى منتج (عندما يكون المنتج مجانيًا، كما يقول المثل، كن أنت المنتج) ومن ثم تحويل البيانات الشخصية إلى ربح. وعندما تسعى هذه الشركات نفسها للوصول إلى السوق الصينية، فإنها تعزز القوة الوطنية للصين على نفس المنوال، وإن النهج الأمريكي والصيني معا لحماية البيانات يزيد من احتمالات نقل بيانات المواطنين عبر الحدود الدولية دون موافقة هؤلاء المواطنين. (Kokas 2023, p. 2).
تقدم النماذج الحدودية أو العابرة للحدود تحديًا تنظيميًا مميزًا، يتطلب نهجًا ثلاثي الأبعاد لتأطير التنظيم المناسب. أولاً، يجب بدء محادثات تحديد المعايير متعددة الأطراف أصحاب المصالح لتحديد المتطلبات اللازمة لمطوري الذكاء الاصطناعي الحدودي. ثانيًا، يجب تحديد متطلبات التسجيل والإبلاغ للسماح للمنظمين بالإشراف على عمليات تطوير الذكاء الاصطناعي المستمرة. أخيرًا، يجب أن يوضح أي إطار تنظيمي فعال آليات الامتثال لمعايير أمان الذكاء الاصطناعي التقنية. وإحدى الطرق لتغطية هذه اللبنات الثلاث لتنظيم نماذج الحدود هي طلب تقييمات المخاطر قبل النشر التي سيتم فحصها من قبل هيئات خارجية لتشجيع النظر فيها في قرارات النشر. ومع ذلك، يتطلب التطور السريع نهجًا مرنًا، حيث سيكون من الضروري الاستجابة المستمرة للمعلومات الجديدة حول القدرات بعد النشر (Anderljung et al. 2023). لن يكون كافيًا إقرار النماذج للنشر، حيث ستستمر نماذج الحدود في التعلم وإظهار قدرات جديدة حتى بعد إصدارات المنتجات، وتعتمد تلك الشروط الثلاثة اللازمة للذكاء الاصطناعي الموثوق به على شفافية أكبر في كل مرحلة من مراحل عملية التطوير والنشر أكثر مما هو موجود حاليًا. قامت دراسة حديثة من ستانفورد بتقييم ما إذا كانت النماذج الأساسية الأكثر بروزًا تمتثل لمتطلبات مسودة قانون الذكاء الاصطناعي ووجدت أنها لا تمتثل. “نادراً ما يكشف مقدمو النماذج الأساسية عن معلومات كافية بشأن البيانات، والحوسبة، ونشر نماذجهم بالإضافة إلى الخصائص الرئيسية للنماذج نفسها. على وجه الخصوص، لا يمتثل مقدمو النماذج الأساسية عمومًا لمتطلبات المسودة لوصف استخدام بيانات التدريب المحمية بحقوق الطبع والنشر، والأجهزة المستخدمة، والانبعاثات الناتجة عن التدريب، وكيفية تقييم النماذج واختبارها” (Bommasani et al. 2023a). باختصار إن الشفافية المنتشرة تقوض المساءلة عن النماذج الأساسية” (Bommasani et al. 2023b). ومع ذلك، قد تقوض الشفافية العامة ميزة الأمن القومي الأمريكي، ولا ينبغي الاستهانة بالمقايضات بين الأمن والانفتاح، حيث إن كل ميزة تضحى بها على حساب أخرى، وفي مخططها لميثاق حقوق الذكاء الاصطناعي، حددت إدارة بايدن خمس مجالات كدليل للمجتمع لتجنب التهديدات التي يشكلها الذكاء الاصطناعي على الأمة: “أنظمة آمنة وفعالة، حماية من التمييز الخوارزمي، خصوصية البيانات، الإشعار والتفسير، والبدائل البشرية، والاعتبارات، والحلول الاحتياطية” (White House 2023b). في الممارسة العملية، ومع ذلك، قبل إصدار الأمر التنفيذي في نوفمبر 2023 (White House 2023c)، ركز البيت الأبيض في عهد بايدن بشكل أساسي على تنظيم الصناعة الذاتي مع عمليات تدقيق حكومية على أمل تعزيز الابتكار للحفاظ على ميزة الأمن القومي الأمريكي قوية (White House 2023d). نظرًا لأن نماذج الذكاء الاصطناعي الحدودي هي في الغالب منتجات لشركات مقرها الولايات المتحدة، فإن هذه الممارسة هي إشارة خضراء للابتكار. ومع ذلك، فإنها تفسر جزئيًا أيضًا سبب عدم توافق النتائج مع قانون الذكاء الاصطناعي في الاتحاد الأوروبي، ولا يُرجح أن تكون كذلك، في غياب جهد أكثر تنسيقًا بين الولايات المتحدة وأوروبا.
كانت هناك محاولات متكررة لملاحقة شركات التكنولوجيا الكبرى بتهمة الاحتكار، مع أمازون في مرمى نيران رئيسة لجنة التجارة الفيدرالية لينا خان (Khan 2017) وانتقادات قوية من اليسار (Teachout 2020) واليمين (Hawley 2021) بشأن تآكل حقوق المواطنين من خلال استغلال شركات التكنولوجيا. اقترح السيناتوران إليزابيث وارين (D-MA) وليندسي غراهام (R-SC) تشريعًا من الحزبين لإنشاء وكالة أمريكية جديدة للسيطرة على شركات التكنولوجيا الكبرى (Graham & Warren 2023). قد يتم تحدي الاستجابة التنظيمية الأمريكية المدفوعة بالسوق حتى الآن في الفترة التي تسبق انتخابات 2024، حيث يصبح الأمريكيون أكثر وعيًا بالشر الذي يمكن أن تطلقه نماذج الذكاء الاصطناعي الحدودي.
نظرًا لأن نماذج اللغة الكبيرة (LLMs) تُغذى بمواد أنشأها البشر، فإن أتمتة التحيز البشري تشكل تحديًا كبيرًا للعدالة الديمقراطية، خاصة في وجود مؤسسات غير عادلة، حيث يمكن تمويه عدم المساواة أمام القانون بالدقة الخوارزمية. إذا تعلم النموذج من بيانات متحيزة، فقد يكرس الظلم بدلاً من تحديه (t (Noble 2018, O’Neil 2016). إذا ساهمت العنصرية المؤسسية في عدم المساواة أمام القانون، فإن جعل النظام عادلًا لن يضمن أنه عادل. نظرًا لأن العدالة ليس لها قيمة في غياب مؤسسات عادلة، فقد تكون الحوكمة الأفضل للذكاء الاصطناعي من أجل العدالة والإنصاف هي (أ) تبني نهج قائم على القيم لتدخلات التحيز، (ب) فصل عمليات اتخاذ القرار، (ج) نمذجة الظلم الاجتماعي بشكل صريح، (د) التدخل لزيادة جودة البيانات، و (هـ) استخدام اليانصيب المرجح. (Mullainathan & Obermeyer 2021, Vredenburgh 2022)
تشكل التمييز، وانتهاكات الخصوصية، وأشكال أخرى من الظلم الخوارزمي تحديًا لقدرتنا على تحقيق الأهداف القائمة على الحقوق، خاصة في الظروف التكنولوجية المتغيرة بسرعة. منطقة معينة من القلق هي ضمان أن الأنظمة الجديدة للذكاء الاصطناعي لا تعيد ببساطة تأكيد التحيزات الموجودة، مفضلة مجموعات اجتماعية معينة بينما تميز ضد الآخرين (Clement-Jones 2023). “بالنسبة لبعض التحديات، قد تكون الأدوات السياسية المستلمة كافية. ولكن بالنسبة للأكثر أهمية، تحتاج السياسة الديمقراطية إلى تطوير وتنفيذ أشكال جديدة حقًا من العمل السياسي الجماعي للتحكم في مكان وكيفية تنفيذ الذكاء الاصطناعي (Viehoff, 2022, p1). ويقدم الذكاء الاصطناعي إمكانيات لتوسيع المجتمعات التي تم بناء العقد الاجتماعي الشرعي الأصلي منها. بعبارة أخرى، ليس لدينا حاليًا حوكمة عالمية للذكاء الاصطناعي، ولكن العديد من التحديات الأكثر إلحاحًا هي ذات نطاق عالمي، حيث يظهر مجتمع عالمي يبحث عن أشكال مؤسسية جديدة.
يُفهم الجيل الحالي من الذكاء الاصطناعي التوليدي بشكل أفضل كقوة تفاقم وتسريع الاتجاهات الحالية في السياسة الداخلية والدولية (Arsenault & Kreps 2022)، بدلاً من كونه يكسر بشكل كبير مع سياسات الماضي. وبالتالي، فإن الفجوة بين الاستبداد والديمقراطية الليبرالية بارزة، وكذلك القوة الجماعية المتزايدة للبرازيل وروسيا والهند والصين وجنوب إفريقيا، التي يبدو أنها تعمل كنسخة معاصرة من حركة عدم الانحياز في الحرب الباردة (Larsen 2022).”
سلامة الذكاء الاصطناعي في الأنظمة المغلقة والمفتوحة
تشترك سلامة الذكاء الاصطناعي مع حوكمة الذكاء الاصطناعي في تطلعات مشتركة لتطوير التكنولوجيا والتي تعود بالنفع على البشرية، في حين أنه سلامة الذكاء تركز على المسائل التقنية بكيفية بناء الذكاء الاصطناعي، وتركز الحوكمة على المؤسسات والسياقات التنظيمية التي يتم فيها بناء الذكاء الاصطناعي. (Dafoe, 2018, p. 6)
من المحتمل أن يجلب الذكاء الاصطناعي الحدودي معه مجموعة من الأخطار الجديدة: الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، الدعاية الآلية، الاستراتيجيات السياسية المعززة، الأسلحة البيولوجية ذات الدمار الشامل، الإجراءات العفوية غير المتوافقة، والانتشار الفيروسي التلقائي لكل ما سبق (Shevlane et al. 2023)، والعديد من هذه التهديدات الأمنية يصعب احتواؤها في المجتمعات المفتوحة أكثر من المجتمعات التكنولوجية الاستبدادية، مما يشكل مخاطر وجودية على كل من التعددية والديمقراطية الليبرالية. (Allenet al. 2024)
وتعود التقدمات في الذكاء الاصطناعي التوليدي بفوائد غير مسبوقة للبشرية، ولكن نفس القدرة التوليدية التي تجعل هذه التقدمات الرائعة ممكنة تقدم أيضًا مخاطر اجتماعية هائلة تتطلب إدارة استباقية، ويقدم التوسع السريع والضخم للنماذج الحالية مخاطر على أبعاد متعددة.: أولاً، يمكن أن تظهر القدرات الخطيرة بشكل عفوي، لذا فإن العلاجات السابقة ليست ضمانًا لمنع الكوارث المستقبلية. بعبارة أخرى، من الصعب التنبؤ بما قد ينشأ من رؤى رائعة ذات نوايا خبيثة ومتى تقع هذه الكوارث. ثانيًا، تجعل سرعة التغيير من الصعب تنظيم النماذج المغلقة والمفتوحة المصدر. علاوة على ذلك، “نظرًا لعدم التوازن الكبير في القوة بين مستخدمي الذكاء الاصطناعي مقارنة بأولئك الذين تُستخدم عليهم أنظمة الذكاء الاصطناعي، قد يكون من الصعب إنشاء وتنفيذ تنظيم ناجح. على هذا النحو، فإن تنظيم الذكاء الاصطناعي هو مشكلة سياسية واجتماعية اقتصادية أكثر من كونها مشكلة تقنية. (Weissinger 2022, p. 1)
وتتطلب سلامة الذكاء الاصطناعي معالجة تحدي تنظيم نماذج الذكاء الاصطناعي الحدودي المغلقة المصدر من خلال وضع معايير عامة بين القطاعين العام والخاص، وكذلك متطلبات التسجيل والإبلاغ التي توفر للمنظمين في العالم الحر نافذة على عمليات التطوير، بالإضافة إلى ذلك، يجب إنشاء آليات لضمان الامتثال لمعايير الأمان لكل من تطوير ونشر نماذج الذكاء الاصطناعي الحدودي التي قد تتضمن مجموعة أساسية من معايير الأمان “إجراء تقييمات المخاطر قبل النشر؛ الفحص الخارجي لسلوك النموذج؛ استخدام تقييمات المخاطر لإبلاغ قرارات النشر؛ ومراقبة والاستجابة للمعلومات الجديدة حول قدرات النموذج واستخداماته بعد النشر. ((Anderljung et al. 2023, p1
إن مسألة المعايير هي مسألة عالمية. في مواجهة النهج القائم على الحقوق في أوروبا، والتوجه غير التدخلي في الولايات المتحدة والمملكة المتحدة، والالتزام المطلوب بـ “القيم الأساسية للاشتراكية” في الصين (Espinoza et al. 2023)، قد تصوت الشركات بأقدامها وتنشر أحدث اختراعاتها المغلقة المصدر فقط في النظم البيئية الصديقة. كتطور واعد، انضمت أربع من أكثر شركات الذكاء الاصطناعي تأثيرًا – Anthropic وGoogle وMicrosoft وOpenAI – في يوليو 2023 لتشكيل منتدى نموذج الحدود، الذي سيستخدم للتعاون في تطوير الذكاء الاصطناعي المسؤول (Microsoft 2023).
استدعى السيناتور تشاك شومر (D-NY) جميع اللاعبين الكبار إلى واشنطن العاصمة في سبتمبر 2023 للمشاركة في تشكيل تنظيم جديد للذكاء الاصطناعي من الحزبين. وأشار النقاد إلى أن الجولة الأخيرة من التعاون العام والخاص الموعود بشأن إساءة استخدام وسائل التواصل الاجتماعي لم تسفر إلا عن استمرار الوضع الراهن؛ حيث كانت السيطرة على قوة التكنولوجيا الكبرى بندًا على جدول أعمال واشنطن لأكثر من خمس سنوات، ولكن حتى الآن لم يمرر الكونغرس “قانونًا شاملاً واحدًا لحماية خصوصية البيانات، أو تنظيم وسائل التواصل الاجتماعي، أو تعزيز المنافسة العادلة بين عمالقة التكنولوجيا”، على الرغم من العديد من جلسات الاستماع في الكونغرس حول هذه الموضوعات (Espinoza et al. 2023). وفي نفس السياق طور المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) لإدارة مخاطر الذكاء الاصطناعي الطوعية، ولكن حتى المعهد نفسه يعترف بأن هناك حاجة لترجمة مبادئهم عالية المستوى إلى ممارسة (Barrett et al. 2023).،وبناء على ذلك استجاب مركز الدراسات المتقدمة في العلوم السلوكية بجامعة ستانفورد لهذا النداء بجهد ميداني لبناء المجال وترجمة النظرية إلى ممارسة (Guszcza et al. 2022).
يتطلب الإطار الثنائي للحزبين للذكاء الاصطناعي الذي اقترحه السيناتوران ريتشارد بلومنتال (D-CT) وجوش هاولي (R-MO) من شركات الذكاء الاصطناعي التقدم للحصول على تراخيص ويحدد أيضًا تدابير لتوضيح أن درع المسؤولية التقنية في القسم 230 لا ينطبق على الذكاء الاصطناعي التوليدي (Blumenthal & Hawley 2023).
في حين يتكون القسم 230 البند 1 الفقرة ج من قانون الاتصالات لعام 1996 من 26 كلمة – “لا يجوز اعتبار أي مزود أو مستخدم لخدمة كمبيوتر تفاعلية كناشر أو متحدث لأي معلومات مقدمة من مزود محتوى معلومات آخر” – بدأ كحافز لطريق المعلومات السريع الذي أنشأه نائب الرئيس آل غور آنذاك، ولكنه انتهى كدرع مسؤولية يمكّن شركات التكنولوجيا الكبرى من التصرف بشكل تعسفي في تعديل المحتوى. وتتعامل هذه التشريعات بشكل أساسي مع وسائل التواصل الاجتماعي كمنصة بدلاً من ناشر، على الرغم من أن المحتوى الذي يراه المستخدم يتم التوسط فيه بواسطة أنظمة التوصية المدعومة بالذكاء الاصطناعي. ما يعنيه ذلك عمليًا هو أن الشركات الكبرى، التي تعتبرها القوانين مجرد منصة بدلاً من ناشر، لم تكن مسؤولة عن الأضرار التي تنتجها تقنيتها، وإن الآثار السلبية لهذه التشريعات التي تجاوزت فائدتها هي ما تصدره الولايات المتحدة بحرية إلى بقية العالم. (Lanier & Stanger 2024, Stanger 2024)
بالإضافة إلى توضيح أن الشركات ستتحمل المسؤولية عن الآثار السلبية لمنتجات الذكاء الاصطناعي، فإن إطار (بلومنتال-هاولي) يدعو إلى نظام ترخيص تديره هيئة رقابية مستقلة، وسيجبر الشركات على التسجيل لدى تلك الهيئة الرقابية من أجل تطوير نماذج الذكاء الاصطناعي المتقدمة، وسيكون لدى تلك السلطة الإشرافية القدرة على تدقيق الشركات ومحاسباتها ماليا ومنع الترخيص عن تلك التي تعطي الأولوية للربح على السلامة. (Blumenthal & Hawley 2023)
يدعو القسم 4.6 من الأمر التنفيذي لإدارة بايدن بشأن الذكاء الاصطناعي إلى الحصول على مدخلات من مختلف أصحاب المصلحة حول نماذج الأساس ذات الاستخدام المزدوج التي تتوفر أوزانها على نطاق واسع. (White House 2023e)، وستكون عملية الالتماس والاقتراب تلك بمثابة مساهمة أخرى في نقاش نشط وأوسع حول مزايا فتح مصادر نماذج الأساس. تشمل المخاطر تمكين الاستخدامات الخبيثة ونشر العيوب غير المحلولة، بينما تشمل الفوائد زيادة التدقيق الخارجي، وتسريع حالات الاستخدام الإيجابية، وتقليل السيطرة الشركات (Seger et al. 2023). ربما يكون أكثر أشكال الإساءة لاستخدام نماذج المصادر المفتوحة إثارة للقلق هو إزالة الحواجز التي تساعد في الوصول إلى مسببات الأمراض الخطيرة؛ حيث يجب أن تكون نماذج الذكاء الاصطناعي مفتوحة المصدر اعتبارًا بارزًا في المناقشات حول الطبيعة ذات الاستخدام المزدوج للمعلومات البيولوجية. (Gopal et al. 2023, Sandbrink 2023)
بجانب أوزان النماذج، هناك سؤال أوسع حول مدى المعلومات التي ينبغي على مطوري الذكاء الاصطناعي المتقدم مشاركتها حول نماذجهم وعمليات تطويرها، ومع من يجب مشاركتها؛ حيث تتمتع الشفافية ببعض الفوائد الواضحة؛ على سبيل المثال، يمكن أن يدعم الوصول إلى النماذج المتطورة أبحاث السلامة الإنتاجية (Bucknall & Trager 2023). من جهة أخرى، هناك عيب يتمثل في مشاركة الأسرار التجارية مع جهات غير حذرة أو خبيثة، بالإضافة إلى الدول التي ترتكب انتهاكات لحقوق الإنسان. نظرًا لأن الشركات ستكسب أقل من أي نموذج فردي عندما يتمكن المنافسون من نسخه بسرعة، فإن مسألة تحفيز الاستثمارات في النماذج الكبيرة تصبح قضية أخرى. من المؤكد أن هذه الاعتبارات ستتطور مع مرور الوقت مع زيادة قدرات الذكاء الاصطناعي (Seger et al. 2023). وبالتالي، سيتعين على المطورين التنقل بين مشاكل العمل الجماعي وضمان ممارسات قوية في الأمن السيبراني عندما يكون من المقرر أن تظل معلومات النموذج محمية. (Askell et al. 2019)
لقد تجنبت جميع جهود التنظيم حتى الآن بشكل كبير سؤال كيفية احتواء مخاطر النماذج مفتوحة المصدر، التي يمكن أن تنتشر بشكل فيروسي في المجتمعات المفتوحة عبر النظام البيئي الحالي لوسائل التواصل الاجتماعي. وبالتالي، فإن الانتشار الحر للنماذج مفتوحة المصدر، مثل نموذج Llama من Meta’s ونموذج Falconمن TII، يقدم طبقة إضافية من التعقيد؛ ففي مايو 2023 في حرم جامعة ستانفورد، كان أحدنا قادرًا على توجيه هاتفه نحو رمز الاستجابة السريعة (QR) على عدة مقاعد عامة أو لوحات إعلانات وتنزيل الأوزان اللازمة لتشغيل لاما على حاسوب محمول. سيتطلب تحسين سلامة الذكاء الاصطناعي من الشركات الحصول على ترخيص لإصدار البرمجيات مفتوحة المصدر المبنية على نماذج اللغة الكبيرة، وسيتعين على الحكومات الانتباه بشكل وثيق لتلك الشركات التي تنشر كميات هائلة من الحوسبة وتخزن وحدات معالجة الرسوميات لتوسيع النماذج الحالية. ومع ذلك، عندما تنطلق هذه النماذج القوية إلى العالم الخارجي، تصبح جميع الرهانات غير مؤكدة.
تكمن إحدى الطرق لمواجهة هذا التحدي المعقد المتعلق بسلامة الذكاء الاصطناعي هي من خلال مراقبة سلسلة التوريد الرقمية؛ حيث يجب أن يكون هناك تمييز بين البحث الأساسي والنشر، ويجب أن تركز المراقبة على تعزيز متطلبات الأمان لجلب منتجات الذكاء الاصطناعي الحدودي الجديدة إلى السوق، ولتحقيق ذلك، يجب على الحكومات اتباع الآتي: (أ) الاستثمار في مراقبة سلسلة التوريد الرقمية، (ب) الاستثمار في تقييمات عامة لنماذج الأساس، و (ج) تحفيز البحث على الحواجز الوقائية للنماذج مفتوحة المصدر. (Bommasani et al. 2023c, p. 1)
في حين أن التنظيم الذاتي للصناعة هو نقطة انطلاق قابلة للتطبيق، إلا أنه لا يمكن مواجهة التحدي دون مشاركة مجتمعية واسعة وأصحاب المصلحة المتعددين في عملية مداولات عامة (Landemore 2020). الذكاء الاصطناعي تجمعات المحاذاة باستخدام أداة رقمية تداولية مولدة للإجماع، مثل Pol.is، والتي تم استخدامها في النقاش العام في تايوان حول كيفية التعامل مع ثقافة مشاركة الركوب في عالم من سائقي سيارات الأجرة المرخصين، وقد أتت ثمارها. نظرا لأن الوعي المجتمعي الواسع إلى جانب التدخل الحكومي سيكون مطلوبا لضمان الامتثال، يتم أيضا نشر Pol.is في استكشاف مواءمة الذكاء الاصطناعي، (Ovadya 2022,Tang & Landemore 2021) بعبارة أخرى، تتطلب الإدارة الفعالة لسلامة الذكاء الاصطناعي مناهج متعددة التخصصات ولغة مشتركة تسمح بإشراك جميع مستويات المجتمع وجميع أصحاب المصالح. (Dobbe 2022, p. 1)
وفقًا لرئيسة المفوضية الأوروبية أورسولا فون دير لاين، وضعت أوروبا ثقتها في نظام دولي جديد لإدارة مخاطر الذكاء الاصطناعي الحدودي يشبه في طياته اللجنة الحكومية الدولية المعنية بتغير المناخ التابعة للأمم المتحدة. ستحمي “ضد المخاطر المجتمعية النظامية وتعزز الاستثمارات في أنظمة الذكاء الاصطناعي الآمنة والمسؤولة، في نفس الوقت” (Von der Leyen 2023). على النقيض من ذلك، فإن أولويات OpenAI لحوكمة الذكاء الفائق هي إنشاء ما يعادل الوكالة الدولية للطاقة الذرية للذكاء الفائق واستثمار الحكومة في البحث التقني المتعلق بأمان الذكاء الاصطناعي. (Fischer et al. 2021, Altman et al. 2023) ، في حين يقترح آخرون أن السياسة الرئيسية والمفتاحية للتعامل مع الذكاء الاصطناعي الحدودي باعتباره كبنية تحتية حيوية. (Smith et al. 2023).
إن الحاجة إلى اتخاذ إجراءات للإشراف على النمو المتزايد في قوة نماذج الأساس أمر ملح (Anthropic 2023a)، لأن الأبحاث تشير إلى أن النماذج لن تصبح أكثر قدرة إلا في حال أن أصبحت أكبر. (Anthropic 2023b)
ستستفيد مختبرات الذكاء الاصطناعي أيضًا من إنشاء وظيفة تدقيق داخلي مدعومة بمبادئ قوية لحماية المبلغين عن المخالفات. بدلاً من التغيير المستمر في موظفي الثقة والسلامة في الذكاء الاصطناعي في الشركات الكبرى، بل يجب أن يكون النمط هو تطوير ثقافة داخلية لا تكرس نفسها بشكل أحادي لتحسين الإيرادات، ومن المسلم به أن تحقيق ذلك أمر صعب في اقتصاد يحتفي بالأسواق الحرة وروح ريادة الأعمال. (Stanger 2019)
استراتيجية المسار المزدوج
مع الوصول غير المسبوق إلى الخوارزميات والبيانات ووحدات معالجة الرسوميات التي تدعم التقدم في الذكاء الاصطناعي التوليدي، تتمتع الولايات المتحدة حاليًا بميزة نسبية مقارنة بالصين (Toner et al. 2023). وفي الوقت نفسه، تعتبر الخطابات المعادية للصين الشيء الوحيد الذي يوحد بين الديمقراطيين والجمهوريين في واشنطن، وهو ما يقابله خطاب صيني معادٍ لأمريكا، وعلى عكس النهج القائم على السوق في الولايات المتحدة والنهج القائم على الحقوق في أوروبا، فإن النموذج التنظيمي الصيني مدفوع بالكامل من قبل الدولة – مما يعني أنه مدفوع من قبل الحزب الشيوعي، كما تم الإشارة إليه سابقًا. تنظر الولايات المتحدة والصين إلى القيم الجماعية لكل منهما على أنها تهديد لقيمها الخاصة. وليس من المستغرب أن تختلف النسخ الصينية والأمريكية من تيك توك بشكل كبير. بينما يستهلك المستخدمون الأمريكيون مقاطع الفيديو التي يُتوقع أن تشغلهم لأطول فترة ممكنة، فإن النسخة الصينية (دوين) تحد من وقت الاستخدام بحيث يمكن للمراهقين الدراسة وتقدم للمستخدم الصيني قائمة من مقاطع الفيديو المصممة لتحسين العقل وإحساس المستخدم بالرفاهية والانتماء (60 Minutes 2022, Schlott 2023).
ونظرًا لحالة المراقبة التي يسيطر عليها الحزب الصيني، إذا تمكنت الولايات المتحدة من الفوز في سباق التسلح مع الصين وفقًا لشروط الصين، فإن هذا النصر سيدمر ما يسعى الأمريكيون إلى الدفاع عنه. ومع ذلك، هناك فرص متاحة للتفاعل البناء مع الصين بشأن تنظيم الذكاء الاصطناعي، إن التنافس غير المقيد بين القوى الكبرى هو في صميم ديناميكيات المخاطر الشديدة. قد يكون بناء مؤسسات عالمية قادرة هو الطريقة الوحيدة للدفاع عن الأمن القومي الأمريكي مع احتواء العواقب السلبية العديدة للتنافس غير المقيد الذي لن يفيد أحدًا. “التفوق ليس مرادفًا للأمن” (Danzig 2018) لذلك، يجب أن تتضمن أي استراتيجية للتعاون مع الصين كيفية تأثير الذكاء الاصطناعي على القوة الوطنية للدول الفردية بالإضافة إلى ميزات النظام الدولي (بايجراكتاري وآخرون 2023). على سبيل المثال، هناك أدلة على أن آثار الذكاء الاصطناعي المزعزعة للاستقرار “من المحتمل أن تكون أكثر تقويضًا للديمقراطية في الاقتصادات الناشئة والهامشية؛ حيث تفتقر الدول ببساطة إلى القدرة على حماية سكانها من انخفاض القدرة التصنيعية. (Boix 2022, p. 1)
وبالتالي فإن استراتيجية المسار المزدوج لحوكمة الذكاء الاصطناعي تعزز الروابط بين المجتمعات المفتوحة، بينما تبني المؤسسات والمعايير للتعاون في مجالات الاهتمام المشترك في المجتمع العالمي الأوسع، فهي بالتالي استراتيجية واقعية وحكيمة على حد سواء، وإن مطالبة الصين بالالتزام بالقيم الغربية أو بمجموعة المبادئ المختلفة للذكاء الاصطناعي التي تم الإعلان عنها كشرط ضروري للتواصل بين الولايات المتحدة والصين لا تخدم مصالح أي من البلدين. لأن المبادئ الشرعية للأنظمة السياسية الأمريكية والصينية تختلف بشكل كبير، لذا فإن نطاق الخيارات الممكنة لكل منهما مقيد بشكل مختلف. (Stanger 2020, 2021) ،وينبغي على صانعي السياسات في العالم الحر استكشاف استعداد الصين للمشاركة في مفاوضات دولية ملزمة يمكن أن تعمل تمامًا كما فعلت مفاوضات السيطرة على الأسلحة خلال الحرب الباردة، كإجراءات لبناء الثقة تقلل من احتمال حدوث سوء فهم يؤدي إلى كارثة. (Horowitz & Scharre 2021, Horowitz et al. 2022).
على سبيل المثال، قد يتم السعي نحو حوكمة عالمية للذكاء الاصطناعي من خلال وكالة عالمية جديدة – ما أشار إليه البعض بأنه المعادل الوظيفي للوكالة الدولية للطاقة الذرية للذكاء، (Maas & Villalobos 2023, Trager et al. 2023) كما ذُكر أعلاه. في مثل هذه الهيئة، قد يتعهد الأعضاء بعدم الاستخدام الأول للأسلحة السيبرانية ضد البنية التحتية الحيوية المحلية مقابل احترام حق تقرير المصير داخل حدود الدولة المعترف بها من قبل الأمم المتحدة. يمكن للأعضاء أيضًا التعهد بعدم الاستخدام الأول لجيش الطائرات بدون طيار. يمكن أيضًا تصور مثل هذه المؤسسة لمراقبة التدفقات العالمية لوحدات معالجة الرسوميات لضمان عدم وقوعها في أيدٍ خطرة، حيث يتم تعريف الأخيرة بشكل جماعي من قبل الموقعين على النظام الدولي الجديد.
يرى البعض أن مجموعة العمل المالية تمثل نموذجًا جيدًا لأحكام الحوسبة السحابية (اعرف عميلك) (Egan & Heim 2023, Fist et al. 2023).. تعتبر الشراكة العالمية القائمة لمؤسسات عالمية متعددة الأطراف كمجموعة السبع ومنظمة التعاون والتنمية الاقتصادية بشأن الذكاء الاصطناعي (https://oecd.ai/en/gpai) قد تساهم أيضًا في تعزيز الضوابط اللازمة لحوكمة الابتكار المضطرب. أخيرًا، جادل البعض بضرورة إنشاء CERN أمريكي-أوروبي للذكاء الاصطناعي، على غرار المنظمة الأوروبية للأبحاث النووية، والتي قد تزيد من تمويل الأبحاث المتطورة في مجال الذكاء الاصطناعي من قبل القطاع العام. (Hoos & Irgens 2023)
وإن مسألة من يمتلك الوصول إلى الكمية الهائلة من الحوسبة اللازمة لدفع تقدم التعلم العميق والذكاء الاصطناعي التوليدي من غير المحتمل أن تختفي في أي وقت قريب (Vipra & Myers West 2023). وتزيد استراتيجية المسار المزدوج من عدد نقاط الاتصال بين المنافسين بينما تعزز في الوقت نفسه التعاون بين الحلفاء، وهو ما أثبت تاريخيًا أنه مفيد لتجنب أشكال الصراع ذات المخاطر الوجودية التي يثيرها سوء الفهم البسيط أو أعطال الأجهزة أو البرمجيات. (Jervis 1997)
تعتبر استراتيجية المسار المزدوج لحوكمة الذكاء الاصطناعي وتعلم الآلة وسيلة جيدة لمعالجة وجهات النظر المتعارضة حول الذكاء الاصطناعي وعلاقة الولايات المتحدة والصين، وهو ما يسميه دينغ (2022) انقسام القومية التكنولوجية مقابل العولمة التكنولوجية. تركز القومية التكنولوجية على المنافسة بين الدول، بينما تركز العولمة التكنولوجية على الأصول التكنولوجية. من خلال التركيز على الشبكات العابرة للحدود من الشركات والأفراد التي تبرزها العولمة التكنولوجية، يمكننا أن نرسم صورة أوضح عن المكان الذي قد تجد فيه الولايات المتحدة والصين كلاً من الخلافات والأرضية المشتركة (Ding 2022). هناك مجالات يمكن للعالم الحر والصين أن يتوصلوا فيها إلى اتفاقات بسبب ترابطهم المعقد. ولكن هناك أيضًا مجالات لا يمكننا فيها ذلك، بسبب قضايا الأمن القومي الخطيرة. إن معرفة الفرق هو رؤية أساسية لبناء مؤسسات حوكمة جديدة يمكن أن تحمي مصالح الحرية والإنسانية على حد سواء.
ويشير منظور العولمة التكنولوجية الى احتمال تحقيق مكاسب جوهرية في مجال الحوكمة من خلال إعادة تركيز اهتمامنا من النماذج إلى مدخلاتها، حيث إن تلك النماذج بنيت على كنوز من البيانات، ويمكن للمطورين تطوير نماذج الجيل التالي فقط بقدر ما تتوفر لديهم سلسلة إمداد بيانات مستقرة وموثوقة وعالية الجودة، وهي سلسلة إمداد موجودة على الإنترنت (تكنولوجيا عالمية) وليست محصورة ضمن الحدود الوطنية. ربما يكون من المفيد، إذن، التفكير في هذه النماذج الحدودية، النماذج التي تعتمد على سلاسل إمداد بيانات شاسعة، كمشكلات في إدارة سلسلة الإمداد الأخلاقية والمستدامة. هناك بالفعل مجموعة كبيرة من الأدبيات حول الطرق التي يمكن من خلالها للمنظمات الوطنية والدولية فرض معايير الأخلاق والاستدامة والمصادر المؤيدة للعمال (McKean 2022)، وعلى الرغم من أننا لا نملك بعد حلاً واضحًا لتلك المشكلات، إلا أن هذا العمل على الأقل يعد نقطة انطلاق جيدة للتفكير في التحديات الفريدة التي تطرحها سلاسل إمداد الذكاء الاصطناعي، خاصة عندما تتحكم حلفاء المجتمع المفتوح بشكل فعال في سلسلة الإمداد لرقائق GPU (Belfield 2022, Miller 2022).
وبالتالي، قد تتمكن الأنظمة الدولية والعابرة للحدود من لعب دور مهم في ضمان أن أنظمة الذكاء الاصطناعي الحدودية تفيد البشرية بدلاً من تدميرها. “هناك أربعة نماذج مؤسسية محتملة لها سوابق في المنظمات القائمة للنظر فيها: 1) لجنة للذكاء الاصطناعي الحدودي تسهل التوافق بين الخبراء حول الفرص والمخاطر الناتجة عن الذكاء الاصطناعي المتقدم، 2) منظمة حوكمة الذكاء الاصطناعي المتقدم التي تحدد المعايير الدولية لإدارة التهديدات العالمية الناتجة عن النماذج المتقدمة، وتدعم تنفيذها، وربما تراقب الامتثال لنظام الحوكمة المستقبلي، 3) تعاون للذكاء الاصطناعي الحدودي الذي يعزز الوصول إلى الذكاء الاصطناعي المتطور، و 4) مشروع سلامة الذكاء الاصطناعي الذي يجمع بين الباحثين والمهندسين الرائدين لتعزيز أبحاث سلامة الذكاء الاصطناعي” (Ho et al. 2023, p. 1).
استراتيجية المسار المزدوج (انظر الجدول 1) تبني أنظمة حوكمة عالمية جديدة بينما تعزز التعاون والتنسيق بين المجتمعات المفتوحة يمكن أن تقلل من احتمال حدوث الكوارث، بينما تجعل الديمقراطية الليبرالية نفسها مستدامة. يتم ذلك من خلال خلق فرص متعددة للتدخل من أجل احتواء غير المتوقع – وهو نتيجة محتملة عندما يتم إطلاق الأنظمة مفتوحة المصدر بالكامل في العالم، حيث يمكن لعدد قليل من الفاعلين الخبيثين أن يسببوا الفوضى. كما أن التعاون بين الخصوم يقلل من خطر نشوب الحرب العالمية الثالثة مع الأسلحة الجديدة و”المطورة” (بعضها يتضمن الذكاء الاصطناعي، مثل الطائرات المسيرة) التي قد تسبب دمارًا أكبر بكثير من الحرب العالمية الثانية، خاصة إذا استخدمت القوى النووية ترساناتها (Boulanin et al. 2020).
الجدول 1 مناهج تنظيم الذكاء الاصطناعي
الولايات المتحدة الأمريكية | الاتحاد الأوروبي | الصين | |
نهج تنظيم الذكاء الاصطناعي الأساسي | متروكة للسوق | محمي بالحقوق | تقوم عليه الدولة |
المؤسسات الحاكمة | الديمقراطية التمثيلية المكونة من مجلسين | الديمقراطية التمثيلية البرلمانية متعددة الجنسيات | الاستبداد الفردي |
حقوق المستخدم وسياسة الخصوصية | التنظيم المحدود وتاريخ جمع بيانات المستخدمين ومراقبتها في القطاعين العام والخاص | منظمة بشكل متزايد (اللائحة العامة لحماية البيانات، قانون الأسواق الرقمية، إلخ)، قيود على المراقبة العامة والخاصة | تجميع البيانات ومراقبتها بشكل منهجي، ووصول محدود للمستخدم إلى نشاط الإنترنت الدولي |
الاستجابة لمخاطر الذكاء الاصطناعي | الديمقراطية/تعزيز الحقوق، الإنترنت المفتوح | الديمقراطية/تعزيز الحقوق، الإنترنت المفتوح | تعزيز سيطرة الحزب |
إجراءات السياسة حتى الآن | وثيقة حقوق الذكاء الاصطناعي، إطار إدارة مخاطر الذكاء الاصطناعي NIST، قانون الرقائق والعلوم، الأمر التنفيذي بشأن الذكاء الاصطناعي | AI Act, GDPR, DMA, DSA | اللوائح المتعلقة بخوارزميات التوصية والتوليف العميق الذكاء الاصطناعي التوليدية. الإشراف الحزبي على LLMs المملوكة للجمهور |
نحن نقترح | نهج مزدوج المسار | نهج مزدوج المسار | مبادرات تقرير المصير وحوكمة الذكاء الاصطناعي العالمية |
الاختصارات:
Chips) خلق حوافز مفيدة لإنتاج أشباه الموصلات. (، DMA) قانون الأسواق الرقمية. (، DSA) قانون الخدمات الرقمية (. GDPR) اللائحة العامة لحماية البيانات (،LLM) نموذج لغوي كبير (، NIST) المعهد الوطني للمعايير والتكنولوجيا).
الخاتمة: سلامة الذكاء الاصطناعي هي حوكمة الذكاء الاصطناعي
أطلقت مجتمع علوم الحاسوب إنذارًا بشأن خطر وجود الذكاء الاصطناعي والحاجة إلى تدخل الحكومة من خلال عريضة التوقف التي قدمها معهد مستقبل الحياة في مارس 2023، والتي دعت جميع مختبرات الذكاء الاصطناعي إلى وقف تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 لمدة 6 أشهر (Future of Life Inst. 2023). تلت عريضة التوقف بعد شهرين عريضة من جملة واحدة من مركز سلامة الذكاء الاصطناعي: “يجب أن يكون التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر الأخرى على مستوى المجتمع مثل الأوبئة والحرب النووية.” وقد وقع عليها العديد من الفاعلين في المجال العام، مما جذب انتباه العالم (Cent. AI Safety 2023) ، في أوائل نوفمبر 2023 اجتمع ممثلون من 28 دولة، بما في ذلك الولايات المتحدة والصين، في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة ووافقوا على إعلان بليتشلي، الذي نص على: “هناك إمكانية لضرر خطير، حتى كارثي، سواء كان متعمدًا أو غير متعمد، ناتج عن القدرات الأكثر أهمية لهذه النماذج من الذكاء الاصطناعي” (AI Safety Summit 2023).
وكان من البديهي الدعوة إلى أخذ نفس عميق وتقييم المخاطر. وكما رأينا، تشكل عدد هائل من الأنظمة المعقدة والمتداخلة والقابلة للتكيف مشهد الذكاء الاصطناعي، في حين أنه سيتطلب الحفاظ على الديمقراطية في ظل هذا المشهد ومقاومة البديل التكنولوجي الاستبدادي الذي يقدم كفاءة أكبر استجابة مجتمعية. وإحدى طرق تلخيص ما تعلمناه من الصفحات السابقة هي التقاطه من خلال تصنيف للأدوات التي تبني أنظمة تحافظ على كرامة الإنسان بدلاً من انتهاكها. هذه الأدوات هي (أ) القواعد، مثل اللوائح والقوانين الجديدة؛ (ب) المؤسسات الجديدة، التي يمكن أن تعزز وتضخم وتنسق القواعد؛ (ج) المال، سواء لتمويل البحث، أو الاستثمار في سلامة الذكاء الاصطناعي، أو زيادة التمويل لتعليم مواطنين ذوي كفاءة تكنولوجية؛ و(د) رأس المال البشري، الأشخاص الذين يمكنهم تخيل الحلول والتخفيف من المخاطر الناتجة عن تحديات الابتكار التكنولوجي المستمر. (Matthews 2023)
قد يلاحظ القارئ أننا لم نتناول مباشرةً الحجج المتعلقة بجعل الذكاء الاصطناعي التوليدي أكثر شفافية أو قابلية للتفسير. وذلك لأن كل من الشفافية وقابلية التفسير هما مفهومان معقدان للغاية، يختلفان عن الحوكمة. على الرغم من أن قابلية التفسير قد تكون أداة مفيدة في تصميم وتنفيذ آليات حوكمة الذكاء الاصطناعي، إلا أن أنظمة الذكاء الاصطناعي القابلة للتفسير (XAI) ليست بالضرورة أكثر قابلية للحوكمة من الأنظمة غير القابلة للتفسير ((n on-XAI (Danks 2022). وبالتالي، يمكن أن يُجاب عن الحق في “تفسير” ما من خلال الذكاء الاصطناعي الأكثر قوة، لكن هذا سيعني ببساطة التخلي عن المزيد من الوكالة البشرية لصالح الآلات. فالإنسان، بعد كل شيء، يتفوق في التفسيرات اللاحقة—وهو مصطلح آخر للتفرد أو تطوير السرد الشخصي—تمامًا كما يمكن تدريب هذه الآلات من قبل البشر على القيام بذلك. “إذا وضعنا الكثير من التركيز على قابلية التفسير”، يقول إدوارد لي، أستاذ متميز في الهندسة الكهربائية وعلوم الحاسوب في جامعة كاليفورنيا، بيركلي، “فسنقوض إمكانية التنافس البشري” (Lee 2023). إذا كنا نرغب في تعزيز الديمقراطية بدلاً من تقويضها، فقد يكون من الأفضل الاحتفاظ بالحق في الاستئناف إلى إنسان بدلاً من الاعتماد على الآلات في اختراع تفسيرات لما لا يمكن تفسيره (Rees 2022).
وبالمثل، فإن التركيز المفرط على مخاطر عدم التوافق الفني قد يعميّنا عن الطرق التي من المحتمل أن تقلل بها نماذج الذكاء الاصطناعي الحدودية غير المنظمة من قيمة البشر بدلاً من توسيعها في المستقبل القريب. إن المخاطر الوجودية حقيقية، لكن الخطر الواضح والمباشر في الوقت الحالي هو زوال الديمقراطية؛ فمن سبتمبر 2023 حتى نوفمبر 2024، أي في عصر الذكاء الاصطناعي الحدودي غير المنظم إلى حد كبير، ستصوت 80% من الدول الديمقراطية (التي تمثل 67% من جميع الأشخاص الذين يعيشون في ديمقراطية) في انتخابات فدرالية أو فوق وطنية (مثل البرلمان الأوروبي). على أن التهديد الذي تشكله المعلومات المضللة الآلية في نظام وسائل التواصل الاجتماعي العالمي الذي يسيطر عليه بشكل متزايد رجل واحد، مارك زوكربيرغ، هو تهديد جسيم. والتهديد الأكثر إلحاحًا لرفاهية البشرية هو ذلك الذي يواجهنا جميعًا، هنا والآن.
وإن تسليط الضوء على الطرق التي تُستخدم بها أنظمة الذكاء الاصطناعي لممارسة السلطة يُظهر في النهاية عدم كفاية نهج أخلاقيات الذكاء الاصطناعي والمبادئ وحدها. “عندما تتطور علاقات السلطة الجديدة والمكثفة، يجب أن ننتبه ليس فقط لما تُستخدم السلطة من أجله، ولكن أيضًا لكيفية ومن يستخدمها (Lazar 2022, p. 1) قد تحتاج الحد من التكاليف البشرية لتقنيات الذكاء الاصطناعي إلى الاعتماد على التنظيم والسياسات لإعادة توجيه أبحاث الذكاء الاصطناعي. قد تكون المحاولات لاحتوائها فقط من خلال تعزيز المنافسة غير كافية. (Acemo˘ glu 2021, p. 1) وباختصار، تم الوصول إلى حدود حلول السوق (Acemoğlu 2022).
السؤال المثير للاهتمام هو ما إذا كانت شرارة الإبداع أو الحدس، نتاج الذاكرة البشرية، ستُنتج يومًا ما بواسطة الحوسبة الآلية. قد يفضل البعض الدماغ البشري، لكننا نعلم أن هيكله المعقد يعمل بواسطة الكيمياء والكهرباء. وكذلك، تُبنى الآلات من الرقائق. سنتعلم المزيد عن الوعي البشري من خلال دراسة الذكاء الاصطناعي التوليدي، ومن المحتمل أن يتطور فهمنا لكليهما معًا.
التفسير، بعد كل شيء، هو خوارزمية قصيرة بخطوات اتفق عليها المجتمع. أليس من الممكن إذن أن أدمغتنا البشرية تقوم بالفعل بتنفيذ الخوارزميات، كما اقترحت نظريات العقل الحاسوبية بالفعل (Rescorla 2020)؟ وإن الأخطاء التي ارتكبها GPT-2 وGPT-3 (وGPT-3.5) وGPT-4 تذكر أستاذ بيركلي إدوارد لي (2023) بأخطاء طفل يبلغ من العمر 4 سنوات، ومراهق يبلغ من العمر 15 عامًا، وطالب دراسات عليا في بيركلي – وقد حدث هذا التقدم الرائع في القدرات في أقل من 5 سنوات، مع تحقيق جزء كبير من التقدم من خلال التدريب بقدرات حاسوبية أكبر بمراتب. نتساءل ما إذا كانت الفجوة بين الإبداع البشري والحوسبة الذكاء الاصطناعي ستختفي مع مرور الوقت أم أن الذكاء البشري المجسد سيستمر في التفوق. نظرًا لإمكانية حدوث التغيير في المستقبل بشكل أسرع؛ فمن الحكمة الاستعداد لمزيد من المفاجآت (Erdil & Besiroglu 2023، Davidson 2023).
نأمل أن تلهم هذه المراجعة لحالة المجال الباحثين الآخرين لاستكشاف الأرض المجهولة المعقدة والمتكيفة لحوكمة الذكاء الاصطناعي العالمية والتفاعل مع حججنا. نشجعكم على إخبارنا لماذا نحن مخطئون. تشمل الأسئلة البحثية الواعدة:
- كيف تحكم المؤسسات العامة الأنظمة في ظل ظروف عدم التماثل العميق للسلطة (سواء داخل قطاع التكنولوجيا أو عبر التكنولوجيا والحكومة) من حيث تصميم الكود (القوة المعلوماتية) والتحكم فيه (قوة السوق)؟
- كيف يفعلون ذلك بطرق تسمح بالمساءلة – التي تتطلب الشفافية – في أنظمة الملكية التي تتسم بالغموض في تصميمها؟
- كيف يفعلون ذلك عندما تكون سرعة الابتكار أسرع بكثير من التغيرات التنظيمية الحاصلة في المؤسسات الحاكمة؟
- كيف يفعلون ذلك عندما يتم نشر التكنولوجيا بطرق تقوض بشكل منهجي ومتعمد هذه المؤسسات الحاكمة نفسها (التهديدات للديمقراطية)؟
- كيف يفعلون ذلك عندما تشكل التكنولوجيا خطرا وجوديا عميقا محتملا؟
في النهاية، فإن الحفاظ على الحوكمة الديمقراطية هو بحد ذاته سؤال أمان الذكاء الاصطناعي، مما يعني أن أمان الذكاء الاصطناعي هو أكثر من مجرد تحدٍ تقني. إذا رأى غير المستفيدين من الذكاء الاصطناعي كأداة لتبعية أنفسهم، فسيشعر الكثيرون بأنهم مبررون في استغلال الذكاء الاصطناعي لجعل الأقوياء يدركون وجودهم. الرغبة في أن يُرى ويُقدر هي حاجة إنسانية ستكافح الآلات لحسابها. بدون مواطنين يرون أنفسهم منعكسين في حكوماتهم، سيكون أمان الذكاء الاصطناعي، بشكل عام، هدفًا بعيد المنال.”
النسخة الأصلية على الرابط التالي : https://www.annualreviews.org/content/journals/10.1146/annurev-polisci-041322-042247
قائمة الأدبيات
60 Minutes. 2022.TikTok in China versus the United States.60 Minutes, Nov.8. https://www.youtube.com/ watch?v=0j0xzuh-6rY
Acemo˘ glu D. 2021. HarmsofAI. NBER Work.Pap.29247
Acemo˘ glu D. 2022. Harms of AI. See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/ 9780197579329.013.65
AISafetySummit. 2023.TheBletchleyDeclarationbycountriesattendingtheAISafetySummit,1–2Novem ber 2023. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2 november-2023
Allen D, Hubbard S, Lim W, Stanger A, Wagman S, Zalesne K. 2024. A roadmap for governing AI: technology governance and power sharing liberalism. Work. Pap., Ash Cent. Democr. Gov. Innov., Harvard Kennedy School, Cambridge, MA. https://www.youtube.com/watch?v=0j0xzuh-6rYhttps://ash.harvard.edu/ publications/roadmap-governing-ai-technology-governance-and-power-sharing-liberalism
Altman S,Brockman G,Sutskever I.2023.Governance of superintelligence.OpenAI,May 22.https://openai. com/blog/governance-of-superintelligence
Amodei D. 2023. Written testimony of Dario Amodei, PhD, co-founder and CEO, Anthropic: for a hear ing on “Oversight of A.I.: Principles for Regulation” before the Judiciary Committee Subcommittee on Privacy, Technology, and the Law. US Senate, July 25. https://www.judiciary.senate.gov/imo/media/ doc/2023-07-26_-_testimony_-_amodei.pdf
Anderljung M, Barnhart J, Kolinek A, Leung J. 2023. Frontier AI regulation: managing emerging risks to public safety. arXiv:2307.03718 [cs.CY]
Anderljung M, Hazell J. 2023. Protecting society from AI misuse: When are restrictions on capabilities warranted? arXiv:2303.09377 [cs.AI]
Anthropic 2023a. Frontier model security. Anthropic, July 25. https://www.anthropic.com/news/frontier model-security
Anthropic 2023b.Frontier threats: red teaming for AI safety.Anthropic,July 26.https://www.anthropic.com/ news/frontier-threats-red-teaming-for-ai-safety
Arsenault A, Kreps S. 2022. AI and international politics. See Bullock et al. 2022, https://doi.org/10.1093/ oxfordhb/9780197579329.013.49
Askell A, Brundage M, Hadfield G. 2019. The role of cooperation in responsible AI development. arXiv:1907.04534 [cs.CY]
Bajraktari Y, Gable M, Ponmakha A. 2023. Generative AI: the future of innovation power. Rep. Spec. Compet. Stud. Proj., Arlington, VA. https://www.scsp.ai/wp-content/uploads/2023/09/GenAI-web.pdf
Barrett AM, Hendrycks D,Newman J,Nonnecke B.2023.Actionable guidance for high-consequence AI risk management: towards standards addressing AI catastrophic risks. arXiv:2206.08966 [cs.CY]
Belfield H. 2022. Compute and antitrust. Verfassungsblog: On Matters Constitutional, Aug. 19. https:// verfassungsblog.de/compute-and-antitrust/
Blumenthal R, Hawley J. 2023. Bipartisan framework for U.S. AI Act. Sep. 7. Richard Blumen thal, for Connecticut. 09072023bipartisanaiframework.pdf https://www.blumenthal.senate.gov/imo/media/doc/
Boix C. 2022. AI and the economic and informational foundations of democracy. See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.64
BommasaniR, HashimotoT,HoD,SchaakeM,LiangP.2023b.Towardscompromise: a concrete two-tier proposal for foundation models in the EU AI Act. Work. Pap., Cent. Res. Found. Models, Stanford Univ., Stanford, CA. https://crfm.stanford.edu/2023/12/01/ai-act-compromise.html
Bommasani R,Kapoor S,Zhang D,Narayanan A,Liang P.2023c.June 12 letter to the Department of Commerce. Cent. Res. Found. Models, Stanford Univ., Stanford, CA. https://hai.stanford.edu/sites/default/files/ 2023-06/Reponse-to-NTIAs-.pdf
Bommasani R, Klyman K,Zhang D,Liang P. 2023a. Do foundation model providers comply with the draft EU AI Act? Work. Pap., Cent. Res. Found. Models, Stanford Univ., Stanford, CA
Boulanin V, Saalman L, Topychkanov P, Su F, Peldán C. 2020. Artificial Intelligence, Strategic Stability and Nuclear Risk. Stockholm: Stockholm Int. Peace Res. Inst. https://www.sipri.org/publications/2020/ policy-reports/artificial-intelligence-strategic-stability-and-nuclear-risk
Bradford A. 2020. The Brussels Effect: How the European Union Rules the World. New York: Oxford Univ. Press
Bradford A. 2023a. Digital Empires: The Global Battle to Regulate Technology. New York: Oxford Univ. Press
Bradford A. 2023b. The race to regulate artificial intelligence. Foreign Aff., June 27. https://www. foreignaffairs.com/united-states/race-regulate-artificial-intelligence.
Bremmer I, Suleyman M. 2023. The AI power paradox. Foreign Aff., Aug. 16. https://www.foreignaffairs com/world/artificial-intelligence-power-paradox.
Bucknall B,Trager R.2023.Structured access for third-party research on frontier AI models: investigating researchers’ model access requirements. Rep., Cent. Gov. AI, Oxford Univ., Oxford, UK. https://cdn.governance.ai/ Structured_Access_for_Third-Party_Research.pdf
Bullock JB, Chen Y-C, Himmelreich J, Hudson VM, Korinek A, et al., eds. 2022. The Oxford Handbook of AI Governance. New York: Oxford Univ. Press
Casper S, Davies X, Shi C, Gilbert TK, Scheurer J, et al. 2023. Open problems and fundamental limitations of reinforcement learning from human feedback. arXiv:2307.15217 [cs.AI] Cent. AI Safety. 2023. Statement on AI risk. Cent. AI Safety. https://www.safe.ai/statement-on-ai-risk
Clement-Jones L. 2023. The Westminster Parliament’s impact on UK AI strategy. In Missing Links in AI Governance, ed. B Prud’homme, C Régis, G Farnadi, pp. 191–209. Paris: UNESCO
DafoeA.2018.AIgovernance:aresearchagenda.Rep.FutureHumanit.Inst.,Univ.Oxford,Oxford,UK.https:// www.fhi.ox.ac.uk/wp-content/uploads/GovAI-Agenda.pdf
Dafoe A. 2022. AI governance: overview and theoretical lenses. See Bullock et al. 2022, https://doi.org/10. 1093/oxfordhb/9780197579329.013.2
Danks D. 2022. Governance via explainability. See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/ 9780197579329.013.11
Danzig R.2018.Technology roulette: managing loss of control as many militaries pursue technological superiority. Rep. Cent. New Am. Secur., Washington, DC. https://www.cnas.org/publications/reports/technology roulette
Davidson T. 2023. What a compute-centric framework says about takeoff speeds. Lesswrong Online Forum, Jan.22.https://www.lesswrong.com/posts/Gc9FGtdXhK9sCSEYu/what-a-compute centric-framework-says-about-ai-takeoff
Ding J. 2022. Dueling perspectives in AI and U.S.–China relations: technonationalism vs. technoglobalism. See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.53
Dobbe R. 2022. System safety and artificial intelligence. See Bullock et al. 2022, https://doi.org/10.1093/ oxfordhb/9780197579329.013.67
Egan J, Heim L. 2023. Oversight for frontier AI through a know-your-customer scheme for compute providers. arXiv:2310.13625 [cs.CY] Erdil.
E,BesirogluT.2023.ExplosivegrowthfromAIautomation:areviewofthearguments.arXiv:2309.11690 [econ.GN]
Espinoza J, Criddle C, Liu Q. 2023. The global race to set the rules for AI. Financ. Times, Sep. 13. https:// www.ft.com/content/59b9ef36-771f-4f91-89d1-ef89f4a2ec4e
European Parliament. 2024. The principle of subsidiarity. Fact Sheet Eur. Union. https://www.europarl. europa.eu/erpl-app-public/factsheets/pdf/en/FTU_1.2.2.pdf
Fischer S-C, Leung J, Anderljung M, O’Keefe C, Torges S, et al. 2021.. AI policy levers: a review of the U.S. government’s tools to shape AI research, development, and deployment. Rep. Cent. Gov. AI , Future Humanit. Inst., Univ. Oxford, Oxford, UK:. https://www.fhi.ox.ac.uk/wp-content/uploads/2021/03/AI-Policy-Levers-A-Review-of-the-U.S.-Governments-tools-to-shape-AI-research-development-and-deployment—-Fischer-et-al.pdf
Fist T, Heim L, Schneider J. 2023.. Chinese firms are evading chip controls. . Foreign Policy, June 21. https://foreignpolicy.com/2023/06/21/china-united-states-semiconductor-chips-sanctions-evasion/ [Google Scholar]
Future of Life Inst. 2023.. Pause giant AI experiments: an open letter. . Future of Life, Mar. 22. https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [Google Scholar]
Ganguli D, Hernandez D, Lovitt L, DasSarma N, Henighan T, et al. 2022.. Predictability and surprise in large generative models. . In FAccT ’22: Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 1747–64. New York:: Assoc. Comput. Mach. https://dl.acm.org/doi/pdf/10.1145/3531146.3533229 [Google Scholar]
Gopal A, Helm-Burger N, Justen L, Soice EH, Tzeng T, et al. 2023.. Will releasing the weights of future large language models grant widespread access to pandemic agents?. arXiv:2310.18233 [cs.AI]
Graham L, Warren E. 2023.. When it comes to Big Tech, enough is enough. . N. Y. Times, July 27. https://www.nytimes.com/2023/07/27/opinion/lindsey-graham-elizabeth-warren-big-tech-regulation.html [Google Scholar]
Gray ML, Suri S. 2019.. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Boston:: Houghton Mifflin Harcourt [Google Scholar]
Guszcza J, Danks D, Fox CR, Hammond KJ, Ho DE, et al. 2022.. Hybrid intelligence: a paradigm for more responsible practice. Soc. Sci. Res. Netw. http://dx.doi.org/10.2139/ssrn.4301478 [Crossref] [Google Scholar]
gwern. 2023.. Douglas Hofstadter changes his mind on deep learning & AI risk. . Lesswrong Online Forum, July 2. https://www.lesswrong.com/posts/kAmgdEjq2eYQkB5PP/douglas-hofstadter-changes-his-mind-on-deep-learning-and-ai [Google Scholar]
Harari Y. 2017.. Reboot for the AI revolution. . Nature 550::324–27 [Crossref] [Google Scholar]
Hawley J. 2021.. The Tyranny of Big Tech. Washington, DC:: Regnery [Google Scholar]
Heidegger M. 1977.. The Question Concerning Technology, and Other Essays., transl. W Lovitt. New York:: Garland [Google Scholar]
Ho L, Barnhart J, Trager R, Bengio Y, Brundage M, et al. 2023.. International institutions for advanced AI. . arXiv:2307.04699 [cs.CY]
Hoffman M. 2023.. The EU AI Act: a primer. . CSET Blog, Sep. 26, Cent. Secur. Emerg. Technol. , Georgetown Univ., Washington, DC:. https://cset.georgetown.edu/article/the-eu-ai-act-a-primer/ [Google Scholar]
Hoos H, Irgens M. 2023.. “AI made in Europe”—boost it or lose it. CLAIRE Statement on Future of AI in Europe, June 26 . Confed. Lab. Artif. Intell. Eur., The Hague, Neth.: https://claire-ai.org/wp-content/uploads/2023/06/CLAIRE-Statement-on-Future-of-AI-in-Europe-2023-1.pdf [Google Scholar]
Horowitz M, Pindyck S, Mahoney C. 2022.. AI, the international balance of power, and national security strategy. . See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.55 [Crossref]
Horowitz M, Scharre P. 2021.. AI and international stability: risks and confidence-building measures. Rep. Cent. New Am. Secur., Jan. 12. https://www.cnas.org/publications/reports/ai-and-international-stability-risks-and-confidence-building-measures [Google Scholar]
Jervis R. 1997.. System Effects: Complexity in Political and Social Life. Princeton, NJ:: Princeton Univ. Press [Google Scholar]
Kauffman S. 2008.. Reinventing the Sacred: A New View of Science, Reason, and Religion. New York:: Basic Books [Google Scholar]
Khan LM. 2017.. Amazon’s antitrust paradox. . Yale Law J. 126:(3):710–805 [Google Scholar]
Knight W. 2023.. OpenAI’s CEO says the age of giant AI models is already over. . WIRED, Apr. 17. https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/ [Google Scholar]
Kokas A. 2023.. Trafficking Data: How China Is Winning the Battle for Digital Sovereignty. New York:: Oxford Univ. Press [Google Scholar]
Kurzweil R. 2006.. The Singularity Is Near: When Humans Transcend Biology. New York:: Penguin [Google Scholar]
Landemore H. 2020.. Open Democracy: Reinventing Popular Rule for the Twenty-First Century. Princeton, NJ:: Princeton Univ. Press [Google Scholar]
Lanier J, Stanger A. 2024.. The one internet hack that could save everything. . Wired, Feb. 13. https://www.wired.com/story/the-one-internet-hack-that-could-save-everything-section-230/ [Google Scholar]
Lanier J, Weyl EG. 2018.. A blueprint for a better digital society. . Harvard Bus. Rev., Sep. 26. https://hbr.org/2018/09/a-blueprint-for-a-better-digital-society [Google Scholar]
Larsen B. 2022.. The geopolitics of AI and the rise of digital sovereignty. . Brookings, Dec. 8. https://www.brookings.edu/articles/the-geopolitics-of-ai-and-the-rise-of-digital-sovereignty/ [Google Scholar]
Lazar S. 2022.. Power and AI: nature and justification. . See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.12 [Crossref]
Lee EA. 2023.. Edward A. Lee: Deep neural networks, explanations, and rationality. Lecture presented in 2nd Digital Humanism Summer School 2023, Sep. 6. https://www.youtube.com/watch?v=yva7kPCQ2lc [Google Scholar]
Lessig L. 2006.. Code: Version 2.0. New York:: Basic Books [Google Scholar]
Lipton E. 2023.. A.I. brings the robot wingman to aerial combat. . N. Y. Times, Aug. 27. https://www.nytimes.com/2023/08/27/us/politics/ai-air-force.html [Google Scholar]
Maas MM, Villalobos JJ. 2023.. International AI institutions: a literature review of models, examples, and proposals. Soc. Sci. Res. Netw. https://doi.org/10.2139/ssrn.4579773 [Crossref] [Google Scholar]
Maslej N, Fattorini L, Brynjolfsson E, Etchemendy J, Ligett K, et al. 2023.. The AI Index 2023 annual report. Rep. Inst. Hum.-Cent. Artif. Intell. , Stanford Univ., Stanford, CA:. https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf [Google Scholar]
Matthews D. 2023.. The AI rules that US policymakers are considering, explained. . Vox, Aug. 1. https://www.vox.com/future-perfect/23775650/ai-regulation-openai-gpt-anthropic-midjourney-stable [Google Scholar]
McKean BL. 2022.. Disorienting Neoliberalism: Global Justice and the Outer Limit of Freedom. New York:: Oxford Univ. Press [Google Scholar]
Microsoft. 2023.. Microsoft, Anthropic, Google, and OpenAI launch Frontier Model Forum. . Microsoft On the Issues Blog, Jul. 26. https://blogs.microsoft.com/on-the-issues/2023/07/26/anthropic-google-microsoft-openai-launch-frontier-model-forum/ [Google Scholar]
Miller C. 2022.. Chip Wars: The Fight for the World’s Most Critical Technology. New York:: Scribner [Google Scholar]
Mitchell M 2020.. Artificial Intelligence: A Guide for Thinking Humans. New York:: Picador [Google Scholar]
Mitchell M. 2023.. Can large language models reason?. AI: A Guide for Thinking Humans Substack, Sep. 10. https://aiguide.substack.com/p/can-large-language-models-reason [Google Scholar]
Mullainathan S, Obermeyer Z. 2021.. On the inequity of predicting A while hoping for B. . AEA Pap. Proc. 111::37–42 [Crossref] [Google Scholar]
Noble S. 2018.. Algorithms of Oppression: How Search Engines Reinforce Racism. New York:: NYU Press [Google Scholar]
O’Neil C. 2016.. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York:: Crown [Google Scholar]
Ord T. 2022.. Lessons from the development of the atomic bomb. Rep. Cent. Gov. AI , Oxford Univ., Oxford, UK:. https://cdn.governance.ai/Ord_lessons_atomic_bomb_2022.pdf [Google Scholar]
Ovadya A. 2022.. Bridging-based ranking. Rep. Belfer Cent. Sci. Int. Aff. , Harvard Kennedy Sch., Cambridge, MA:. https://www.belfercenter.org/sites/default/files/files/publication/TAPP-Aviv_BridgingBasedRanking_FINAL_220518_0.pdf [Google Scholar]
Park PS, Goldstein S, O’Gara A, Chen M, Hendrycks D. 2023.. AI deception: a survey of examples, risks, and potential solutions. . arXiv:2308.14752 [cs.CY]
Patel D, Ahmad A. 2023.. Google “we have no moat, and neither does OpenAI. .” SemiAnalysis, May 4. https://www.semianalysis.com/p/google-we-have-no-moat-and-neither [Google Scholar]
Pearson M, Rithmire M, Tsai K 2022.. China’s party-state capitalism and international backlash: from interdependence to insecurity. . Int. Secur. 47:(2):135–76 [Crossref] [Google Scholar]
Rees T. 2022.. Non-human words: on GPT-3 as a philosophical laboratory. . Daedalus 151::168–82 [Crossref] [Google Scholar]
Rescorla M. 2020.. The computational theory of mind. . In Stanford Encyclopedia of Philosophy Archive, ed. EN Zalta. https://plato.stanford.edu/archives/fall2020/entries/computational-mind/ [Google Scholar]
Russell S. 2022.. Banning lethal autonomous weapons: an education. . Issues Sci. Technol. Spring :60–65. https://issues.org/wp-content/uploads/2022/04/60-65-Russell-Lethal-Autonomous-Weapons-Spring-2022.pdf [Google Scholar]
Sandbrink JB. 2023.. Artificial intelligence and biological misuse: differentiating risks of language models and biological design tools. . arXiv:2306.13952 [cs.CY]
Schaeffer R, Miranda B, Koyejo S. 2023.. Are emergent abilities of large language models a mirage?. arXiv:2304.15004 [cs.AI]
Schlott L. 2023.. China is hurting our kids with TikTok but protecting its own youth with Douyin. . N. Y. Post, Feb. 26. https://nypost.com/2023/02/25/china-is-hurting-us-kids-with-tiktok-but-protecting-its-own/ [Google Scholar]
Seger E, Dreksler N, Moulange R, Dardaman E, Schuett J, et al. 2023.. Open-sourcing highly capable foundation models. Rep. Cent. Gov. AI , Oxford Univ., Oxford, UK:. https://cdn.governance.ai/Open-Sourcing_Highly_Capable_Foundation_Models_2023_GovAI.pdf [Google Scholar]
Sheehan M. 2023.. Reverse engineering Chinese AI governance: China’s AI regulations and how they get made. Rep. Carnegie Endow. Int. Peace, Washington, DC:. https://carnegieendowment.org/files/202307-Sheehan_Chinese%20AI%20gov.pdf [Google Scholar]
Shevlane T, Farquhar S, Garfinkel B, Phuong M, Whittlestone J, et al. 2023.. Model evaluation for extreme risks. . arXiv:2305.15324 [cs.AI]
Smith G, Kessler S, Alstott J, Mitre J. 2023.. Industry and Government Collaboration on Security Guardrails for AI Systems: Summary of the AI Safety and Security Workshops. Santa Monica, CA:: RAND [Google Scholar]
Soice EH, Rocha R, Cordova K, Specter M, Esvelt KM. 2023.. Can large language models democratize access to dual-use biotechnology?. arXiv:2306.03809 [cs.CY]
Stanger A. 2019.. Whistleblowers: Honesty in America from Washington to Trump. New Haven, CT:: Yale Univ. Press [Google Scholar]
Stanger A. 2020.. Consumers versus citizens in democracy’s public sphere. . Commun. ACM 63:(7):29–31 [Crossref] [Google Scholar]
Stanger A. 2021.. Digital humanism and democracy in geopolitical context. Digital Humanism Sem. Ser. , TU Wien, June 15. https://www.youtube.com/watch?v=ELeR1ViNiUQ [Google Scholar]
Stanger A. 2024.. The First Amendment meets Big Tech. . Daedalus. In press [Google Scholar]
Stiglitz JE. 2002.. Globalization and Its Discontents. New York:: W. W. Norton [Google Scholar]
Strittmatter K. 2020.. We Have Been Harmonized: Life in China’s Surveillance State. New York:: Custom House [Google Scholar]
Susskind RE, Susskind D. 2022.. The Future of the Professions: How Technology Will Transform the Work of Human Experts. Oxford, UK:: Oxford Univ. Press [Google Scholar]
Tang A, Landemore H. 2021.. Taiwan’s digital democracy, collaborative civic technologies, and beneficial information flows. Rep. Cent. Gov. AI , Oxford Univ., Oxford, UK:, Mar. 9. https://www.governance.ai/post/audrey-tang-and-helene-landemore-on-taiwans-digital-democracy-collaborative-civic-technologies-and-beneficial-information-flows [Google Scholar]
Teachout Z. 2020.. Break ’Em Up: Recovering Our Freedom from Big Ag, Big Tech, and Big Money. New York:: All Points Books [Google Scholar]
Toner H, Xiao J, Ding J. 2023.. The illusion of China’s AI prowess. . Foreign Aff., June 2. https://www.foreignaffairs.com/china/illusion-chinas-ai-prowess-regulation [Google Scholar]
Touvron H, Martin L, Stone K, Albert P, Almahairi A, et al. 2023.. Llama 2: open foundation and fine-tuned chat models. . arXiv:2307.09288 [cs.CL]
Trager R, Harack B, Reuel A, Carnegie A, Heim L, et al. 2023.. International governance of civilian AI: a jurisdictional certification approach. . arXiv:2308.15514 [cs.AI]
Viehoff J. 2022.. Beyond justice: artificial intelligence and the value of community. . See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.71 [Crossref]
Vipra J, Myers West S. 2023.. Computational Power and AI. AI Now Inst. https://ainowinstitute.org/wp-content/uploads/2023/09/AI-Now_Computational-Power-an-AI.pdf [Google Scholar]
Von der Leyen U. 2023.. Statement by President von der Leyen at Session III of the G20, “One Future. .” Eur. Comm., Sep. 10, New Delhi. https://ec.europa.eu/commission/presscorner/detail/en/statement_23_4424 [Google Scholar]
von Neumann J. 1963.. Collected Works, VI, , 504–19. Oxford, UK:: Pergamon [Google Scholar]
Vredenburgh K. 2022.. Fairness. . See Bullock et al. 2022, https://doi.org/10.1093/oxfordhb/9780197579329.013.8 [Crossref]
Wei J, Tay Y, Bommasani R, Raffel C, Zoph B, et al. 2022.. Emergent abilities of large language models. . arXiv:2206.07682 [cs.CL]
Weissinger L. 2022.. AI, complexity, and regulation. . See Bullock etal.2022,https://doi.org/10.1093/oxfordhb/9780197579329.013.66 [Crossref]
White House. 2023a.. Biden-Harris administration launches artificial intelligence cyber challenge to protect America’s critical software. Statement, Aug. 9, Briefing Room , White House, Washington, DC:. https://www.whitehouse.gov/briefing-room/statements-releases/2023/08/09/biden-harris-administration-launches-artificial-intelligence-cyber-challenge-to-protect-americas-critical-software/ [Google Scholar]
White House. 2023b.. Blueprint for an AI Bill of Rights. White Pap., Off. Sci. Technol. Policy , White House, Washington, DC:. https://www.whitehouse.gov/ostp/ai-bill-of-rights/ [Google Scholar]
White House. 2023c.. President Biden issues executive order on safe, secure, and trustworthy artificial intelligence. Fact Sheet, Oct. 30, Briefing Room , White House, Washington, DC:. https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/ [Google Scholar]
White House. 2023d.. Biden-Harris administration secures voluntary commitments from leading artificial intelligence companies to manage the risks posed by AI. Fact Sheet, July 21, Briefing Room , White House, Washington, DC:. https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/ [Google Scholar]
White House. 2023e.. Executive Order on the safe, secure, and trustworthy development of artificial intelligence. Exec. Order, Oct. 30, Briefing Room , White House, Washington, DC:. https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ [Google Scholar]
Zuboff S. 2019.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York:: Public Affairs [Google Scholar]