انضمت الإمارات إلى مجموعة هيروشيما للذكاء الاصطناعي التي انبثقت عن قمة السبع العام الماضي.
وفي تغريدة على منصة “إكس” في السابع من مايو الحالي، قال وزير الدولة الإماراتي للذكاء الاصطناعي والاقتصاد الرقمي، عمر سلطان العلماء: “كما أعلنت اليابان، فقد تم اختيار الإمارات كواحدة من الدول الأعضاء في مجموعة أصدقاء “عملية هيروشيما للذكاء الاصطناعي” وهي الدولة العربية الوحيدة وكذلك الوحيدة من الشرق الأوسط التي تنضم إلى هذه المجموعة التي تضم الولايات المتحدة، بريطانيا، اليابان، كندا، كوريا الجنوبية وغيرها.”
ورأى العلماء أن ذلك يمثل خطوة كبيرة باتجاه التقدم، وأن الإمارات “تلمع كرمز من رموز الابتكار والتعاون”، وتشق طريقها إلى مستقبل من “الامتياز والتقدم والريادة على الساحة العالمية”.
ما هي مجموعة هيروشيما؟ وماذا تفعل فيها الامارات؟
ما هي أبرز المخاطر؟
تحدد عملية هيروشيما عددا كبيرا من المخاطر المرتبطة بتطور الذكاء الاصطناعي، من بينها انتشار التضليل المعلوماتي وخرق قواعد حقوق الملكية الفكرية، وخرق الخصوصية والبيانات الشخصية، واستخدام الذكاء الاصطناعي في توليد ونشر خطاب الكراهية.
ثم هناك المخاطر السيبرانية، وكذلك المخاطر التي قد تنجم عن القدرة على التحكم بأنظمة مادية والتدخل في عمل البنى التحتية الأساسية، إضافة إلى خطر أن يقوم نموذج من الذكاء الاصطناعي بإنتاج نسخة عن نفسه أو تدريب نماذج أخرى، بشكل خارج عن الحسبان.
ثم، هناك ما سمته تلك الدول المخاطر على “القيم الديمقراطية وحقوق الانسان”.
هل تعد المبادئ والقواعد ملزمة؟
يقول هابوكا إن “كل دولة عليها أن تتحقق من احترام تلك المبادئ والقواعد داخل أراضيها، ودول مجموعة السبع تقوم بهذا الآن”. أما سائر أعضاء المجموعة، فإن التأثير القانوني لديها لا يزال “غير واضح.”
لكن حتى داخل مجموعة السبع، هناك اختلاف بين مقاربتين حيال التشريع والقانون المتعلق بالذكاء الاصطناعي، وفقا لهابوكا.
هناك ميل لدى الاتحاد الأوروبي وكندا للبحث عن مقاربة قانونية صارمة، وإطار شامل لكل أنظمة الذكاء الاصطناعي، وهذا الميل ينعكس في مقاربة الاتحاد وكندا التشريعية لموضوع الذكاء الاصطناعي. أما الولايات المتحدة وبريطانيا واليابان فتميل إلى مقاربة تفصل بين قطاعات مختلفة تستخدم الذكاء الاصطناعي، وكذلك إلى مقاربة أكثر مرونة وطوعية.
لكن هذه الاختلافات وفقا لهابوكو لا تحول بالضرورة دون تطبيق هذه المبادئ والقواعد في كل تلك الدول، وإن بأشكال مختلفة.
فحتى في الدول التي تفضل المقاربة الطوعية، يبقى هناك ضغط السوق والضغط الاجتماعي الذي قد يجبر الشركات على اتباع القواعد والمبادئ. إضافة الى ذلك، حين يلحق أي أذى بحقوق أي طرف بسبب الذكاء الاصطناعي ويصبح الموضوع أمام محكمة، قد يكون احترام مبادئ وقواعد إطار هيروشيما – أو عدمه – عاملا مؤثرا في حكمها. كل هذه الأمور قد تعزز الحوافز لدى الشركات بإعلان الالتزام بمبادئ وقواعد هيروشيما.
نعم، وفقا لهابوكو، على الأقل على المستوى التقني، إذ سيكون إسهام الإمارات “موضع تقدير كبير.”
لكنه يفصل بين الجوانب التقنية والجوانب المجتمعية في الذكاء الاصطناعي التوليدي، مع أنه يقر بصعوبة ذلك الفصل وبأن الخط الفاصل متحرك ومبهم.
لكن من حيث المبدأ فإن المقصود بالجوانب المجتمعية هي المواضيع التي قد تدخل فيها قيم مجتمعية وسياسية وأسئلة صعبة عن كيفية تطبيقها، وكيف يجب أن تنعكس في أنظمة الذكاء الاصطناعي. مثال على ذلك النقاشات حول ما هي أنواع المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي التوليدي الذي يجب حجبه أو تقييده.
وقد تكون هذه المسألة بين الأمور التي تجعل المجموعة غير متحمسة لانضمام دولة كالصين مثلا.
لكن لماذا الإمارات وليس الصين؟ هنا يشير هابوكو إلى أنه رغم أن المجموعة ليست تحالفا عسكريا، إلا أن الذكاء الاصطناعي قد تكون له تطبيقات أمنية وعسكرية حساسة، وبالتالي فإن اصطفاف الدول وتحالفاتها – وعلاقاتها الأمنية والعسكرية – تلعب دورا في مسألة من يدخل هذا النادي ومن يبقى خارجه.
ما أبرز التحديات أمام المجموعة في المستقبل؟
فالمبادئ الإرشادية التي أعلنت عنها المجموعة هي مبادئ عامة. وقواعد السلوك، وإن كانت أكثر تفصيلا من المبادئ، لا تزال تفتقر هي أيضا إلى التفصيل العملي.
ثم هناك قضية التحقق من التزام الشركات، وهو أمر معقد، إذ حتى في الحالات التي تعلن فيها شركات معينة التزامها الطوعي بمبادئ وقواعد هيروشيما، ليست هناك آليات واضحة للتأكد من ذلك.