لا يجوز للذكاء الاصطناعي أن يفعل ما يشاء. يبدو هذا الأمر واضحًا للجميع، فالاتحاد الأوروبي ومجلس أوروبا يعملان على وضع تشريعات لذلك.
سواء أكان ذلك على مواقع التواصل الاجتماعي، في الطب، في برامج المحادثة أم في العربات التي تتمتع جزئيًّا بالقيادة الذاتية، وسواء أكان ذلك يعجبنا أم لا، فقد أصبح الذكاء الاصطناعي جزءًا من حياتنا اليومية.
وحذر خبراء سويسريون قبل وقتٍ قصير من مخاطر الذكاء الاصطناعي، فكتبوا “إن تخفيض المخاطر يجب أن يتمتع بأولوية عالمية”.
وقالت أنجيلا مولّر مديرة “لوغاريتم ووتش” لوكالة “سويس أنفو”، وهي منظمة مجتمع مدني تراقب بشكلٍ شديد تطور الخوارزميات “إن الأمر يتعلق أيضًا بحقوق الإنسان وسيادة دولة القانون والديمقراطية، وإن العواقب السلبية المحتملة للذكاء الاصطناعي يمكن الوقوف عليها منذ الآن”، وتشير هنا إلى ما يسمّى “قضية مخصصات الأطفال” في هولندا، والتي أدت إلى تمييز عنصري بسبب خوارزمية. وبالنسبة إلى مولّر فإن تنظيم الذكاء الاصطناعي “أمرٌ عاجل تبعا لذلك”.
كذلك يرى توماس شنايدر نائب مدير المكتب الفدرالي للاتصالات في سويسرا أن “البيانات زيت وقود جديد لمحركاتٍ جديدة، هي أنظمة الذكاء الاصطناعي”، ويقول “إننا نعي بأن هذه القضايا مهمة، وإننا يجب أن نجد لها حلولًا”. لكن شنايدر الذي هو أيضًا رئيس لجنة الذكاء الاصطناعي في مجلس أوروبا، يعتقد بأنه “يجب هنا الاختيار بين حل فاعل وآخر سريع، لذلك فإن سويسرا تتجنب اتخاذ موقف متسرع”.
ووفقًا لشنايدر فإنه “حتى الآن لم تقم أي دولة من دول منظمة التعاون والتنمية الاقتصادية بإقرار قواعد خاصة بالذكاء الاصطناعي”.
ويُعد الاتحاد الأوروبي الأكثر تقدّمًا في هذا المجال، ففي الرابع عشر من يونيو اتفق البرلمان الأوروبي على أول مسودة لما يسمى وثيقة الذكاء الاصطناعي، ويريد، بالإضافة إلى أشياء أخرى، منع التطبيقات الخطيرة جدًّا، كبرامج التعرف الفوري على الوجوه المعمول بها مثلًا في الصين في نظام الرصيد الاجتماعي، أو ألعاب الأطفال المزوَّدة بمساعد لغوي يمكن أن ينحرف بالأطفال نحو تصرف خطير.
ويشعر مجلس أوروبا أيضًا “كحارس لحقوق الإنسان” بأنه مكلف بتشكيل أداته القانونية للذكاء الاصطناعي.
وتؤكّد مولّر على أن “اتفاقية مجلس أوروبا لا تنافس لائحة الاتحاد الأوروبي، إنما تكملها، لأنها تتبع مناهج مختلفة”، ففي الاتحاد الأوروبي يجب تنظيم الذكاء الاصطناعي من خلال سلامة المنتَج.
ويظهر بوضوح بأنه سوف لا يكون هناك قانون واحد للذكاء الاصطناعي.
ويقارن شنايدر الذكاء الاصطناعي بالمحركات التي لكل منها قوانينها المحددة ونظمها، وذلك وفقًا لاستخداماتها. فالذكاء الاصطناعي أيضًا يستخدم في مجالاتٍ مختلفة.
ويقول “إن الأمر يتطلب واقيات مختلفة لحوافِّ مسارات مختلفة، فعندما نحتاج إلى نظام ذكاء اصطناعي لبث الموسيقى، فإن ذلك لا تأثير له مثل تأثير الخوارزمية ذاتها التي تقترح على طاقم طبي أن تكون المعالجة القادمة من خلال عملية قلب. لذلك فإن قانونًا واحدًا لا يكفي، وذلك أمرٌ يعيه الاتحاد الأوروبي”.
ووفقًا لشنايدر فإن “هناك ما يقارب ثلاثين نموذجًا في الاتحاد الأوروبي تخص المجال الرقمي وحده” ويشدد على أن ”السؤال الذي يجب أن نطرحه على أنفسنا هو: ما الذي لا نستطيع تنظيمه من خلال قوانيننا المعمول بها؟”.
وتوافقه مولّر على ذلك بالقول “إننا لا نتحرك حاليًّا في فضاءٍ خالٍ من القوانين، فالقوانين موجودة بدءًا من الدستور وحماية الحقوق الأساسية، لكن الأمر يتعلق الآن بسد الثغرات التي تنشأ من خلال التحديات التي يضعنا الذكاء الاصطناعي في مواجهتها”.
لكنه واضحٌ أيضًا بالنسبة إلى مولّر بأن الأمر لن يكون ممكنًا هكذا “قانون، ثم كل شيء يكون جيدًا”، حيث يتعلق الأمر بـ”الحماية من التمييز، وبالحقوق الأساسية، وحقوق الملكية الفكرية، وقانون المنافسة، وقانون الإدارة، والكثير من المجالات الحقوقية والقانونية المختلفة”.
ويجري حاليا النقاش حول تنظيم الذكاء الاصطناعي في العديد من البلدان، وتدرس دول مختلفة مثل سويسرا خيارات مختلفة، ويشير شنايدر إلى أن “الجميع يترقب ما إذا سيكون فاعلًا ذلك الذي سيتمخض عنه الاتحاد الأوروبي”، ويخمّن بـ”أن سويسرا سوف لن تتحرك في اتجاه مختلف تمامًا عمّا ستنص عليه تشريعات الاتحاد الأوروبي”. ثم يضيف “في الواقع نحن لا ننتمي إلى الحالة العادية للبلدان التي تنتظر وتترقب، بل البلدان التي تحلل وتفكر في خيارات، ولكنها لم تتخذ قرارًا بعد”. ويرى أنه “بمجرد الانطلاق سيكون هناك مسارٌ يجب إجراء التعديلات عليه على مدى سنوات أو عقود”.
وتؤكد مولّر أن “الاتحاد الأوروبي يحاول بقوانينه أن يمنع ذلك، على الأقل في نطاقه الإقليمي”، وتشير إلى “أن القواعد التي يضعها الاتحاد الأوروبي ستكون موجبة التطبيق على الشركات الموجودة في الخارج عندما تريد تقديم منتجاتها داخل الاتحاد الأوروبي”.
وتقول إنه “من المرجح أن يولّد القطاع الصناعي ضغطًا سياسيًّا لضمان الطُّمَأنينة القانونية في هذا المجال”.
وهنا تُطرح أيضًا قضية المسؤولية، ومن يتحملها إذا انتهك أحد تطبيقات الذكاء الاصطناعي القواعد القانونية؟ وحول هذه المسألة يتناقش حاليًّا مؤتمر علمي حول الشفافية في الولايات المتحدة.
وفي هذا الصدد تؤكد مولّر بأن “الذنب لا يتحمله الكمبيوتر، لأنه غير مؤهل لذلك، والمسؤولية يتحملها دائمًا الأشخاص الذين يطورون هذه الأنظمة، أو الذين سيستخدمونها لمصالح محددة”.
وتختم مولّر بالقول “يجب أن يكون ممكنًا تحميلهم الذنب أيضًا، وإذا لم يعد بوسعنا ذلك، فإننا سنقضي على شرطٍ مهم من شروط دولة القانون”.