حدّثت شركة غوغل الثلاثاء مبادئها التي تحكم تطوير الذكاء الاصطناعي، متراجعة عن وعدها بعدم استخدام التكنولوجيا في تطوير الأسلحة وأنظمة المراقبة، وذلك بعد مرور أسبوعين على تنصيب الرئيس الأميركي دونالد ترامب، في انعكاس يربطه مراقبون بتأثير شعبوية ترامب السياسية على تطبيقات الذكاء الاصطناعي.
وتعتبر غوغل أن استخدام التكنولوجيا في تطوير الأسلحة وأنظمة المراقبة صار منتشرا ولا يقبل التقييد، وأن أي تقييد سيضرها لأنها تقيد نفسها بنفسها بينما الآخرون يقومون بما يحلو لهم.
ولم يعد عدد كبير من الالتزامات التي تم التعهد بها سنة 2018 من شركة غوغل يظهر في وثيقة تحمل عنوان “مبادئنا”.
ويبدو أن الشركة قد تراجعت عن وعودها بعدم السعي إلى تطوير “أسلحة أو تكنولوجيات أخرى هدفها الأساسي (…) إيذاء الناس،” و”تقنيات تجمع أو تستخدم معلومات لأغراض المراقبة منتهكة بالتالي المعايير المقبولة عالميا”، و”تقنيات يتعارض غرضها مع مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع.”
تظهر هذه الجمل في مدوّنة “الذكاء الاصطناعي لدى غوغل: مبادئنا” المنشورة في يونيو 2018، والتي باتت تشير إلى “تحديثات” تمت الثلاثاء مرفقة بروابط نحو الوثيقة الجديدة.
ويأتي هذا التحديث بعدما ألغى دونالد ترامب، ما إن استلم السلطة، أمرا تنفيذيا أصدره سلفه جو بايدن بشأن أمن الذكاء الاصطناعي.
ومُذاك أصبحت التزامات الشركات في هذا القطاع أقل، إذ لم تعد مُلزمة مثلا بالتحدث عن نتائج الاختبارات عندما تمثل برامجها “خطرا جسيما في ما يتعلق بالأمن القومي، أو الأمن الاقتصادي الوطني، أو الصحة العامة.”
وفي حديث إلى وكالة فرانس برس رفض ناطق باسم غوغل تأكيد أي مبدأ تم تعديله أو حذفه، مشيرا ببساطة إلى التقرير الذي نشرته الشركة الثلاثاء بعنوان “الذكاء الاصطناعي المسؤول”.
وقال معدّا التقرير جيمس مانيكا، نائب رئيس الشركة، وديميس هاسابيس، رئيس “غوغل ديب مايند” المتخصصة في الذكاء الاصطناعي والتابعة لغوغل، “لقد نشرنا تقريرا سنويا عن الشفافية منذ سنة 2019.”
وأكّدا أن السياق المحيط بالذكاء الاصطناعي قد تغيّر كثيرا منذ عام 2018. وشددا على أنّ “مليارات الأشخاص باتوا يستخدمون الذكاء الاصطناعي في حياتهم اليومية،” مضيفين “لقد تحول الذكاء الاصطناعي من كونه موضوع بحث في المختبر إلى تقنية منتشرة في كل مكان، بدءا من الهواتف المحمولة وصولا إلى الإنترنت نفسه.”
وتطرقا أيضا إلى تطوّر المعايير والصراعات الجيوسياسية بشأن الذكاء الاصطناعي، وهما من الأسباب التي دفعت الشركة إلى تحديث مبادئها التوجيهية. وأكّدا أنهما سيواصلان النظر في ما إذا كانت الفوائد تفوق المخاطر المحتملة على أساس كل حالة على حدة.
وبعد استلام مهامه الرئاسية وقّع ترامب أمرا تنفيذيا بخصوص الذكاء الاصطناعي، والذي من شأنه أن يلغي السياسات الحكومية السابقة التي يقول أمره إنها “تعد حواجز أمام الابتكار الأميركي في مجال الذكاء الاصطناعي.”
ولتأكيد الريادة العالمية في تكنولوجيا الذكاء الاصطناعي يقول أمر ترامب “يجب علينا تطوير أنظمة ذكاء اصطناعي خالية من التحيز الأيديولوجي أو الأجندات المبنية على أساس اجتماعي.”
وكانت إدارة بايدن قد أصدرت العام الماضي توجيها سياسيا يقضي بأن تقوم الوكالات الاتحادية الأميركية بإثبات أن أدوات الذكاء الاصطناعي الخاصة بها لا تضر الجمهور، أو التوقف عن استخدامها.
ويوجه أمر ترامب البيت الأبيض بمراجعة وإعادة إصدار هذه التوجيهات التي تؤثر على كيفية حصول الوكالات على أدوات الذكاء الاصطناعي واستخدامها.
ويركز أمره على “الازدهار البشري”، مرددا لغة الوعد الذي قطعته حملته الانتخابية منذ فترة طويلة بإلغاء سياسة بايدن المتعلقة بالذكاء الاصطناعي بمجرد عودته إلى البيت الأبيض. ويتماشى أيضا مع الأفكار التي يروج لها مستشار ترامب إيلون ماسك، الذي حذر من مخاطر ما يسميه “الذكاء الاصطناعي الواعي” الذي يعكس التحيزات الليبرالية.