نجحت واشنطن في الحصول على "التزامات طوعية" من 7 من كبار شركات التكنولوجيا، بضوابط وضعها البيت الأبيض لضمان أمان منتجات الذكاء الاصطناعي التي تقدمها، قبل إطلاقها للمستخدمين.
هذه الالتزامات خطوة في طريق ضبط عمل برامج الذكاء الاصطناعي؛ لتحقيق التوازن بين الاستفادة من مزاياها وخدماتها الفائقة، وبين درء مخاطرها الفائقة أيضا، والتي وُصفت بأنها "تهدد الحضارة البشرية وأمن الإنسان إن لم يُكبح جماحها".
وتقتضي بعض الالتزامات إشراف طرف ثالث على طريقة عمل أنظمة الذكاء الاصطناعي التجارية، دون توضيحات حول من سيقوم بمراجعة التكنولوجيا أو محاسبة الشركات.
وتضم قائمة الشركات التي أعلنت التزاماتها الطوعية: "أمازون" و"غوغل" و"ميتا" و"مايكروسوفت" و "أوبن إيه آي" مطورة تطبيق "تشات جي بي تي"، وشركتي "أنثروبيك" و"إنفليكشن إيه آي" الناشئتين.
ما هي التزامات الشركات؟
وفق بيان البيت الأبيض، فإن الشركات التزمت بالتالي:
إجراء اختبارات أمنية، يقوم بها جزئيا خبراء مستقلون، للحماية من المخاطر الرئيسية مثل الأمن البيولوجي والأمن السيبراني.
الأساليب المتبعة للإبلاغ عن نقاط الضعف والمخاطر في أنظمتها.
استخدام العلامات المائية الرقمية للمساعدة في التمييز بين الصور الحقيقية، وتلك التي يتم إنشاؤها بالذكاء الاصطناعي.
وتهدف الالتزامات الطوعية إلى "تسهيل معالجة المخاطر إلى حين حمل الكونغرس على إصدار قوانين تنظم عمل التكنولوجيا".
مزايا الخطوة الأميركية
خبير التحول الرقمي وأمن المعلومات، زياد عبد التواب، يثمّن في تعليقه لموقع "سكاي نيوز عربية" هذه الخطوة ويصفها بـ"المهمة"، معددا الأسباب والمزايا الخاصة بها،
قائلا:"إنها خطوة استباقية وسريعة، أسرع بكثير من التشريعات المنظمة التي لن تكون كافية بنسخها أو مسوداتها الأولى لضبط أداء منظومات الذكاء الاصطناعي، وستحتاج إلى مزيد من التعديلات في المستقبل".
"التطوّر المهم يتمثل في أن الرقابة ستكون على الأنظمة قبل إطلاقها، وأيضا متابعة عملها بعد الإطلاق؛ لأن الاختبارات القبلية قد لا تظهر كل المخاطر التي قد تطرأ من هذه الأنظمة خلال استخدامها على يد المستخدمين".
"هذه الالتزامات تلزم شركات تطوير منظومة الذكاء الاصطناعي بأن تخضع لمجموعة اختبارات داخلية؛ بمعنى اختبار للخوارزميات، وأسلوب عمل هذه التطبيقات، وأيضا اختبار من وجهة نظر المستخدمين للتأكد من سلامتها والتزامها بالمعايير المطلوبة لتكون في الحدود الآمنة".
"الالتزامات الطوعية نقلة كبيرة على طريق تطبيق المعايير الأخلاقية والسلامة في تطوير الذكاء الاصطناعي، ونأمل أن يبدأ الكونغرس بمناقشة التشريعات المطلوبة لتطوير واستخدام تطبيقاته".
"رغم أن البيت الأبيض لم يوضح من سيقوم بمراقبة هذه الأنظمة، لكن متوقع أن يتم إنشاء وحدة يرأسها هو وخبراء بمجال التكنولوجيا لتقوم بالمهمة حاليا، حتى يتم بلورة الأمر، ومتوقع أيضا إنشاء هيئة خاصة لهذا الأمر مستقبلا".
الضوابط "لا تقتل الإبداع"
ولا يتفق عبد التواب مع الرأي المعترض على وضع ضوابط وقوانين لعمل تقنيات الذكاء الاصطناعي، والذي يعتبر أن هذه الضوابط "قد تقتل الإبداع وتحد الابتكار وتُقلق المستثمرين".
ويرد خبير التحول الرقمي بأن "وجود محددات للعمل في هذا المجال، سواء بالالتزامات الطوعية أو الأوامر التنفيذية التي ستصدر في الولايات المتحدة والاتحاد الأوروبي، هو أمر ضروري جدا".
ويُرجع ذلك إلى أنه "لا يمكن ترك الذكاء الاصطناعي دون أي تنظيم، خاصة أن بعض الخبراء يقرون بأن خطورته بنفس خطورة التغيرات المناخية والأسلحة النووية".
وإلى جانب الشركات المذكورة التي وافقت على تقديم التزامات طوعية، يتوقّع عبد التواب زيادة عدد الشركات المنضمة لهذا الالتزام".
ضوابط الصين
وسبق أن وضعت الحكومة الصينية قائمة بالقواعد التي تحكم عمل تقنيات الذكاء الاصطناعي، وستدخل حيز التطبيق مع تعديلات في 15 أغسطس المقبل.
ومن أبرز هذه القواعد الموضوعة مسودتها في أبريل، أن يجري موفّرو الذكاء الاصطناعي مراجعات أمنية، وتسجيل خوارزمياتهم لدى الحكومة.