قام الاتحاد الأوروبي بالتصديق على قانون الذكاء الاصطناعي الأول من نوعه في العالم كما وصفه بيان الاتحاد الرسمي، وهو قانون يهدف لتنظيم العمليات المتعلقة بالذكاء الاصطناعي سواء كانت في التطوير أو الاستخدام داخل دول الاتحاد الأوروبي أو خارجها طالما كانت الشركة تمتلك عمليات داخل الدول التي تخضع للقانون.

ربما كان الاتحاد الأوروبي أول جهة تنظيمية تصدر قانونا مباشرا وصريحا متعلقا بإدارة الذكاء الاصطناعي وتنظيمه، ولكن من المؤكد أن مختلف الدول الكبرى في العالم تتبعه في المستقبل، وفي مقدمتها أميركا التي تخضع الذكاء الاصطناعي حاليا لمجموعة من القوانين المتعلقة بمكونات هذه التقنية وطرق تدريبها وبنائها.

ورغم كون الهدف من هذه القوانين تنظيم وحماية المستخدمين من مخاطر الذكاء الاصطناعي المستقبلية، فإن طرحها وتنفيذها أثار استياء بعض العاملين في قطاع الذكاء الاصطناعي، خوفا من تقويض نمو التقنية بشكل يمنع من تطورها.

لكن هل يمكن القول إن هذه القوانين سيكون لها أثر سلبي فعلا على تقنيات الذكاء الاصطناعي، أم إن الشركات العاملة في هذا القطاع تحاول إزاحة القيود من أمامها حتى تتصرف كما تشاء؟

قانون الذكاء الاصطناعي الأوروبي

أقر الاتحاد الأوروبي هذا القانون في مايو/أيار الماضي، أي بعد طرحه بأكثر من 4 أعوام تمت خلالها مناقشته بشكل موسع وتطويعه ليتناسب مع هذه التقنية الناشئة التي قد لا تملك قيودا واضحة، وأما عن السلطة القضائية لهذا القانون، فإنها تخضع جميع الشركات التي تملك أعمالا داخل حدود دول الاتحاد الأوروبي حتى لو كان مقرها خارج القارة الأوروبية تماما، أي أن “مايكروسوفت” و”غوغل” و”أوبن إيه آي” و”بايدو” تخضع لهذا القانون مثل أي شركة ذكاء اصطناعي أوروبية.

في جوهره، يقسم القانون تقنيات الذكاء الاصطناعي إلى عدة مستويات وأقسام، لكل منها قانونه التنظيمي الخاص بشكل لا يتعارض بعضها مع بعض، ويأخذ في الاعتبار المخاطر المتوقعة لكل تقنية ومعدل تطبيقها وانتشارها.

يعتمد القانون الأوروبي على مستوى خطورة الذكاء الاصطناعي في عملية التقسيم هذه، بدءا من المستوى الأخطر، وهو الذي يتدخل بشكل واضح على حياة البشر أو أسلوب معيشتهم ويهدد أمنهم واستقرارهم، مثل تقنيات السيارات ذاتية القيادة، فضلا عن تقنيات المسح السكاني وتصنيف السكان أو حتى قراءة المشاعر وبناء التوقعات والتوصيات بناء عليها.

وعلى هذا التقسيم، فإن القانون يحظر تطوير واستخدام تقنيات الذكاء الاصطناعي التي تشكل خطرا واسعا من المستوى الأعلى دون محاولة تنظيمها، مثل تقنيات القيادة الذاتية التي تشكل خطرا على المستخدمين أو تقنيات توقع الجرائم والقبض على مرتكبيها قبل وقوعها.

في حالة مخالفة القانون الأوروبي للذكاء الاصطناعي، فإن مفوضية الاتحاد الأوروبي تخضع المخالفين لغرامات متنوعة تتناسب مع مستوى خطر الذكاء الاصطناعي الذي تم تقييمه سابقا، وتبدأ هذه الغرامات من 7.5 ملايين يورو أو 1.5% من إجمالي أرباح الشركة حتى 35 مليون يورو أو 7% من إجمالي أرباح الشركة، أيهما كان أعلى وأكثر قيمة.

تحديات تنظيمية جمة

جاء قرار الاتحاد الأوروبي بتصنيف الذكاء الاصطناعي بحسب مخاطره، وهو قرار ملائم للضرر المتوقع حدوثه من الذكاء الاصطناعي وبالتالي محاولة منع وقوع هذا الضرر من الأساس، ورغم ذلك، فإن مظلة القانون تظل قاصرة بفضل التنوع الواسع في تقنيات الذكاء الاصطناعي ودخول العديد من الجوانب في تكوينها وبالتالي الحاجة لتنظيمها بشكل كامل.

وذلك لأن بعض تقنيات الذكاء الاصطناعي قد تمثل خطرا في سياق بعينه، مثل استخدام تقنيات التشغيل الذاتي في الأدوات الجراحية حيث تهدد مثل هذه التقنيات حياة وصحة الإنسان بشكل مباشر، ولكن تقنيات القيادة الذاتية في السيارات لا تملك الخطر ذاته، مما يتعارض بشكل مباشر مع تقييم مستوى الخطر لتقنيات التشغيل الذاتي بشكل عام.

تنوع استخدامات الذكاء الاصطناعي وتطبيقاته يجعل من الصعب وضع قانون واحد يضم كل التنظيمات المتعلقة به، ومن ضمن الأمثلة الواضحة على هذا الأمر تقديم تقنيات الذكاء الاصطناعي في الحروب العسكرية، إذ تعد وظيفة هذه التقنية الأساسية تيسير الفوز في الحروب ومقاومة الأعداء دون النظر إلى الحياة البشرية ومقدار الضرر الحادث، ولكن في الوقت نفسه، فإن هذه التقنية تمثل خطرا كبيرا على حياة البشر.

كما يمثل سياق استخدام تقنيات الذكاء الاصطناعي عاملا مهما في تحديد القانون الذي تخضع له، فبينما يحظر الاتحاد الأوروبي استخدام تقنيات التصنيف الاجتماعي العشوائي للمواطنين ضمن الشركات والاستخدامات المعتادة، فإن مثل هذه التقنية قد تكون مفيدة في الاستخدامات القضائية ومحاولة كبح أعمال الشغب واكتشاف المجرمين المختبئين وسط المستخدمين.

من المتوقع بالطبع أن يتم تعزيز قانون الذكاء الاصطناعي الأوروبي بالعديد من المواد بحسب ما يستجد في عالم الذكاء الاصطناعي، ولكن هل تكون عملية التحديث هذه بسرعة الإصدار ذاتها؟ إذ إن شركات الذكاء الاصطناعي تعمل بوتيرة متسارعة لتقديم تقنيات جديدة للبقاء في المنافسة، فهل تستطيع الجهات القانونية الأوروبية مواكبة هذه الوتيرة؟

تعارض متعدد المستويات

تأخرت حكومة الولايات المتحدة في طرح قانونها لتنظيم عمليات وتقنيات الذكاء الاصطناعي بشكل مباشر، ورغم هذا، فإنها لم تترك هذه الساحة دون قوانين تنظيمية، إذ قامت بفصل تقنيات الذكاء الاصطناعي وتوزيعها على القوانين والهيئات الموجودة حاليا، كأن تخضع تقنيات القيادة الذاتية لقوانين هيئات المركبات الفدرالية وتخضع الأسلحة الذكية للقوانين المتعلقة بالأسلحة بشكل عام وتقنيات الذكاء الاصطناعي التوليدي للقوانين الإبداعية.

فضلا عن ترك مهمة تحديد القوانين المخصصة للذكاء الاصطناعي على عاتق الإدارات الفدرالية في كل ولاية بمفردها، لذا قد توجد تقنية ذكاء اصطناعي محظورة في ولاية ما لكنها مسموحة في ولاية أخرى، وبينما يوفر هذا الأسلوب على الحكومة الفيدرالية للولايات المتحدة وقتا وجهدا في الاجتماع والتشاور، فإنه يخلق مستوى أعمق من التعارض بين القوانين.

فإن كان القانون الأوروبي يواجه هذا التعارض بين الاستخدامات المختلفة، فإن الحكومة الأميركية تواجه هذا التعارض بين الولايات والهيئات المختلفة داخل الحكومة ذاتها، وقد ينظر البعض لهذا التعارض على أنه فرصة لاستغلال الثغرات القانونية المتاحة في كل ولاية أو هيئة بمفردها، إلا أنه في الحقيقة يعرقل نمو الشركات وتطوير التقنيات بشكل صحيح، إذ يجب على الشركة تحديد أي قانون ترغب في اتباعه ثم التضحية بالولايات أو الدول التي تتعارض مع هذا القانون.

وبينما تشكل الشركات الأميركية الآن السواد الأعظم للشركات المطورة في قطاع الذكاء الاصطناعي، فإن هذا لا يعني وجود منافسين من خارج الحدود، وفي هذه الحالة، لماذا يجب أن تخضع الشركات الأوروبية أو العربية للقوانين الأميركية لتنظيم الذكاء الاصطناعي؟ والعكس صحيح كذلك، لذا من الأنسب بناء هيئة عالمية موحدة على غرار مجلس الأمن والأمم المتحدة لتنظيم هذه التقنيات، وذلك حتى تخضع الشركات لقانون موحد دوليا.

FILE PHOTO: Illustration picture of ChatGPT

الهرب بدلا من الخضوع للغرامات

تنظر الهيئات التنظيمية والقانونية الدولية لشركات تطوير الذكاء الاصطناعي بعين الهيمنة، إذ تعتقد بأنها قد توافق وتخضع لأي قانون صادر تجاهها، وفي حين كان هذا الأمر صحيحا في الماضي مع وجود حدود فيزيائية تمنع الشركات من العمل في أماكن بعيدة عن مقارها، فإن هذا الأمر اختلف تماما منذ مطلع القرن العشرين.

تستطيع الشركات الآن التخلي عن أسواق وقطاعات بأكملها هربا من الغرامات والقوانين المنظمة التي لا يمكن التماشي معها، وربما كان ما فعلته “ميتا” (Meta) في نهاية يونيو/حزيران الماضي مثالا حيا لذلك، إذ فضلت الشركة تأجيل طرحها لتقنيات الذكاء الاصطناعي داخل دول الاتحاد الأوروبي حتى الانتهاء من تطويعها بشكل يتماشى مع القانون، وقد تتخلى الشركة تماما عن طرح هذه التقنية في تلك البلاد هربا من العقوبات والغرامات.

في الوقت الحالي لم تعلن أي شركة غير “ميتا” عن هذا الأسلوب، ولكن قد نراه مستقبلا مع الشركات الأخرى إذا ما أثبت نجاحه مع “ميتا” وحماها من الوقوع تحت طائلة القانون الأوروبي، وفي هذه الحالة، فإن أسواق الذكاء الاصطناعي ستتحول من أسواق عالمية لا مركزية يمكن للجميع المشاركة فيها إلى أسواق محلية تركز على التماشي مع القوانين المطبقة محليا على كل منها.

الحاجة إلى فهم عميق

يتمتع الذكاء الاصطناعي بخصوصية تجعله مختلفا عن التقنيات الأخرى، إذ تتنوع استخدامات هذه التقنية وطرق تطويرها ويتدخل في الأمر العديد من المفاهيم التقنية المعقدة في مختلف نماذج واستخدامات الذكاء الاصطناعي، بدءا من نماذج الذكاء الاصطناعي التوليدي وحتى الروبوتات البشرية المعززة بالذكاء الاصطناعي أو حتى السيارات الذاتية القيادة.

لهذا السبب تحديدا، طالب الكونغرس شركات الذكاء الاصطناعي في مطلع هذا العام بالتكفل بعملية تدريب أعضائه وتثقيفهم حول تقنيات الذكاء الاصطناعي أملا في صك قوانين أكثر تفهما لطبيعة هذا القطاع الفريدة ومحاولة تنظيمه بما لا يتعارض مع نموه بشكل واسع.

وفي حين يبدو هذا المطلب غير واقعي، فإنه يمثل الطريق الأنسب لمحاولة الوصول إلى تقنيات وتشريعات عادلة بحق الذكاء الاصطناعي والشركات التابعة له، ويظل الحل البديل هو تشريع القوانين دون النظر إلى خصوصية التقنية، مما يولد أسوارا تمنع التقنية من النمو بشكل واقعي.

شاركها.
Exit mobile version