Visit us: 170 El-Horreya El-Ibrahimia Road, Bab Sharq, Alexandria

divinext
Contact Us

مقدمة

يعيش العالم اليوم ثورةً رقميةً غير مسبوقة؛ فكما دفعت الثورة الصناعية إلى ظهور تشريعات العمل والملكية الصناعية في القرن التاسع عشر، تُلزم الثورة الرقمية الحالية واضعي القوانين بإعادة النظر في كثير من المفاهيم الأساسية فلم يعد الذكاء الاصطناعي مجرد أداة مساعدة، بل أصبح لاعبًا أساسيًا في صياغة السياسات والتشريعات وقد  أشار الدكتور مصطفى الروبي، المحامي بالنقض وأستاذ القانون، في مقاله بجريدة الفجر الإلكترونية التي نشرت بتاريخ 20/7/2025 دكتور مصطفى الروبى يكتب فى جريدة الفجر : السفن الكهربائية تعيد تشكيل قوانين البحار.. تحديات تقنية معقدة إلى أن دول العالم تسابق الزمن لوضع أطر قانونية تنظم علاقة البشر بالآلات مع ضمان عدم الإخلال بمبادئ العدالة. هذه المقالة الموسَّعة تُعدُّ دراسة قانونية شاملة تستند إلى المقال الصحفي المذكور، وتستهدف القارئ العام والمتخصص على حدٍ سواء، وتُبرز دور مكتب الدكتور مصطفى الروبي – محامون .مستشارون – في متابعة القضايا التشريعية المعاصرة. كما تشتمل على تحليلات واسعة وأمثلة عالمية وإقليمية لتوضيح كيف يتقاطع الذكاء الاصطناعي مع القانون.

الثورة الرقمية وتحديات التشريع

يؤكد الدكتور الروبي أن القوانين التقليدية لم تعد قادرة على مواجهة إشكاليات الذكاء الاصطناعي، مثل تحديد المسؤولية القانونية في حال وقوع أضرار، وحماية الخصوصية، وضمان حقوق الملكية الفكرية للمحتوى الذي يُنتجه الذكاء الاصطناعي. ولعل أبرز سمات التشريعات الحديثة هي الانتقال من رد الفعل إلى الفعل الاستباقي؛ إذ أصبح المشرِّعون يسعون إلى توفير أطر قانونية قبل وقوع الأزمات، للحفاظ على التوازن بين الابتكار والأمن القانوني. ومع تطور تقنيات التعلم العميق، ازداد القلق من ظاهرة «الصندوق الأسود» التي تجعل خوارزميات الذكاء الاصطناعي غير قابلة للفهم أو التفسير بسهولة، مما يعقّد محاسبة هذه الأنظمة على أخطائها. لذا تتصاعد الأصوات المطالبة بتشريعات تفرض على الشركات المصممة للأنظمة الذكية توفير طرق لتفسير قراراتها، بل وإتاحة البيانات والرموز البرمجية للمراجعة، وهو ما يعرف بـ الذكاء الاصطناعي القابل للتفسير.

نموذج الاتحاد الأوروبي: قانون الذكاء الاصطناعي

يعد قانون الذكاء الاصطناعي الذي أقره البرلمان الأوروبي في عام 2024  أول إطار قانوني شامل ينظم استخدام الأنظمة الذكية. يقوم هذا القانون على تصنيف الأنظمة وفقًا لمستوى المخاطر: مخاطر غير مقبولة، ومخاطر عالية، ومخاطر محدودة، ومخاطر دنيا. تشمل الفئة المحظورة الأنظمة التي تنتهك القيم الأساسية مثل أنظمة التصنيف الاجتماعي أو تلك التي تستغل نقاط ضعف الأشخاص بأساليب تلاعبية. أما الأنظمة عالية المخاطر فتشمل تطبيقات في مجالات حساسة كالبنية التحتية، والتعليم، والتوظيف، والعدالة الجنائية، حيث تُلزم الشركات بإجراء تقييمات للمخاطر، وضمان جودة البيانات، وتوفير سجلات حفظ ومراقبة بشرية. كذلك يفرض القانون شفافية على أنظمة الذكاء الاصطناعي التوليدية بإلزامها بوسم المحتوى المنتج وإعلام المستخدمين أنه ناتج عن برنامج وليس إنسانًا. ومن المقرر أن يدخل القانون حيز التنفيذ بشكل كامل خلال ثلاث سنوات، مع منح فترة انتقالية للشركات للتكيّف.

هذا الإطار الأوروبي يوضح كيف يمكن للتشريعات أن تتعامل مع التقنيات الحديثة دون تقييدها بشكل يعيق الابتكار. فهو يسعى إلى حماية المستخدمين من الممارسات الضارة، ويضمن في الوقت نفسه بيئة آمنة لتطوير تطبيقات الذكاء الاصطناعي. وقد أثنى الدكتور الروبي على هذا النموذج، واعتبره مرجعًا يمكن للدول النامية الاستفادة منه لتطوير تشريعاتها. يشير القانون أيضًا إلى ضرورة وجود «رقابة بشرية» على الأنظمة عالية المخاطر، بحيث يتمكن الإنسان من مراجعة القرارات والتحكّم فيها عند الحاجة، وذلك تأكيدًا على مبدأ أن المسؤولية النهائية لا بد أن تبقى في يد الإنسان.

الشفافية والمساءلة في الأنظمة الذكية

تُثير أنظمة الذكاء الاصطناعي تحديات كبيرة فيما يتعلق بالشفافية والمساءلة. تشير الدراسات إلى أن خوارزميات التعلم العميق قد تتحول إلى «صندوق أسود» لا يستطيع حتى المبرمجون فهم كيفية اتخاذها للقرارات. وتُعتبر هذه الظاهرة مشكلة خاصة عندما تكون القرارات ذات أثر كبير على حياة الأفراد؛ كقرارات تقييم المدرسين أو منح القروض. في إحدى الحالات رفعت نقابة المعلمين في الولايات المتحدة دعوى ضد نظام ذكاء اصطناعي استخدمته إحدى الولايات لتقييم أداء المدرسين، إذ تسببت الخوارزمية في إنهاء خدمة معلمين دون معرفة أسباب التقييم. أثارت هذه الواقعة الجدل حول مدى قبول استخدام الأنظمة غير القابلة للتفسير في القرارات المصيرية.

لمواجهة هذه الإشكالية، ينادي العديد من الباحثين بضرورة تطوير تقنيات الذكاء الاصطناعي القابل للتفسير، بحيث يمكن توضيح سبب اتخاذ النموذج لقرار معين، وبالتالي تعزيز الثقة والمساءلة. كما دعت لجنة الاتحاد الأوروبي عبر قانون الذكاء الاصطناعي إلى إلزام الشركات بتوفير وثائق تشرح خصائص الخوارزميات والتحقق من توازن البيانات المستخدمة في تدريبها. في الولايات المتحدة، اقترح مشروع قانون «المساءلة عن الخوارزميات» إجراء تقييمات للأثر على حقوق الأفراد بالنسبة للأنظمة عالية المخاطر. هذه الجهود تعكس إدراكًا متزايدًا بأن الشفافية هي الشرط الأساسي لضمان احترام حقوق الإنسان في عصر الذكاء الاصطناعي.

الجدل حول منح الشخصية القانونية للذكاء الاصطناعي

قد يذهب البعض إلى اقتراح منح الذكاء الاصطناعي شخصية قانونية، مثل الشركات أو الجمعيات. إلا أن هذا الطرح يواجه انتقادات حادة؛ فقد رأى عدد من الفقهاء أن منح الآلات صفة «شخص» يعد تهديدًا لسيادة الإنسان على القوانين. توضح بعض الدراسات أن الكيانات القانونية غير البشرية مثل الشركات أو الطبيعة تُمنح هذه الصفة لأسباب اقتصادية أو رمزية، بينما يفتقر الذكاء الاصطناعي إلى القدرة على تحمل المسؤولية الأخلاقية أو اتخاذ قرارات مستقلة. كما أنه يفتقر إلى الإدراك الذاتي والوعي بالمصلحة العامة، وهي شروط أساسية لتحمّل الالتزامات. لذلك يحذر الباحثون من أن منح الآلات هذه الصفة قد يضعف حماية الحقوق المدنية للإنسان.

يبقى الرأي الراجح – كما عبّر عنه الدكتور الروبي – هو أن الذكاء الاصطناعي لا يمكن أن يكون «مشرعًا» مستقلًا، بل يجب أن يظل أداة في يد المشرِّع البشري. صحيح أن الأنظمة الذكية يمكن أن تساهم في التحليل وإعداد الصياغات القانونية بسرعة ودقة، لكنها لا تمتلك البصيرة الأخلاقية أو القدرة على مراعاة السياق الاجتماعي والسياسي. هنا تتجلى ضرورة الحفاظ على سيادة القانون التي تستند إلى القيم الإنسانية مثل العدالة والرحمة، وهي قيم لا يمكن للآلات فهمها أو تطبيقها دون إشراف بشري.

التجارب العربية: الإمارات والتشريع الذكي

في العالم العربي بدأت بعض الدول التفكير في إدماج الذكاء الاصطناعي في عملية التشريع. فقد أعلنت دولة الإمارات العربية المتحدة في عام ألفين واثنين وعشرين عن مشروع لتطوير نظام تشريعي يعتمد على الذكاء الاصطناعي لتحليل التشريعات واقتراح تعديلات عليها؛ ويُطلق عليه «المشرِّع الذكي». يهدف المشروع إلى رفع كفاءة عمليات التشريع بنسبة 70%  وتحويل النظام القانوني إلى نظام «حي» يتفاعل مع البيانات بشكل لحظي. ورغم أن التفاصيل الدقيقة لطبيعة تدخل الذكاء الاصطناعي في هذه العملية غير واضحة، إلا أن الخبراء يوضحون أن دوره يقتصر على جمع البيانات وتحليلها واقتراح حلول، بينما يحتفظ الإنسان بحق اتخاذ القرار النهائي. هذا النموذج يؤكد إمكانية التعاون بين الإنسان والآلة بدون التخلي عن الرقابة البشرية، كما يسلط الضوء على توجه المنطقة نحو تبني التشريعات الذكية.

التحيز والأخلاقيات في تطبيقات الذكاء الاصطناعي

لا يمكن الحديث عن الذكاء الاصطناعي والقانون دون التطرق إلى قضايا التحيز والعدالة. تشير الدراسات إلى أن الخوارزميات قد تُعيد إنتاج التحيزات الموجودة في بيانات التدريب، مما يؤدي إلى قرارات تمييزية. على سبيل المثال، أثبتت تقارير أن خوارزميات التوظيف قد تستبعد المتقدمين بناءً على الجنس أو العرق عندما تكون البيانات التاريخية منحازة. وقد اعترف الخبراء بوجود ثلاث قضايا أخلاقية رئيسية في هذا المجال: خصوصية البيانات والمراقبة، والتحيز والتمييز، ودور الحكم البشري. ومن هنا ينبه الكثيرون إلى أن الاعتماد الكامل على الخوارزميات في القرارات القانونية قد يؤدي إلى خلط بين ما هو علمي وما هو منحاز ثقافيًا، ومن ثم لابد من إشراف بشري يستند إلى القيم الأخلاقية ويعمل على ضبط هذه الأنظمة.

في المجال القضائي، ظهرت أنظمة تستخدم الذكاء الاصطناعي للتنبؤ بإعادة ارتكاب الجرائم أو تحديد أهلية المتهمين للإفراج بكفالة. لكن هذه الأنظمة واجهت انتقادات بسبب افتقارها إلى الشفافية واتباعها نماذج تنبؤية غير عادلة. وأشارت بحوث إلى أن الاعتماد المفرط على التحليل الكمي قد يغفل السياق الاجتماعي والقانوني لكل حالة. لذلك ينبه المختصون إلى ضرورة التعامل بحذر مع هذه الأدوات وعدم جعلها تحل محل القاضي أو المحامي، بل يجب أن تبقى مجرد أدوات مساعدة لتحسين عملية اتخاذ القرار.

الملكية الفكرية في عصر الذكاء الاصطناعي

يثير التطور السريع للذكاء الاصطناعي أسئلة معقدة بشأن حقوق الملكية الفكرية. فهل يمكن اعتبار العمل الذي تولده خوارزمية «إبداعًا» يستحق الحماية؟ منذ عام ألفين وثلاثة وعشرين، شرعت مكتب حقوق الطبع والنشر الأمريكي في إجراء دراسات واسعة حول قضايا حقوق الملكية الفكرية المتصلة بالذكاء الاصطناعي، بما في ذلك «قابلية حماية الأعمال المنتجة عن طريق الذكاء الاصطناعي». القسم الثاني من التقرير الذي صدر في يناير عام ألفين وخمسة وعشرين تناول مسألة منح حقوق التأليف على الأعمال المنتجة بواسطة الخوارزميات، وفي هذا السياق يتم الحديث عن مبدأ «المشاركة البشرية» كشرط لمنح الحماية؛ إذ تُعد الأعمال الناتجة كليًا عن خوارزمية بدون تدخل بشرى مجرد بيانات، بينما تُعتبر الإبداعات المشتركة – حيث يحدد الإنسان مدخلات الخوارزمية – قابلة للحماية.

تؤكد هذه المناقشات أهمية تحديث قوانين حقوق الملكية الفكرية في مصر والعالم العربي للتعامل مع المحتوى الرقمي. فعلى الرغم من أن قانون حماية الملكية الفكرية المصري الحالي يعاقب على انتهاكات حقوق المؤلف والسجل التجاري، إلا أنه لم يتناول صراحةً إنتاج الذكاء الاصطناعي. لذلك يُوصي الخبراء بسن تشريعات جديدة توضح حقوق المؤلف في سياق الذكاء الاصطناعي وتضع معايير لحماية المصنفات الرقمية، مع خلق توازن بين تشجيع الابتكار وحماية الحقوق.

النظام التشريعي المصري والذكاء الاصطناعي

رغم أن مصر تعد من الدول الرائدة في مجال التكنولوجيا الناشئة في المنطقة، فإنها حتى الآن لا تمتلك إطارًا تشريعيًا شاملًا للذكاء الاصطناعي. تعتمد التعاملات مع هذه التكنولوجيا على نصوص عامة مبعثرة في قوانين التجارة والاتصالات والبيانات الشخصية، مما يسبب فراغًا تشريعيًا. تعكس تصريحات الدكتور الروبي في المقال الصحفي دكتور مصطفى الروبى يكتب فى جريدة الفجر : السفن الكهربائية تعيد تشكيل قوانين البحار.. تحديات تقنية معقدة أن هناك حاجة ملحة إلى تطوير تشريع مصري مشابه لما أقره الاتحاد الأوروبي. وينبغي لهذا التشريع أن

يحدد تعريفات واضحة للذكاء الاصطناعي ويضع مبادئ للاستخدام المسؤول والشفاف، مع وضع عقوبات على الاستخدامات الضارة.

على الصعيد الحكومي، أطلقت مصر في السنوات الأخيرة استراتيجية وطنية للذكاء الاصطناعي تركز على تعزيز

التعليم الرقمي وتطوير الخدمات الحكومية. ومع ذلك ما زالت هذه المبادرات تفتقر إلى بُعد تشريعي واضح يضمن حماية الخصوصية ويُحمِّل الشركات والمؤسسات مسؤولية الأخطاء الناتجة عن أنظمتها الذكية. من هنا يُعد

تطوير قانون خاص بالذكاء الاصطناعي جزءًا من رؤية أوسع لحكومة إلكترونية آمنة ومبتكرة.

توصيات مكتب الدكتور مصطفى الروبي

انطلاقًا من خبرتنا القانونية المتراكمة، يرى مكتب الدكتور مصطفى الروبي – محامون . مستشارون أن التعامل مع الذكاء الاصطناعي في المجال القانوني يتطلب مجموعة من السياسات والاستراتيجيات، يمكن تلخيصها فيما يلي:

  • أولاً: إنشاء لجنة وطنية للذكاء الاصطناعي والتشريع: تضم خبراء في القانون والذكاء الاصطناعي والأخلاقيات لوضع مسودة قانون وطني للذكاء الاصطناعي. يجب أن تتعاون هذه اللجنة مع المؤسسات الدولية والخبرات الإقليمية لضمان التوافق مع المعايير العالمية.
  • ثانيًا: تبني مبدأ الشفافية والمساءلة: يجب أن تلزم التشريعات الشركات والمؤسسات بالإفصاح عن طبيعة خوارزمياتها، خاصة في المجالات الحساسة كالتعليم والعدالة والأمن. وينبغي فرض عقوبات على استخدام أنظمة غير قابلة للتفسير في اتخاذ قرارات تؤثر على حقوق الأفراد.
  • ثالثًا: تعزيز القدرات البشرية: يجب أن يظل الإنسان في موقع اتخاذ القرار النهائي، خاصة في المسائل الأخلاقية والعدلية. يتطلب ذلك تدريب القضاة والمحامين والمشرعين على فهم التكنولوجيا وتحليل نتائجها، لضمان عدم الاعتماد الكلي على الأنظمة الآلية.
  • رابعًا: وضع إطار للملكية الفكرية الرقمية: تحديث قوانين الملكية الفكرية لتشمل إنتاج الذكاء الاصطناعي، وضمان حماية المصنفات الجديدة، وتشجيع الابتكار المحلي في الذكاء الاصطناعي. يجب أيضًا إنشاء منصات لتسهيل تسجيل الحقوق وحل النزاعات بطرق إلكترونية.
  • خامسًا: التعاون الدولي والإقليمي: تتطلب طبيعة الذكاء الاصطناعي التعاون عبر الحدود، لذلك ينبغي لمصر والدول العربية التعاون في تبادل الخبرات، والمشاركة في المبادرات الدولية مثل الاتحاد الأوروبي واليونيسكو، لتبادل المعلومات وتبني أفضل الممارسات.

هذه التوصيات تأتي استكمالاً لما نطرحه باستمرار في مقالاتنا القانونية؛ فقد سبق لنا الإشارة إلى أهمية تحديث التشريعات في مواجهة التحديات الرقمية، وسنستمر في تقديم الإرشاد القانوني المتخصص لعملائنا.

خاتمة

تُشير التطورات المتسارعة في مجالات الذكاء الاصطناعي إلى أننا دخلنا حقبة جديدة من «الذكاء التشريعي» حيث يصبح التعاون بين الإنسان والآلة ضرورة وليس خيارًا. يؤكد الدكتور مصطفى الروبي أن السؤال ليس ما إذا كان الذكاء الاصطناعي سيكتب القوانين، بل ما إذا كنا سنحافظ على إنسانيتنا في ظل التكنولوجيا. إن أي تشريع يُعالج هذه التقنيات يجب أن يضع الإنسان في قلب العملية، مع تعزيز القيم الأخلاقية وحماية الحقوق الأساسية. يجب أن تظل العدالة القائمة على الضمير والرحمة والبصيرة الإنسانية هي المعيار الأسمى، بينما يعمل الذكاء الاصطناعي كأداة قوية تدعم المشرع وتُحسّن جودة التشريعات.

وختامًا، يتعهد مكتب الدكتور مصطفى الروبي  محامون . مستشارون  بمواصلة الإسهام في الحوار القانوني حول هذه القضايا، وتقديم المشورة الاحترافية التي تضمن لعملائنا مواكبة التحولات التشريعية العالمية. ندعو القارئ إلى الاطلاع على مقالنا السابق في أخبار اليوم حول هذا الموضوع للاطلاع على مزيد من التفاصيل، ونذكّر بأن حماية حقوق الإنسان وسيادة القانون يجب أن تبقى في طليعة أي محاولة لإدماج الذكاء الاصطناعي في عملية التشريع.

ومن المهم أيضًا الإشارة إلى أن دمج الذكاء الاصطناعي في مجالات متعددة ليس مجرد مسعى تشريعي فحسب، بل هو رافعة اقتصادية يمكن أن تعزز التنمية الوطنية وتوفر فرص عمل جديدة. فالبحث والتطوير في مجال تقنيات الذكاء الاصطناعي يمكن أن يقود إلى ابتكارات في الرعاية الصحية، والنقل، والزراعة، الأمر الذي ينعكس إيجابًا على جودة الحياة. ومع ذلك، فإن التوسع في استخدام هذه التقنيات يتطلب بيئة قانونية راسخة توازن بين تشجيع الاستثمار وحماية المجتمع، وهو الدور الذي يضطلع به المشرع بحكمة وتبصّر.