تحقيق – مريم ناصر
يشهد العالم توسعًا في استخدام أدوات الذكاء الاصطناعي داخل مختلف القطاعات، وهو ما بدأ ينعكس تدريجيًا على الواقع، حيث ظهرت هذه التقنيات في مجالات، مثل التعليم، المرور، المراقبة، والخدمات الحكومية، في ظل غياب تشريعات تنظم استخدام هذه الأدوات، وتحمي خصوصية الأفراد من الانتهاك دون علمهم.
ويتساءل كثيرون عن مدى قدرة القوانين الحالية على حماية البيانات الشخصية من التلاعب، أو التسريب، أو الاستخدام دون إذن، وهو ما يفتح المجال لاستخدام أدوات الذكاء الاصطناعي بطرق قد تخل بحقوق المواطنين، وتضعف ثقتهم في التكنولوجيا، خاصة مع غياب الرقابة، والمساءلة القانونية.
الذكاء الاصطناعي بين قفزات التطور وفجوات الأمان
يدعم الذكاء الاصطناعي تطوير المنظومة التعليمية من خلال أدوات تحليل ذكية تتابع أداء واستيعاب الطلاب للمواد الدراسية، تمكن هذه الأنظمة المعلمين من تقديم محتوى تعليمي يتناسب مع احتياجات الطالب، وتستخدم لمراقبة المشاركة داخل الفصول، وتحديد نقاط القوة والضعف لدى المتعلمين، ما يسهم في تحسين جودة التعليم.
ويساهم أيضًا في تعزيز جودة الرعاية الصحية من خلال قدرته على تحليل كميات ضخمة من البيانات الطبية بدقة، ويستخدم في تشخيص الأمراض، وتحديد خطط علاج ملائمة لكل حالة، كما تساعد في الإدارة داخل المستشفيات، وتقليل فترات الانتظار، ورفع كفاءة الأطقم الطبية، ما يجعل الذكاء الاصطناعي أداة مساندة مهمة في دعم القرار الطبي، وتخفيف العبء عن العاملين في القطاع الصحي.
التكنولوجيا تتقدم والقانون يتأخر والخصوصية ضحية الواقع
يرى الدكتور “محمد بحيري” دكتور الذكاء الاصطناعي بالجامعة المصرية الروسية، أن المشكلة الكبرى في مصر غياب التشريعات المنظمة، لاستخدام تقنيات الذكاء الاصطناعي، فلا توجد قوانين واضحة تحدد ما يسمح به وما يمنع، ما يفتح الباب أمام استخدام الكاميرات في الشوارع والمحلات؛ لتسجيل الأفراد دون علمهم، أو توضيح عن الجهة التي تجمع هذه البيانات، أو الغرض منها.

الدكتور “محمد بحيري” دكتور الذكاء الاصطناعي بالجامعة المصرية الروسية
ويحذر الدكتور من أن التطبيقات الموجودة على الهواتف الذكية تجمع كمًا هائلًا من البيانات الشخصية، مثل الصور، وجهات الاتصال، والموقع الجغرافي، وغالبًا ما تمنح هذه التطبيقات صلاحيات واسعة دون وعي من المستخدم، ثم تشارك البيانات، أو تباع لشركات أخرى من دون رقابة حقيقية، ما يجعل المستخدم مكشوفًا بالكامل.
ويمتد القلق ليشمل قطاع التعليم، حيث أصبحت بعض المؤسسات التعليمية تستخدم أدوات ذكية؛ لتحليل مستوى الطلاب وسلوكهم، لكن المشكلة أن هذه البيانات تجمع دون شفافية، وقد تستخدم لتصنيف الطلاب بشكل يفتقر للعدالة، خاصة في ظل غياب قانون يحدد من يحق له الاطلاع على هذه المعلومات، أو الاستفادة منها.
ويؤكد “بحيري” أن القضية ليست في رفض التكنولوجيا، بل في غياب الحوكمة الرشيدة التي تحمي حقوق الأفراد، فأي جهة تمتلك نظامًا ذكيًا يمكنها حاليًا جمع معلومات دقيقة عن المواطنين واستخدامها كما تشاء، دون وجود جهة رقابية، أو مساءلة قانونية توقف التجاوزات.
ويقارن الوضع في مصر بما يحدث في أوروبا، حيث تطبق لائحة حماية البيانات العامة “GDPR” بصرامة، وتلزم هذه اللائحة الشركات بحماية خصوصية الأفراد، وتفرض غرامات كبيرة في حال تسريب البيانات، أو استخدامها بغير إذن، وهي خطوة ما زالت مصر متأخرة في اتخاذها.
وأما عن الاعتقاد بأن الذكاء الاصطناعي قادر على تشغيل الكاميرا، أو الميكروفون بشكل مباشر، فيوضح أن هذا غير دقيق، فالذكاء الاصطناعي لا يمكنه الوصول للأجهزة دون إذن المستخدم، لكن الخطورة تكمن في أن المستخدم هو من يمنح هذه الصلاحيات على سبيل المثال لتطبيقات مثل “فيسبوك”، وغيرها، ثم تستخدم تلك البيانات في التحليل والمعالجة لاحقًا.
ويضيف الدكتور محمد أن التعرف على الأشخاص من صورة واحدة ليس بالأمر البسيط كما يعتقد البعض، فالعملية تعتمد على تقنية تعرف باستخراج السمات، بـ “feature extraction”، وتتطلب تدريبًا واسع المدى طويلًا ودقيقًا، لأن ملامح الوجه تتشابه بين العديد من البشر، مما يصعب مهمة التعرف بدقة على نطاق واسع “large scale”.
ويختتم دكتور الذكاء الاصطناعي بالتأكيد على أن العنصر البشري يظل العامل الأكثر خطورة في عملية انتهاك الخصوصية، فمعظم الاختراقات تأتي من ضعف الوعي، والضغط على روابط مجهولة، والدخول إلى مواقع مشبوهة، مما يجعل توعية المستخدمين ضرورة لا تقل أهمية عن سن القوانين.
الذكاء الاصطناعي بين غياب التشريع ومحدودية الحماية الرقمية
على الرغم من أن العديد من القوانين تنص صراحة على حماية الخصوصية، إلا أن الواقع يكشف عن فراغ حقيقي في التعامل مع أدوات الذكاء الاصطناعي، مازال هناك غياب لقانون شامل ينظم استخدام هذه التقنيات، أو يحدد الجهات التي يحق لهم بجمع البيانات ومعالجتها، أو يضع آليات رقابة ومساءلة عند انتهاك الخصوصية، ومع تزايد الاعتماد على الذكاء الاصطناعي، تستمر الضوابط القانونية في التأخر، ما يجعل المواطنين عرضة للانتهاكات الرقمية.
وفي محاولة لسد جزء من هذا الفراغ، صدر قانون حماية البيانات الشخصية رقم 151 لسنة 2020، وفقًا للمادة «33» من الدستور، يهدف القانون إلى تنظيم عمليات جمع ومعالجة البيانات، وضمان خصوصية الأفراد، كما نص على إنشاء كيان رقابي مستقل هو “مركز حماية البيانات الشخصية”، تكون له صلاحيات إصدار التراخيص، متابعة التزام المؤسسات بالقانون، وتلقي شكاوى المواطنين بشأن أي انتهاك لبياناتهم.
ويتيح القانون لأي مواطن تقديم شكوى إلى المركز ضد أي جهة تستخدم بياناته دون وجه حق، ويلزم المركز بإصدار قرار خلال ثلاثين يوم عمل من تقديم الشكوى، وعلى الجهة المخالفة تنفيذ القرار خلال سبعة أيام من تاريخ الإخطار، مع تقديم ما يثبت تنفيذها رسميًا.
ورغم وضوح النصوص القانونية، مازال تطبيق القانون محدودًا، فلم تصدر اللائحة التنفيذية الكاملة حتى الآن، كما تغيب الحملات التوعوية التي تعرف الأفراد بحقوقهم الرقمية، وفي ظل غياب رقابة فعلية على مدى التزام المؤسسات بتطبيق القانون، تبقى بيانات المستخدمين عرضة للاستغلال دون علمهم، ما يعمّق الفجوة بين التشريع والواقع، ويطرح تساؤلات حول مدى جدية الدولة في ضمان الحماية الرقمية لمواطنيها.
تجربة أوروبية رائدة.. بين التقنية والحق في الخصوصية
تمثل لائحة “GDPR” التي يطبقها الاتحاد الأوروبي واحدة من أقوى التشريعات في العالم لحماية البيانات الشخصية، تلزم هذه اللائحة المؤسسات بالحصول على موافقة صريحة من الأفراد قبل جمع بياناتهم، كما تمنحهم الحق في الاطلاع على طريقة الاستخدام أو المطالبة بحذف المعلومات نهائيًا.
وتفرض “GDPR” قيودًا صارمة على عمليات المعالجة الرقمية للبيانات، سواء في القطاع العام أو الخاص، وتضمن الشفافية في جميع مراحل التعامل مع المعلومات الشخصية، الهدف الأساسي من هذا الإطار القانوني هو حماية الأفراد من الاستغلال الرقمي، وضمان احترام خصوصيتهم في البيئة التقنية.
ولا تقتصر الحماية على القوانين فقط، بل تشمل أيضًا أدوات تنفيذ قوية، حيث تواجه الشركات غرامات تصل إلى ملايين اليوروهات إذا خالفت اللائحة، وتؤدي الهيئات الرقابية في كل دولة دورًا فعّالًا في مراقبة الامتثال، وفتح تحقيقات فورية في حال وقوع انتهاكات.
وتظهر هذه التجربة كيف أن حماية الخصوصية لا تتحقق بالنصوص فقط، بل تتطلب إرادة سياسية، وأجهزة رقابية مستقلة، وثقافة مجتمعية تدرك قيمة الحقوق الرقمية، لذا تحاول بعض الدول النامية السير على هذا النهج، في حين أنه مازال تطبيقه في مصر يواجه تحديات كبيرة على مستوى التشريع والتنفيذ.
الوجه المظلم للذكاء الاصطناعي.. مخاطر تهدد الخصوصية والعدالة
غياب القدرة على تتبع استخدام الذكاء الاصطناعي داخل المؤسسات خطرًا متزايدًا، وغالبًا ما تستخدم هذه الأدوات خارج نطاق رقابة فرق تكنولوجيا المعلومات، خاصة في ظل الاعتماد الواسع على تطبيقات غير معتمدة رسميًا، يسمح هذا الانفلات بدخول تقنيات الذكاء الاصطناعي دون تقييم أمني أو أخلاقي، مما يزيد من احتمالات تسرب البيانات أو اتخاذ قرارات دون رقابة أو مساءلة حقيقية.
وتشكل الخوارزميات الذكية خطرًا كبيرًا حين تدرب على بيانات مشبعة بتحيزات اجتماعية أو ثقافية، فهي قادرة على تكرار هذه الانحيازات داخل عمليات اتخاذ القرار، ما يؤدي إلى تمييز ضد فئات معينة في التوظيف أو التعليم أو حتى المعاملات البنكية، الأسوأ أن هذه القرارات قد تبدو محايدة، بينما تخفي ظلمًا ممنهجًا، يصعب اكتشافه في ظل غياب الشفافية أو الحق في الاعتراض.
ويشكل انتهاك الخصوصية تحديًا خطيرًا، تستخدم أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية، مثل الموقع، والسلوك، والمحادثات، دون علم المستخدمين أو موافقتهم الواضحة، وفي حال تسرب هذه المعلومات أو إساءة استخدامها، تتضرر سمعة الأفراد وتهدد أمنهم الرقمي، خاصة في بيئات قانونية لا توفر حماية قوية للبيانات أو آليات فعالة للمساءلة.
ويتضاعف القلق مع ظهور خوارزميات “الصندوق الأسود”، وهي أنظمة شديدة التعقيد لا يمكن تفسير كيفية وصولها لقرارات معينة حتى من قبل مطوريها، هذا الغموض يعرقل التحقق من صحة النتائج، ويفقد المستخدمين حقهم في معرفة أسباب التقييمات أو الرفض، كما في حالة رفض طلب ائتماني أو تقييم طالب بشكل سلبي، دون إمكانية للطعن أو التحقق.
وتظل المسؤولية القانونية عند حدوث خطأ أمرًا غامضًا، فإذا تسبب نظام ذكاء اصطناعي في ضرر جسيم، كما في حوادث السيارات الذاتية القيادة، فمن يُحاسب؟ هل الشركة، أم المبرمج، أم النظام ذاته؟ هذا الغموض القانوني، إلى جانب التهديدات الأمنية، مثل التزوير العميق، أو اختراق الأنظمة، يكشف الحاجة الماسة إلى تشريعات واضحة وحوكمة صارمة تحمي الأفراد من توابع استخدام الذكاء الاصطناعي.
الذكاء الاصطناعي بين الإنتاجية والمخاطر.. كيف نستخدمه بوعي
أصبح الذكاء الاصطناعي عنصرًا فاعلًا في تحسين الإنتاجية بمختلف المجالات، حيث تلجأ المؤسسات إلى أدوات ذكية لتحليل البيانات، وصياغة استراتيجيات تسويقية أكثر دقة، وفي القطاع التعليمي، يعتمد عليه طلاب ومعلمون لتلخيص الدروس، تعلّم اللغات، وفهم المحتوى بشكل أعمق، كما تسهم التطبيقات الذكية في تنظيم المهام اليومية وجدولة المواعيد، ما يجعل إدارة الوقت أكثر كفاءة في الحياة الشخصية والمهنية.
ولكن هذا التوسع لا يخلو من التحديات، الاعتماد الكامل على الذكاء الاصطناعي دون تفكير نقدي قد يؤدي إلى قرارات خاطئة أو تبني معلومات مغلوطة، كما أن بعض التطبيقات تجمع بيانات المستخدمين دون علمهم، ما يشكل تهديدًا مباشرًا للخصوصية الرقمية، ويشكل الاعتماد المفرط على الذكاء الاصطناعي خطرًا على المهارات البشرية، إذا لم يواكبه وعي وتطوير ذاتي مستمر.
ولذلك يتطلب استخدام الذكاء الاصطناعي بذكاء ووعي بالمخاطر، والتزامًا بالتعامل الحذر، على المستخدم أن يتحقق دائمًا من دقة المعلومات، ويتجنب مشاركة بياناته الشخصية مع أدوات لا توفر سياسات خصوصية واضحة، والأهم أن يبقى الإنسان في موقع التحكم، مستعينًا بهذه الأدوات، لتعزيز قدراته لا استبدالها، حفاظًا على التوازن بين الكفاءة التقنية والوعي الإنساني.
ويستدعي الانتشار المتسارع لتقنيات الذكاء الاصطناعي في مختلف مجالات الحياة تحركًا فوريًا، لمعالجة الفراغ التشريعي القائم، يفتح غياب الضوابط القانونية الباب أمام انتهاكات متكررة للخصوصية، واستغلال البيانات الشخصية دون إذن، أو رقابة، ما يهدد الثقة العامة في التكنولوجيا، ويضعف الحماية الرقمية في حياة المواطنين.
وتفرض التطورات الحالية ضرورة إصدار قوانين واضحة وملزمة، تنظم استخدام الذكاء الاصطناعي، وتضمن احترام الحقوق الأساسية للمواطنين، يسهم هذا الإطار التشريعي في ترسيخ توازن حقيقي بين الاستفادة من التطور التقني، والحفاظ على الحياة الشخصية في الفضاء الرقمي.