نحو ميثاق أخلاقي عالمي ملزم لتنظيم الذكاء الاصطناعي في العصر الرقمي

0

 

نعيمة عتماني

باحثة مغربية في حوار الأديان

يشهد العالم المعاصر تحولات عميقة في بنيته المعرفية والاجتماعية والاقتصادية، نتيجة التطور الهائل في تقنيات الذكاء الاصطناعي. فقد أصبح هذا الذكاء التكنولوجي مكوّنًا رئيسًا في مجالات استراتيجية، تشمل الصحة، والتعليم، والإدارة، والصناعات العسكرية، والاقتصاد الرقمي، بل وامتد أثره إلى دوائر صنع القرار والتأثير في السلوك الإنساني ذاته، عبر أدوات كالتنبؤ السلوكي والخوارزميات الموجهة. غير أن هذا التحول غير المسبوق يطرح تحديات فلسفية وأخلاقية جوهرية، لا تقتصر على مسائل الأداء والنجاعة، بل تمتد إلى ما هو أعمق: إلى معنى الكرامة الإنسانية، وحدود المسؤولية، وطبيعة السلطة، ومصير القيم الإنسانية في عصر أصبحت فيه الآلة شريكًا “فاعلًا” في العديد من العمليات المعرفية والاجتماعية.

في ظل هذا المشهد المتداخل، تتزايد الدعوات على المستويين الأكاديمي والسياسي إلى ضرورة بلورة ميثاق أخلاقي عالمي ينظم ويؤطر استخدامات الذكاء الاصطناعي، ويضع حدودًا واضحة للتدخلات التكنولوجية، بما يضمن حماية الإنسان من الممارسات غير الأخلاقية التي قد تنشأ بسبب الاستخدام غير المنضبط لهذه التقنيات. فالميثاق الأخلاقي، في هذا السياق، لا ينبغي أن يُفهم باعتباره أداة قانونية فقط، بل بوصفه إطارًا فلسفيًا وقيميًا يؤكد على أولوية الإنسان كمركز للكون الاجتماعي والتقني، ويُعيد التوازن بين التطور التكنولوجي والمبادئ الأخلاقية.

تنبع الحاجة إلى هذا الميثاق من طابع الذكاء الاصطناعي نفسه، الذي يختلف عن الابتكارات التقنية السابقة. فالذكاء الاصطناعي ليس أداة خاملة أو محايدة، بل هو نظام قادر على التعلم من البيانات، واتخاذ قرارات معقدة بشكل مستقل نسبيًا، وقد يترتب عن قراراته آثار مباشرة على حياة الأفراد والمجتمعات. ولعل أكثر ما يُثير القلق هو طبيعة هذه القرارات: هل يمكن التنبؤ بها؟ من المسؤول عنها؟ هل تكرّس التحيزات الاجتماعية والثقافية التي تعاني منها المجتمعات البشرية أصلًا؟ أم تتجاوزها؟ هذه الأسئلة تُحيلنا إلى الحاجة لتأطير أخلاقي عالمي يضبط مسار التطور ويُجنّبه الانزلاق نحو الاستخدامات الخطرة أو التمييزية أو السلطوية.

رغم ما تتيحه تقنيات الذكاء الاصطناعي من إمكانات هائلة لتطوير الخدمات وتحسين الأداء في مختلف القطاعات، فإن استخدامها يثير قضايا أخلاقية معقدة تتعلق بالعدالة الاجتماعية وحقوق الإنسان. فقد كشفت تجارب متعددة أن هذه الأنظمة، حين تُوظف في ميادين حيوية كالقضاء أو التوظيف أو الطب، لا تكون دائمًا محايدة كما يُفترض، بل قد تُعيد إنتاج أنماط من التحيز والتمييز نتيجة اعتمادها على بيانات تدريبية تحمل في طياتها اختلالات تاريخية أو تمثلات اجتماعية غير عادلة. فبدل أن تعمل هذه الخوارزميات على تصحيح الانحرافات القائمة، قد تُكرّسها بصورة غير مرئية، مما يطرح إشكالًا معرفيًا وأخلاقيًا حول طبيعة “الموضوعية” التي يُنسب إليها.

يشكل الذكاء الاصطناعي اليوم تحديًا محوريًا للمجتمع الدولي، لاسيما في المجال السيبراني، ما يفرض ضرورة إعادة تأمل الأطر القانونية الدولية القائمة. فمن الناحية القانونية، يثير الاعتماد المتزايد على تقنيات الذكاء الاصطناعي في الهجمات السيبرانية تساؤلات جوهرية حول مسؤولية الدول والأطراف الفاعلة. ويؤدي هذا الوضع إلى تصاعد وتيرة التهديدات السيبرانية، ما يستوجب إعادة النظر في الأطر القانونية والدولية، لضمان حماية فعالة وتقليل مخاطر اندلاع أزمات ذات أبعاد استراتيجية.  .

وفي سياق متصل، تتطور تقنيات الذكاء الاصطناعي لتشمل أنظمة تسليح ذاتية التشغيل قادرة على اتخاذ قرارات حاسمة ومميتة دون تدخل بشري مباشر، مما يثير تحديات أخلاقية وقانونية بشأن المسؤولية واحترام القانون الدولي الإنساني. يشكل هذا التطور خطرًا على الاستقرار الدولي، ويزيد من احتمالات التصعيد العسكري واستخدام هذه الأسلحة في نزاعات خارج إطار الرقابة القانونية.

إن هذه التحولات المتسارعة تستدعي مراجعة شاملة للآليات القانونية والاجتماعية التي تنظم دمج الذكاء الاصطناعي، لضمان خضوعه لمبادئ الشفافية والمساءلة والعدالة، وحمايته من أن يتحول إلى أداة تنتهك الحقوق وتقوض القيم الإنسانية الأساسية.

لقد بادرت بعض المنظمات الدولية إلى وضع خطوط إرشادية لتنظيم وضبط تحوّلات الذكاء الرقمي، وأبرزها منظمة اليونسكو التي أصدرت عام 2021 ” توصية بشأن أخلاقيات الذكاء الاصطناعي”، والتي تُعد أول وثيقة دولية من نوعها تعتمدها 193 دولة، وتضع مجموعة من المبادئ المعيارية التي تروم توجيه استخدام الذكاء الاصطناعي نحو خدمة الإنسان. ومن بين ما تميزت به هذه التوصية، إدراجها لمفاهيم مثل التنمية المستدامة، العدالة الاجتماعية، احترام التنوع الثقافي، وحق الدول النامية في المشاركة العادلة في صياغة السياسات الرقمية. إلا أن التوصية، على أهميتها، تبقى غير ملزمة قانونيًا، ما يستدعي التفكير في آليات تحولها إلى إطار عالمي تنفيذي ذي قوة تطبيقية، سواء عبر المواثيق الأممية، أو عبر اتفاقيات إقليمية ودولية ملزمة.

في هذا السياق، تبرز الحاجة الملحة إلى بناء ميثاق أخلاقي عالمي على أسس تشاركية حقيقية، لا يُفرض من قبل نخب تقنية ضيقة، ولا يُملى من طرف دول ذات نفوذ تكنولوجي واقتصادي مهيمن، بل يُصاغ بتوافق عالمي يشمل مختلف الفاعلين: دول الشمال والجنوب، المجتمعات المتقدمة والنامية، النظم القانونية المتعددة، والثقافات ذات المرجعيات القيمية المتنوعة. ذلك أن الذكاء الاصطناعي، بحكم طبيعته العابرة للحدود، لا يمكن تأطيره أخلاقيًا بمعايير ضيقة أو أحادية، بل يتطلب ميثاقًا يستوعب تعقيدات التنوع البشري، ويُراعي الخصوصيات الحضارية والثقافية، دون السقوط في النسبية المُفرطة أو فرض نماذج معيارية لا تتناسب مع السياقات المختلفة.

إن صياغة هذا الميثاق لا يمكن أن تتم ضمن مقاربة تقنية محضة، تُختزل فيها الأخلاق في إجراءات ومعايير تقنية، كما هو الحال في بعض الأدبيات المعاصرة التي تختزل الإشكالات الأخلاقية في مسألة “سلامة الخوارزمية” أو “قابلية تفسير القرار الآلي”. فمثل هذه المقاربات، رغم أهميتها، تظل قاصرة ما لم تُرافقها مقاربة فلسفية عميقة تُعيد التفكير في الغايات الكبرى للتكنولوجيا، وتُسائل علاقتها بالإنسان والسلطة والقيم. فالفلسفة، في هذا الإطار، ليست ترفًا نظريًا، بل ضرورة وجودية لفهم ما يحدث من تحولات، وتقييم آثارها، واقتراح أطر معيارية قادرة على ضبط الاستخدامات، وتوجيهها نحو تحقيق الصالح العام والمصلحة الإنسانية الشاملة.

كما أن هذا المسار يتطلب بالضرورة انخراط فئات واسعة من الفاعلين في الحوار، وعلى رأسهم الفاعلون القانونيون، الذين يُناط بهم صياغة الإطارات التشريعية الناظمة لاستخدامات الذكاء الاصطناعي، بما يضمن حماية الحقوق والحريات، ويُحصّن المجتمعات ضد الانزلاقات التسلطية، والفاعلون السياسيون، الذين ينبغي أن يترجموا المبادئ الأخلاقية إلى سياسات عمومية عادلة وشاملة، والمربّون والمثقفون، الذين تقع على عاتقهم مهمة بناء وعي اجتماعي وفلسفي لدى الأجيال الجديدة حول رهانات التقنية، وتحفيز التفكير النقدي، والتمكين من أدوات المساءلة والمشاركة. كما يجب ألا تُستثنى المجتمعات المدنية، بما فيها الحركات الحقوقية والنقابات ومنظمات المستهلكين من هذا الحوار، نظرًا لما تمثله من جسور حقيقية بين الفرد والمؤسسات، وقدرتها على نقل هموم الناس ومخاوفهم من التقنية بشكل مباشر وغير نخبوي.

إن تبني ميثاق أخلاقي عالمي لاستخدام الذكاء الاصطناعي لم يعد مسألة نظرية أو رفاهًا فكريًا، بل أضحى ضرورة حتمية لحماية مستقبل البشرية من الانزلاق نحو عالم تتحكم فيه الخوارزميات بلا وعي، وتُقاد فيه المجتمعات بمنطق السرعة والكفاءة، على حساب المعنى والمسؤولية. فالتحدي الحقيقي ليس في تطوير ذكاء يفوق الإنسان في الحساب، بل في صون إنسانية الإنسان وسط زحف الرقميات، وضمان أن تبقى القيم في مركز كل تقدم تكنولوجي. ولذلك، فإن كل تأخير في صياغة هذا الميثاق هو مجازفة بمستقبل لا نتحكم فيه نحن، بل تتحكم فيه أدوات صممناها، ولم نعد نملك توجيهها.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.