أخبار سوق عمان المالي / أسهم
 سعر السهم
Sahafi.jo | Rasseen.com

المواضيع الأكثر قراءة

 
 
  • آخر تحديث
    20-Oct-2025

حوكمة استخدام الذكاء الاصطناعي في إدارة الموارد البشرية: التوازن بين التقنية والمسؤولية*د. جهاد يونس القديمات

 الغد

تشهد المنظمات في مختلف أنحاء العالم، ومنها الأردن، تحولا متسارعا نحو استخدام تقنيات الذكاء الاصطناعي AI في مجالات عدة منها، إدارة الموارد البشرية، مثل التوظيف، وتقييم الأداء، وتحليل البيانات الوظيفية، ومع هذا التوسع، تبرز الحاجة هنا وبشكل استباقي لوضع أطر واضحة لحوكمة استخدام هذه التقنيات، بما يضمن توظيفها بطريقة أخلاقية ومسؤولة، تحافظ على حقوق الموظفين وتعزز ثقة الأفراد بالنظم الرقمية داخل بيئة العمل.
 
 
يقصد بحوكمة استخدام الذكاء الاصطناعي في إدارة الموارد البشرية هي وضع الأطر والسياسات والضوابط والمسؤوليات التي تضمن استخدام هذه الأنظمة بشكل قانوني وشفاف ومتوازن، وتهدف إلى حماية حقوق الموظفين، خصوصا ما يتعلق بالخصوصية والعدالة وعدم التمييز، إضافة إلى ضمان أن تكون أدوات الذكاء الاصطناعي داعمة لاتخاذ القرار البشري، وليست بديلا عنه، مع العمل على إدارة المخاطر المحتملة مثل التحيز أو الخطأ أو فقدان الثقة، والامتثال للقوانين التنظيمية ذات الصلة.
رغم الفوائد الكبيرة التي يقدمها الذكاء الاصطناعي في تسريع عمليات التوظيف وتحليل الأداء، إلا أن تطبيقه في مجال الموارد البشرية يواجه تحديات ومخاطر متعددة، فمن أبرز هذه التحديات التحيز والتمييز، إذ قد تدرب الأنظمة الذكية على بيانات قديمة أو غير متوازنة، مما يعزز أنماط التحيز القائمة على الجنس أو العمر أو الخلفية التعليمية أو النشأة الاجتماعية، كما يشكل انتهاك الخصوصية وسوء إدارة البيانات تحديا بارزا، حيث تتعامل إدارات الموارد البشرية مع بيانات عالية الحساسية مثل الملفات الخاصة والسرية، وتقييم الأداء والمراسلات الداخلية، مما يتطلب تأمين هذه المعلومات وضمان خصوصيتها، والحصول على موافقة صريحة من الموظفين لاستخدامها. في السياق الأردني، تزداد الحاجة إلى تطوير إطار وطني متكامل لحوكمة الذكاء الاصطناعي في المنظمات العامة والخاصة على حد سواء، بحيث يتماشى مع قانون حماية البيانات الشخصية رقم (24) لسنة 2023.
إن حوكمة الذكاء الاصطناعي في إدارة الموارد البشرية لم تعد ترفا إداريا أو خيارا تجريبيا، بل أصبح ضرورة إستراتيجية لضمان الاستخدام العادل والمسؤول للتقنيات الذكية، فالتوازن بين الكفاءة التشغيلية والالتزام الأخلاقي هو ما يحدد نجاح المنظمات في المستقبل، إذ ينبغي أن ينظر إلى الذكاء الاصطناعي كشريك داعم لصنع القرار، لا كبديل عن العنصر البشري الذي يبقى جوهر العملية الإدارية وركيزتها الأساسية، وليس مجرد إجراء تنظيمي، بل هي رؤية مستقبلية تسعى إلى تحقيق توازن بين الابتكار والمسؤولية.
على المستوى القانوني، فإن الامتثال للتشريعات يعد مسألة جوهرية، خصوصا مع تزايد أهمية قوانين حماية البيانات وقوانين العمل، التي تفرض التزامات محددة على المنظمات في ما يتعلق بجمع المعلومات وتحليلها واستخدامها مبدأ العدالة التنظيمية والمساءلة الرقمية، فكل قرار آلي يجب أن يكون قابلا للتدقيق والمراجعة، بحيث يمكن تتبع مصدره ومعرفة الأسس التي استند إليها، فالذكاء الاصطناعي يجب أن يكون شفافا بقدر ما هو ذكي، لأن الغموض في القرارات المؤثرة على حياة الأفراد قد يؤدي إلى فقدان الثقة داخل المنظمة وإثارة النزاعات القانونية أو الأخلاقية. العدالة المنظمية تضمن أن يمتلك الموظف أو المتقدم للوظيفة الحق في الاعتراض أو طلب تفسير القرار، فالمساءلة هنا لا تعد عبئا إداريا، بل هي ضمانة للاستدامة المنظمية، لأنها تمنح الأفراد شعورا بالإنصاف وتدعم صورة المنظمة كمكان عمل عادل وشفاف.
على المستوى الإداري، تتيح الحوكمة للمنظمات فهما أعمق لكيفية توجيه الذكاء الاصطناعي لخدمة الأهداف المنظمية دون تجاوز الحدود الأخلاقية أو القانونية، فعلى سبيل المثال، يمكن للنظام الذكي أن يقترح المرشحين الأكثر ملاءمة لوظيفة معينة بناء على تحليل السير الذاتية، لكنه لا يجب أن يمنح صلاحية القرار النهائي في التعيين أو الاستبعاد، لأن العنصر الإنساني يظل الأقدر على تقييم الجوانب الشخصية، والدوافع، والسلوكيات غير القابلة للقياس الرقمي، كما أن تأهيل القيادات الإدارية تمتلك فهما عميقا لتقنيات الذكاء الاصطناعي يعد شرطا أساسيا لنجاح الحوكمة، فالمسؤول الذي يستخدم الذكاء الاصطناعي دون إدراك لطريقة عمله أو حدوده، قد يتخذ قرارات غير مدروسة أو يقع في فخ الاعتماد المفرط على الخوارزميات. على المستوى الاجتماعي، تمتد آثار الحوكمة إلى تعزيز ثقة المجتمع في أنظمة العمل الرقمية، فكلما شعر الأفراد أن بياناتهم تستخدم بمسؤولية، وأن القرارات المتعلقة بهم لا تتخذ بطريقة آلية غامضة، زادت ثقتهم بالمنظمة وببيئة العمل الرقمية عموما، وهذا ما يجعل الحوكمة عاملا رئيسيا في بناء ثقافة ذكاء اصطناعي أخلاقي داخل المنظمة، بمعنى آخر يفرض علينا التحول نحو الذكاء الاصطناعي إعادة التفكير في مفهوم العدالة المهنية ذاته، فبينما كان التقييم الوظيفي في الماضي يعتمد على الأداء البشري المباشر، أصبح اليوم خاضعا لمعايير رقمية قد لا تأخذ في الاعتبار الجوانب الإنسانية مثل الإبداع أو الجهد غير المرئي أو الظروف الفردية، ومن هنا، تأتي أهمية وجود آليات بشرية مرافقة تضمن أن تبقى القرارات عادلة وشاملة، لا مجرد نتاج لخوارزميات جامدة. أما على المستوى الاقتصادي، فإن تبني حوكمة فعالة لا يقلل من الابتكار، بل على العكس، يعززه، فالمنظمات التي تضع أطرا واضحة للاستخدام الآمن والمسؤول للذكاء الاصطناعي تصبح أكثر قدرة على جذب الاستثمارات، واستقطاب الكفاءات، والحفاظ على تنافسيتها في سوق العمل العالمي، كما أن التوازن بين الكفاءة التقنية والالتزام الأخلاقي يجعلها أكثر استعدادا لمتطلبات التحول الرقمي المستقبلي، وتقترح التجارب الدولية، خاصة في الاتحاد الأوروبي وكندا وسنغافورة، مجموعة من المبادئ التي يمكن الاستفادة منها في السياق العربي، أهمها:
-الشفافية والتفسير: ضمان إمكانية شرح أي قرار صادر عن نظام الذكاء الاصطناعي بطريقة مفهومة للموظفين والإدارة.
-العدالة وعدم التمييز: اختبار الأنظمة بانتظام للتأكد من خلوها من التحيزات الخوارزمية.
-المساءلة والمراجعة: تحديد الجهات المسؤولة عن أي خطأ ينتج عن استخدام النظام، ووضع آلية تصحيح واضحة.
-الخصوصية وأمن البيانات: تطبيق أعلى معايير الحماية الرقمية والالتزام الكامل بقوانين حماية البيانات.
-الإشراف البشري: ضمان أن يظل الإنسان هو المتحكم في القرارات الجوهرية المتعلقة بالموظفين.
   إن تحقيق التوازن بين الابتكار والحماية القانونية يمثل تحديا متزايدا، خاصة مع تسارع صدور القوانين الدولية والوطنية المرتبطة بالذكاء الاصطناعي وحماية البيانات، لذلك فإن صياغة تشريعات وطنية متخصصة في حوكمة الذكاء الاصطناعي بالموارد البشرية باتت ضرورة ملحة، خصوصا في العالم العربي، لضمان وضوح المسؤوليات وتحديد معايير العدالة الرقمية، ومن المفيد أن تتضمن هذه التشريعات مبادئ واضحة مثل (الحق في التفسير) و(الحق في الاعتراض) على القرارات الآلية، و(الحق في الخصوصية الرقمية)، بما يتماشى مع الممارسات الأوروبية الحديثة.
وفي ضوء ذلك، يمكن تلخيص الرؤية المستقبلية في ثلاثة اتجاهات رئيسية:
أولا: تعزيز الشفافية والعدالة في نظم التوظيف والتقييم القائمة على الذكاء الاصطناعي، عبر المراجعة الدورية للخوارزميات وإدراك دور العنصر البشري في المراحل الحساسة.
ثانيا: الاستثمار في بناء قدرات بشرية جديدة تتقن التعامل مع الذكاء الاصطناعي وتحليل مخرجاته، لضمان الاستخدام الواعي والمسؤول للتقنية.
ثالثا: وضع معايير وطنية وإقليمية لحوكمة الذكاء الاصطناعي في الموارد البشرية، بحيث تشكل مرجعا موحدا للمنظمات العامة والخاصة، وتضمن حماية حقوق الموظفين، وتنظيم العلاقة بين الإنسان والتقنية.
من المهم التأكيد على أن حوكمة الذكاء الاصطناعي لا تقاس فقط بوجود لوائح مكتوبة، بل بمستوى الالتزام العملي بها، فالتحدي الحقيقي ليس في وضع السياسات، بل في تطبيقها ومراجعتها بانتظام، فالأنظمة الذكية تتطور بسرعة، وما كان ملائما اليوم قد يصبح غير كاف غدا، لذلك، يجب أن تكون الحوكمة عملية ديناميكية مستمرة، تحدّث باستمرار لتواكب التغيرات التقنية والقانونية والمجتمعية. 
    في النهاية، إن الطريق نحو إدارة الموارد البشرية القائمة على الذكاء الاصطناعي لا بد أن يكون محفوفة بالمخاطر، فالتقنية يمكن أن تكون سيفا ذا حدين: فهي قادرة على إحداث نقلة نوعية في الكفاءة والموضوعية، لكنها أيضا قد تعمق الفجوات الاجتماعية والمهنية إذا أسيء استخدامها أو غابت عنها الحوكمة الرشيدة، وبشكل عام قد يؤدي استخدام الذكاء الاصطناعي إلى مخاوف من الأتمتة وتأثيرها على الوظائف، قد يشعر بعض الموظفين بأن الذكاء الاصطناعي يمثل تهديدا يجب مقاومته، وقد يقلل من دورهم، أو يهدد استقرارهم الوظيفي، مما يخلق حالة من القلق داخل بيئة العمل ويضعف الثقة المنظمية.