ثمة تحول يجري في كثير من المنظمات بعيدًا عن العناوين الكبيرة.
ليس في المؤتمرات ولا في البيانات الرسمية هو في تفاصيل العمل اليومية الصغيرة، حيث صار الذكاء الاصطناعي يُستخدم أحيانًا قبل أن يُناقش، ويؤثر قبل أن يُنظّم، لذلك يأتي هذا المقال بوصفه قراءة مهنية في واحدة من أكثر المساحات صمتًا وحساسية وهو مستفاد فكريًا من مادة منشورة في Charity Digital بقلم Robin Warren، وقد أُعيد تحريره وصياغته بما يحفظ الحق الأدبي للكاتب والمصدر الأصلي.
مقال ضيفنا، الذي كتبه روبن وارن (Robin Warren)، مؤسس هينشيلا (Hinchilla)، يستعرض كيف انتشر الاستخدام غير المصرّح به للذكاء الاصطناعي داخل المؤسسات الخيرية، كما انتشر في الاقتصاد الأوسع وفي القطاع الخيري نفسه.
أكثر من سبعة من كل عشرة عاملين في المملكة المتحدة، أي 71%، استخدموا أدوات ذكاء اصطناعي غير معتمدة في العمل. هذه النتيجة، الواردة في بحث أجرته مايكروسوفت (Microsoft) وسنسوسوايد (Censuswide) في أكتوبر 2025، كافية لأن تجعل كل رئيس تنفيذي في جمعية خيرية يتوقف قليلًا و ليس لأن الذكاء الاصطناعي خطر بطبيعته، ولكن لأن ما لا نعرفه قد يؤذينا.
لقد تبنّى القطاع الخيري الذكاء الاصطناعي بسرعة لافتة وبحسب تقرير المهارات الرقمية للجمعيات الخيرية 2025 (Charity Digital Skills Report 2025)، فإن 76% من الجمعيات الخيرية في المملكة المتحدة تستخدم الذكاء الاصطناعي اليوم بشكل من الأشكال. ومع ذلك، وحتى منتصف عام 2024، لم تكن سوى 6% فقط قد طوّرت سياسة تنظّم هذا الاستخدام وإن كان من المشجع أن نحو 50% من الجمعيات بحلول عام 2025 كانت تعمل على تطوير سياسات في هذا الشأن.
ومع ذلك، فإن هذه الإحصاءات تكشف واقعًا غير مريح: جانب كبير من تبنّي الذكاء الاصطناعي داخل الجمعيات الخيرية جرى من دون إشراف، ومن دون إرشادات، وفي كثير من الأحيان من دون أن تعرف القيادات أصلًا أن ذلك يحدث.
القوى العاملة الخفية
العاملون في أنحاء القطاع يدمجون الذكاء الاصطناعي بهدوء في أعمالهم اليومية و يستخدمونه في صياغة الرسائل الإلكترونية، وتلخيص التقارير، وتحليل البيانات، ونعم، حتى في كتابة طلبات التمويل. ومعظمهم لا يخبر أحدًا بذلك.
وهذا الصمت ليس مفاجئًا إذا نظرنا إلى الأرقام حيث وجد بحث صادر عن مايكروسوفت (Microsoft) ومؤشر اتجاهات العمل (Work Trend Index) التابع لـ لينكد إن (LinkedIn) أن 52% ممن يستخدمون الذكاء الاصطناعي في العمل يترددون في الاعتراف بذلك حين يتعلق الأمر بالمهام المهمة، خوفًا من أن يجعلهم ذلك يبدون قابلين للاستبدال أو غير أكفاء.
والأكثر لفتًا أن بحثًا صادرًا عن ذا أكسس غروب (The Access Group) وجد أن 35% يقرّون باستخدام الذكاء الاصطناعي سرًا في مهام كان «من المفترض أن يُنجزوها بأنفسهم»، كما وجدت مؤسسة جوزيف راونتري (Joseph Rowntree Foundation) أن 73% من المنظمات غير الربحية لا تمتلك أي إرشادات تخص الذكاء الاصطناعي على الإطلاق.
وفي هذا الفراغ، يضع العاملون قواعدهم الخاصة إذ يفترض بعضهم أن استخدام الذكاء الاصطناعي مقبول ما دام لا أحد قال غير ذلك وبعضهم الآخر يظن أنه قد يكون محل استياء، فيلتزم الصمت وقلة منهم يخفون استخدامهم عمدًا، خشية ما قد يترتب على الإفصاح عنه.
هذه ليست قصة عاملين مارقين أو إخفاقات أخلاقية ولكنها قصة تصميم تنظيمي بسبب أنه عندما لا توفّر الجمعيات الخيرية الوضوح، يملأ العاملون هذه الفجوة بالصمت.
لماذا يهم هذا أكثر في الجمعيات الخيرية؟
كل منظمة تواجه تحديات حوكمة الذكاء الاصطناعي، لكن الجمعيات الخيرية تعمل في مساحة شديدة الحساسية على نحو فريد، والبيانات التي تتعامل معها كثيرًا ما تقع ضمن ما يصنّفه النظام الأوروبي العام لحماية البيانات (GDPR) ضمن «الفئات الخاصة»، مثل المعلومات المتعلقة بالحالات الصحية، أو الأصل العرقي، أو المعتقدات الدينية.
كما أن سجلات الحماية غالبًا ما تحتوي على هذا النوع من البيانات الحساسة وعندما ينسخ أحد العاملين في الحالات الاجتماعية ملاحظات عميل إلى أداة ذكاء اصطناعي للمساعدة في إعداد تقرير، فقد يكون يشارك بيانات محمية مع معالج بيانات من طرف ثالث من دون أن يدرك أبعاد ذلك.
يجدر بنا القول أنّ البيئة التنظيمية تتجه إلى مزيد من التشدد.
في ديسمبر 2025، حدّثت هيئة تنظيم جمع التبرعات في المملكة المتحدة (UK Fundraising Regulator) إرشاداتها المتعلقة باستخدام الذكاء الاصطناعي في جمع التبرعات، لتوضّح أن الأمناء يتحملون مسؤولية المساءلة عن كيفية استخدام منظماتهم للذكاء الاصطناعي في هذا المجال وبالتالي لم يعد هذا الأمر قلقًا نظريًا، بل التزام حَوكمي يقع على مجلسكم.
"تفوح منه رائحة شات جي بي تي (ChatGPT) ولا مجال للشكّ حيث طلبت منه حرفيًا أن يكتب لك النص ثم أرسلته إليّ... وأنت الآن سترسل هذا إلى لجنة مهمة من الناس، وإذا كنت أنا أستطيع ملاحظة التنميق الاصطناعيّ، فَمعناه يوجد احتمال كبير أنهم هم أيضًا يلاحظونه."
وحين يستخدم العاملون الذكاء الاصطناعي من دون إفصاح، بينما يستطيع المراجعون الخارجيون اكتشاف ذلك فورًا، فإن فجوة في المساءلة تتشكل تدريجيا وهي فجوة أصبح الأمناء الآن مسؤولين صراحة عن سدّها.
وبالنسبة إلى الجمعيات الخيرية، فإن السمعة لا تكون مجرد قيمة إضافية، بل تصبح بنية تشغيلية أساسية. وباختصار، هذا القطاع يعمل على الثقة؛ ثقة المتبرعين، وثقة المستفيدين، وثقة الممولين، وثقة الجمهور وأي خرق بيانات أو حادثة سوء استخدام تتعلق بالذكاء الاصطناعي قد تخلّف ضررًا طويل الأمد.
الممولون يراقبون
بدأ كبار الممولين في تكوين مواقفهم من استخدام الذكاء الاصطناعي في الطلبات وفي تنفيذ البرامج ومُقارباتهم صارت تختلف، وعلى الجمعيات الخيرية أن تنتبه لذلك.
مثلًا، أشارت هيئة أطفال البي بي سي المحتاجين (BBC Children in Need) إلى أنها قد تسأل عن استخدام الذكاء الاصطناعي خلال عملية تقييم طلبات المنح وليس ذلك بالضرورة أمرًا سلبيًا، لأنها تريد أن تفهم كيف تعمل المنظمات، ولكنه يعني أن على الجمعيات أن تكون مستعدة للإجابة بصدق.
كما تتوقع الهيئة البريطانية للبحث والابتكار (UK Research and Innovation) قدرًا من الشفافية بشأن استخدام الذكاء الاصطناعي في طلبات التمويل وبالنسبة إلى الجمعيات المنخرطة في شراكات بحثية، فإن هذا يضع معيارًا واضحًا: أفصحوا عن مَنهجيتكم، بما في ذلك استخدامكم لأدوات الذكاء الاصطناعي.
وأمّا مؤسسة إسمي فيربيرن (Esmée Fairbairn Foundation) فقد اتخذت نهجًا مختلفًا، إذ أعلنت أنها لا تفضّل موقفًا بعينه من استخدام الذكاء الاصطناعي، لكنها شددت على أهمية الصدق في توضيح كيفية إعداد الطلبات.
والرسالة الأساسية هنا أن مواقف الممولين بدأت تتباعد حيث صار بعضهم فضولي، وبعضهم حذر، والجميع صار يريد الصراحة، والجمعيات الخيرية التي استخدمت الذكاء الاصطناعي من دون تتبع أو إفصاح قد تجد نفسها في محادثات محرجة وعليه من الأفضل أن تستبق ذلك من الآن.
الإجراء الفوريّ؟
لا تتطلب معالجة الاستخدام الخفي للذكاء الاصطناعي تغييرًا تنظيميًا شاملًا ولكنها تتطلب حديثًا صريحًا وإجراءً عمليًا.
ابدأوا بتدقيق استخدامكم الحالي للذكاء الاصطناعي حيث لا يمكنكم حوكمة ما لا تفهمونه، في المقابل نفّذوا استبيانًا داخليًا مجهول الهوية بين العاملين لمعرفة ما الذي يحدث فعليًا داخل منظمتكم ولا تسألوا فقط عمّا إذا كان الناس يستخدمون الذكاء الاصطناعي، بل اسألوا عن الأدوات التي يستخدمونها، والمهام التي يستخدمونها فيها، والمخاوف التي تراودهم.
أما في الجمعيات الأصغر، فقد يكون هذا ببساطة حديثًا جماعيًا لمدة 15 دقيقة بدلًا من استبيان رسمي والمقصود هو كشف ما يحدث، لا صناعة بيروقراطية جديدة.
ضعوا الذكاء الاصطناعي على جدول أعمال الأمناء لأنّ هذه القضية هي قضية حوكمة، لا مجرد قضية تشغيلية ومنه تحتاج المجالس إلى فهم مشهد الذكاء الاصطناعي داخل المنظمة، وإلى تحمّل ملكية المخاطر والفرص المرتبطة به ويمكن أن يكون بند واحد على جدول الأعمال بداية معقولة من أجل فتح هذا النقاش.
طوّروا سياسة متوازنة للذكاء الاصطناعي لأنّ الهدف ليس حظره بالكامل، ولا خلق عوائق بيروقراطية ولكن الهدف هو منح العاملين وضوحًا بشأن ما هو مقبول، وما الذي يحتاج إلى موافقة، وما الذي يُعد خارج الحدود.
من جانبها، تزيل السياسة الجيدة مساحة التخمين التي تدفع إلى السرية وللاطلاع على كيفية تعامل منصات الذكاء الاصطناعي المختلفة مع البيانات الحساسة، وكيفية تأمين كل واحدة منها، يمكنكم الرجوع إلى مقال هينشيلا (Hinchilla) حول ذلك.
أنشئوا قنوات آمنة تتيح للعاملين طرح الأسئلة، فإذا خاف الناس من الأحكام أو العواقب، سيظلون صامتين واجعلوا طلب الإرشاد سهلًا وآمنًا ومن هنا يمكن التفكير في تعيين مسؤول للذكاء الاصطناعي، أو إنشاء آلية بسيطة تتيح للعاملين التحقق قبل استخدام أدوات جديدة.
إخراج الذكاء الاصطناعي من الظلال
لا يتعلق أي من هذا بكشف أخطاء الناس أو بإرجاع الساعة إلى الوراء في تبنّي التقنية.
أصبح الذكاء الاصطناعي بالفعل جزءًا من طريقة عمل الجمعيات الخيرية والسؤال ليس هل يحدث ذلك، بل هل يحدث بشفافية، وبأمان، وبما ينسجم مع قيمكم.
من جهة أخرى، ليس العاملون الذين استخدموا الذكاء الاصطناعي بصمت أشرارًا، وكثير منهم من أصحاب الأداء المرتفع الذين يبحثون عن سبل للعمل بكفاءة أكبر داخل منظمات تعاني أصلًا من محدودية الموارد والمشكلة ليست في سلوكهم، بل في الصمت الذي يحيط به.
لدى الجمعيات الخيرية هنا فرصة للريادة و فرصة لأن تثبت أن الاستخدام المسؤول للذكاء الاصطناعي والاستخدام الفعّال له يمكن أن يكونا الشيء نفسه وأن تبني ثقافات يحدث فيها الابتكار في العلن، وتدار فيها المخاطر بدلًا من تجاهلها، ويشعر فيها العاملون بالثقة حين يطلبون الإرشاد.
لا تبدو الإجابة الحقيقية في دخول الذكاء الاصطناعي إلى العمل غير الربحي، هي تصف دخوله من دون إطار واضح يضبط حضوره ويحدد مسؤوليته.
المنظمة التي تسبق هذا التحول بالسياسة، وتحيطه بالشفافية، وتربطه بالحَوْكمة، لا تحمي بياناتها وسمعتها فحسب، هي تحمي كذلك ثقة أصحاب المصلحة فيها وفي قطاع يقوم أصلًا على الموثوقية، لا يكون السؤال الأهم: هل تستخدم الذكاء الاصطناعي؟ بل: هل نستخدمه بطريقة يمكن الدفاع عنها مهنيًا وأخلاقيًا ومؤسسيًا؟
- هل كانت هذه المقالة مفيدة؟
