![]() |
![]() |
![]() |
---|
تريستان هيل، رئيس قسم الرقمنة والاتصالات، اسفير
فيما يلي نتائج استطلاع أجراه اسفير مؤخرًا للمنظمات الإنسانية في هذا الشأن:
قال 51% من المستجيبين إن منظماتهم تستخدم – أو تستكشف استخدام – الذكاء الاصطناعي.
لم يتلق 57% أي تدريب أو توجيه فيما يخص استخدام الذكاء الاصطناعي، أو ليس لديهم دراية بأي سياسات تنظيمية بشأن ذلك.
قال 6% فقط إنهم على دراية جيدة بمخاطر الذكاء الاصطناعي.
حدد 59% من المستجيبين الذين قالوا بإن لديهم، على الأقل، بعض المعرفة بمخاطر الذكاء الاصطناعي عدم دقة المخرجات، والاعتماد على الذكاء الاصطناعي، ونزع الصفة الإنسانية عن المساعدات باعتبارها الجوانب الأكثر خطورة التي قد تترتب على استخدامه.
ما أشد مخاطر الذكاء الاصطناعي التي تعتبرها المنظمات الإنسانية؟
على الرغم من أن الذكاء الاصطناعي قد يكون مفيدًا للقطاع الإنساني، فإنه قد يلحق الضرر بالفئات المُعرّضة للخطر أيضًا.
كيف يمكن للمنظمات الإنسانية – أو الأشخاص الذين يعملون في المنظمات المسؤولة عن المشتريات – اتخاذ قرارات جيدة بشأن متى وأين وكيف يمكنهم استخدام الذكاء الاصطناعي؟ كيف يمكن لهذه المنظمات أن تثبت للمانحين المحتملين أنها تستخدم الذكاء الاصطناعي بأمان ومسؤولية؟ وبالنظر إلى وجهة الجانب الآخر، كيف يمكن للمانحين التأكد من أن المستفيدين المحتملين من المنح سيستخدمون الذكاء الاصطناعي بشكل مسؤول؟
كيف يمكننا دعم العاملين في المجال الإنساني، الذين يرغبون في الاستفادة من الذكاء الاصطناعي، لاستخدامه على نحو آمن؟
مؤشر سلامة استخدام الذكاء الاصطناعي
هناك العديد من الأساليب الممكنة للإجابة على الأسئلة التي وردت أعلاه، بما في ذلك بناء القدرات، ووضع المعايير و/أو التوجيهات، والحصول على شهادات اعتماد في هذا الشأن.
تجدر الإشارة إلى أن اسفير يعمل في الوقت الحالي مع نيستا (مؤسسة الابتكار في المملكة المتحدة للصالح الاجتماعي)، ومنظمة داتا فريندلي سبيس، وشبكة سي دي إيه سي – بدعم من وزارة الخارجية والتنمية البريطانية ومركز الابتكار الإنساني في المملكة المتحدة – على وضع مواصفات ومحددات لمؤشر سلامة استخدام الذكاء الاصطناعي. ماذا لو تمكّنت من إثبات أن استخدام مؤسستك لمنصة ذكاء اصطناعي محددة في سياق محدد يتجاوز عتبة أمان معقولة؟
عملية تقييم من ثلاث مراحل
يُبنى مفهومنا المتعلق بمؤشر سلامة استخدام الذكاء الاصطناعي على ثلاثة مكونات رئيسية:
– التقييم الفني: اختبر منصة الذكاء الاصطناعي مقابل مقاييس مثل: الأداء والدقة وسهولة الاستخدام، والتحيّز، واستخدام الموارد، والشفافية، وقابلية التفسير، وزمن الوصول، والسرعة، وما إلى ذلك.
– تقييم القدرة التنظيمية: تأكّد من أن المنظمة الإنسانية التي تنوي استخدام منصة الذكاء الاصطناعي لديها القدرة على القيام بذلك. على سبيل المثال، إذا كان نموذج الذكاء الاصطناعي يتطلّب بيانات شخصية أو حسّاسة، فهل تُولي المنظمة عناية كافية بالأمن السيبراني؟ وهل يتمتع الموظفون بالتدريب الصحيح لاستخدام منصة الذكاء الاصطناعي ذات الصلة؟
– القبول الاجتماعي وتقييم المخاطر: قد يكون النظام الذي يعمل بشكل جيد في سياق ما ضارًا في سياق آخر، وأحد عناصر تحديد ملاءمة السياق هو قبول المجتمع الذي سيتأثّر بالقرارات التي تستند إلى مخرجات منصة الذكاء الاصطناعي المستخدمة.
في إطار هذا البحث، أجرينا مقابلات مع عشرات الأشخاص بما في ذلك المراجعين، وواضعي المعايير، وموظفي المنظمات الإنسانية؛ الذين يعملون في الأدوار الميدانية، والمشتريات، والسياسية، والفنية. نحن ممتنون لكل من تطوّع بوقته، لإخبارنا بالجوانب الفعّالة وغير الفعّالة فيما يتعلق بهذه المكونات الثلاثة.
استشارات شبكة اسفير
طلبنا من المشاركين في منتدى مراكز التنسيق العالمية، الذي عُقد في أنطاليا، تصميم الشكل الذي يمكن أن يبدو عليه مؤشر سلامة استخدام الذكاء الاصطناعي، وجدوى التقييم التنظيمي للقدرات المطلوبة لاستخدام الذكاء الاصطناعي بأمان.
وفي حين أكدّت هذه الجلسة وجود اهتمام قوي بالذكاء الاصطناعي في قطاع العمل الإنساني، فقد أظهرت أيضًا أنه في الوقت الحالي لا يوجد سوى عدد قليل فقط من المنظمات التي تمتلك القدرة على التعامل مع التعقيدات الفنية والمتطلبات القانونية والاعتبارات الأخلاقية لاتخاذ قرارات جيدة بشأن الذكاء الاصطناعي.
صورة تظهر أليكس بيرديتشيفسكايا (من مؤسسة نيستا) وهي تتولى تيسير نشاطًا جماعيًا حول القدرات التنظيمية المتعلقة باستخدام الذكاء الاصطناعي بشكل آمن خلال المنتدى، أنطاليا، تركيا، نوفمبر 2024
لاختبار المرحلة الثالثة، نظمنا ورشتي عمل، باللغة التركية، مع أشخاص من المجتمعات المتضرّرة من الزلزال الشديد الذي وقع في المنطقة في فبراير 2023.
وفي إطار هذه العملية، سألنا المشاركين عن شعورهم حيّال منصة الذكاء الاصطناعي التي تستخدم صور الأقمار الاصطناعية لتقدير أضرار الزلازل التي لحقت بمنازلهم.
صورة لكل من زينب ساندوفاتش، مدربة اسفير من (منظمة نيرينجي)، وإستر موس من (مؤسسة نيستا) تيسران ورشة عمل للاختبار المجتمعي في أنطاكيا، تركيا، نوفمبر 2024.
من الاستنتاجات المثيرة للاهتمام من ورشة العمل هذه أنه في الحالات التي يوجد فيها عدم رضا عن عملية صنع القرار البشري، قد يتم الترحيب بالذكاء الاصطناعي وليس الخوف منه. وفيما يلي رأي أحد المشاركين (مترجم من التركية):
“أعتقد أن بإمكان الذكاء الاصطناعي تقييم أضرار المباني دون أن يتأثّر بالعواطف. ففي الكوارث واسعة النطاق مثل زلزال كهرمان مرعش، يتأثّر البشر بشدة، مما قد يجعل تقييماتهم أقل دقة “.
وعلى الرغم من أننا نتوقع معايير عالية جدًا من منصات الذكاء الاصطناعي من حيث الدقة، وعدم التحيّز، وما إلى ذلك، فإننا نتسامح في الوقت نفسه مع التحيّز، والتأثيرات العاطفية، والأجندات السياسية لدى البشر. وهذا يعود لسبب وجيه: إذا ارتكب الإنسان خطأ، فيمكن محاسبته؛ لكن إذا ارتكبت منصة الذكاء الاصطناعي خطأ، فقد يكون من الصعب تحديد المسؤول.
علاوة على ما سبق ذكره، أظهر بحثنا أن مفهوم مؤشر سلامة استخدام الذكاء الاصطناعي يلقى قبولًا لدى العاملين في المجال الإنساني، ونحن الآن نعكف على مراجعة التصميم وتنقيحه للتأكّد من أنه يلبي الاحتياجات المتنوعة لمختلف فئات القطاع الإنساني.
إذا كانت منظمتك تستكشف التداخل بين الذكاء الاصطناعي والمشاركة المجتمعية، وتتساءل عن كيفية استخدام الذكاء الاصطناعي بأمان ومسؤولية، فيرجى الاتصال بنا.
للاستفسارات الإعلامية أو متابعة مؤشر سلامة استخدام الذكاء الاصطناعي، يُرجى التواصل معنا من خلال البريد الإلكتروني التالي: communications@spherestandards.org