نيويورك (أ ف ب) – بينما تتعامل لجنة الإنقاذ الدولية مع الزيادات الكبيرة في عدد النازحين في السنوات الأخيرة، بحثت منظمة مساعدة اللاجئين عن الكفاءات حيثما استطاعت ذلك – بما في ذلك استخدام الذكاء الاصطناعي.
منذ عام 2015، استثمرت لجنة الإنقاذ الدولية في Signpost – وهي مجموعة من تطبيقات الهاتف المحمول وقنوات التواصل الاجتماعي التي تجيب على الأسئلة بلغات مختلفة للأشخاص الذين يواجهون مواقف خطيرة. لقد وصل مشروع Signpost، الذي يضم العديد من المنظمات الأخرى، إلى 18 مليون شخص حتى الآن، لكن IRC تريد زيادة وصولها بشكل كبير باستخدام أدوات الذكاء الاصطناعي.
أدت الصراعات وحالات الطوارئ المناخية والصعوبات الاقتصادية إلى زيادة الطلب على المساعدة الإنسانية، بأكثر من 117 مليون شخص نزحوا قسراً في عام 2024، وفقاً لوكالة اللاجئين التابعة للأمم المتحدة. وبينما تواجه المنظمات الإنسانية المزيد من الأشخاص المحتاجين، فإنها تواجه أيضًا نقصًا هائلاً في التمويل. إن التحول إلى تقنيات الذكاء الاصطناعي مدفوع جزئيًا بهذه الفجوة الهائلة بين الاحتياجات والموارد.
لتحقيق هدفها المتمثل في الوصول إلى نصف النازحين في غضون ثلاث سنوات، تقوم لجنة الإنقاذ الدولية ببناء شبكة من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي يمكنها زيادة قدرة موظفيها الإنسانيين والمنظمات المحلية التي تخدم الناس مباشرة من خلال Signpost. في الوقت الحالي، يعمل المشروع في السلفادور وكينيا واليونان وإيطاليا ويستجيب بـ 11 لغة. وهو يعتمد على مجموعة من نماذج اللغات الكبيرة من بعض أكبر شركات التكنولوجيا، بما في ذلك OpenAI وAnthropic وGoogle.
يستخدم نظام استجابة chatbot أيضًا برنامج خدمة العملاء من Zendesk ويتلقى دعمًا آخر من Google وCisco Systems.
بالإضافة إلى تطوير هذه الأدوات، ترغب لجنة الإنقاذ الدولية في توسيع هذه البنية التحتية لتشمل منظمات إنسانية أخرى غير ربحية دون أي تكلفة. إنهم يأملون في إنشاء موارد تقنية مشتركة يمكن للمؤسسات الأقل تركيزًا على التقنية استخدامها دون الاضطرار إلى التفاوض مباشرة مع شركات التكنولوجيا أو إدارة مخاطر النشر.
“نحن نحاول أن نكون واضحين حقًا بشأن أين تكمن المخاوف المشروعة ولكننا نميل إلى التفاؤل بالفرص ولا نسمح أيضًا للسكان الذين نخدمهم أن يتخلفوا عن الركب في الحلول التي لديها القدرة على التوسع بطريقة إنسانية إلى إنسانية وقالت جيني عنان، رئيسة قسم الأبحاث والابتكار في لجنة الإنقاذ الدولية: “أو لا تستطيع التكنولوجيا الأخرى القيام بذلك”.
يتم فحص الاستجابات والمعلومات التي تقدمها روبوتات الدردشة Signpost من قبل المنظمات المحلية لتكون محدثة وحساسة للظروف المحفوفة بالمخاطر التي يمكن أن يعيشها الأشخاص. أحد الأمثلة على الاستعلام الذي شاركته IRC هو امرأة من السلفادور تسافر عبر المكسيك إلى الولايات المتحدة مع ابنها الذي يبحث عن مأوى وعن خدمات لطفلها. يوفر الروبوت قائمة بمقدمي الخدمات في المنطقة التي تتواجد فيها.
يتم تصعيد الاستفسارات الأكثر تعقيدًا أو حساسية حتى يتمكن البشر من الرد عليها.
الجانب السلبي الأكثر أهمية لهذه الأدوات هو أنها لا تعمل. على سبيل المثال، ماذا لو تغير الوضع على الأرض ولم يعرف برنامج الدردشة الآلي؟ يمكن أن توفر معلومات ليست خاطئة فحسب، بل خطيرة أيضًا.
والمسألة الثانية هي أن هذه الأدوات يمكن أن تجمع قدرًا كبيرًا من البيانات حول الأشخاص الضعفاء الذين يمكن أن تستهدفهم الجهات المعادية. ماذا لو نجح أحد المتسللين في الوصول إلى البيانات باستخدام المعلومات الشخصية أو إذا تمت مشاركة هذه البيانات عن طريق الخطأ مع حكومة قمعية؟
قالت IRC إنها متفقة مع مقدمي التكنولوجيا على عدم تدريب أي من نماذج الذكاء الاصطناعي الخاصة بهم على البيانات التي تولدها IRC أو المنظمات المحلية أو الأشخاص الذين يخدمونهم. لقد عملوا أيضًا على إخفاء هوية البيانات، بما في ذلك إزالة المعلومات الشخصية والموقع.
كجزء من مشروع Signpost.AI، تقوم IRC أيضًا باختبار أدوات مثل المعلم الآلي الرقمي والخرائط التي يمكنها دمج العديد من أنواع البيانات المختلفة للمساعدة في الاستعداد للأزمات والاستجابة لها.
وقالت كاثي بتروزينو، التي تعمل في شركة الأبحاث والتطوير غير الهادفة للربح MITRE، إن أدوات الذكاء الاصطناعي لديها إمكانات عالية، ولكنها تنطوي أيضًا على مخاطر عالية. وقالت إنه لاستخدام هذه الأدوات بشكل مسؤول، يجب على المنظمات أن تسأل نفسها، هل تعمل التكنولوجيا؟ هل هذا عادل؟ هل البيانات والخصوصية محمية؟
وشددت أيضًا على أن المنظمات تحتاج إلى جمع مجموعة من الأشخاص للمساعدة في إدارة المبادرة وتصميمها – وليس فقط الخبراء الفنيين، ولكن الأشخاص الذين لديهم معرفة عميقة بالسياق، والخبراء القانونيين، وممثلي المجموعات التي ستستخدم الأدوات.
وقالت: “هناك العديد من النماذج الجيدة الموجودة في مقبرة الذكاء الاصطناعي، لأنه لم يتم تطويرها بالاشتراك والتعاون مع مجتمع المستخدمين”.
وقال بتروزينو إنه بالنسبة لأي نظام له تأثيرات محتملة على الحياة، يجب على المجموعات جلب خبراء خارجيين لتقييم منهجياتهم بشكل مستقل. وقالت إن مصممي أدوات الذكاء الاصطناعي بحاجة إلى النظر في الأنظمة الأخرى التي ستتفاعل معها، كما أنهم بحاجة إلى التخطيط لمراقبة النموذج مع مرور الوقت.
وقالت هيلين ماكلهيني، المديرة التنفيذية لشبكة CDAC، إن التشاور مع النازحين أو غيرهم ممن تخدمهم المنظمات الإنسانية قد يزيد من الوقت والجهد اللازمين لتصميم هذه الأدوات، ولكن عدم الحصول على مدخلاتهم يثير العديد من المشكلات المتعلقة بالسلامة والأخلاق. ويمكنه أيضًا إطلاق العنان للمعرفة المحلية.
وقالت إنه يجب إخبار الأشخاص الذين يتلقون الخدمات من المنظمات الإنسانية ما إذا كان نموذج الذكاء الاصطناعي سيحلل أي معلومات يقدمونها، حتى لو كان الهدف هو مساعدة المنظمة على الاستجابة بشكل أفضل. وقالت إن ذلك يتطلب موافقة هادفة ومستنيرة. وقالت إنهم يجب أن يعرفوا أيضًا ما إذا كان نموذج الذكاء الاصطناعي يتخذ قرارات تغير الحياة بشأن تخصيص الموارد وأين تقع المسؤولية عن تلك القرارات.
كان ديغان علي، الرئيس التنفيذي لمنظمة Adeso، وهي منظمة غير ربحية في الصومال وكينيا، مناصراً منذ فترة طويلة لتغيير ديناميكيات السلطة في التنمية الدولية لمنح المزيد من المال والسيطرة للمنظمات المحلية. وتساءلت كيف يمكن للجنة الإنقاذ الدولية وغيرها من الجهات التي تسعى إلى الحصول على هذه التكنولوجيات أن تتغلب على مشاكل الوصول، مشيرة إلى انقطاع التيار الكهربائي لمدة أسبوع وقالت إن روبوتات الدردشة التي سببها إعصار هيلين في الولايات المتحدة لن تساعد عندما لا يكون هناك جهاز أو إنترنت أو كهرباء.
وحذر علي أيضًا من أن عددًا قليلًا من المنظمات المحلية لديها القدرة على حضور المؤتمرات الإنسانية الكبيرة حيث تتم مناقشة أخلاقيات الذكاء الاصطناعي. وقالت إن القليل منهم لديهم موظفين رفيعي المستوى وذوي معرفة كافية للمشاركة حقًا في هذه المناقشات، على الرغم من أنهم يفهمون القوة والتأثير المحتملين الذي قد تحدثه هذه التقنيات.
وقال علي: “يجب أن نكون حريصين للغاية على عدم تكرار اختلال توازن القوى والتحيزات من خلال التكنولوجيا”. “ستتطلب الأسئلة الأكثر تعقيدًا دائمًا خبرة محلية وسياقية ومعيشية للإجابة عليها بطريقة ذات معنى.”
___
وكالة أسوشيتد برس وOpenAI اتفاقية الترخيص والتكنولوجيا الذي يسمح لـ OpenAI بالوصول إلى جزء من أرشيفات النصوص الخاصة بـ AP.
___
تتلقى تغطية Associated Press للأعمال الخيرية والمنظمات غير الربحية الدعم من خلال تعاون AP مع The Conversation US، بتمويل من شركة Lilly Endowment Inc. وAP هي المسؤولة الوحيدة عن هذا المحتوى. للاطلاع على كافة تغطية الأعمال الخيرية التي تقدمها AP، تفضل بزيارة https://apnews.com/hub/philanthropy.
ولا تنسى الضغط هنا ومتابعة قناتنا على تليجرام
0 تعليق