تكنولوجيا: ChatGPT يتصدى لمحاولات تزييف الصور خلال الانتخابات الرئاسية الأمريكية - اليوم الإخباري

النجم للتقنية 0 تعليق ارسل طباعة تبليغ حذف
241109-chat-gpt-ch-1548-2b57a3.webp

 انتهت الانتخابات الرئاسية الأمريكية بفوز دونالد ترامب في سباق محتدم مع كامالا هاريس، حيث أصبح رئيسًا للولايات المتحدة. لكن في ظل هذا الحدث السياسي الكبير، كان هناك تحدٍ آخر يدور خلف الكواليس، إذ واجه روبوت ChatGPT محاولات عديدة لإنشاء صور مزيفة للمرشحين باستخدام الذكاء الاصطناعي، مما أثار تساؤلات حول دور التكنولوجيا في مكافحة المعلومات المضللة خلال الانتخابات.

كشفت OpenAI، الشركة المطورة لروبوت ChatGPT، عبر موقعها الرسمي أن النظام تمكن من حظر أكثر من 250 ألف محاولة لإنشاء صور مزيفة خلال الشهر الذي سبق يوم الانتخابات. وشمل الحظر طلبات لإنشاء صور لعدة شخصيات سياسية بارزة، منها الرئيس المُنتخب ترامب، ونائبة الرئيس كامالا هاريس، إضافة إلى شخصيات أخرى مثل جي دي فانس وجو بايدن.

وأكدت الشركة في بيانها أن ChatGPT تم تزويده بإجراءات أمان صارمة لمنع إنشاء صور مزيفة لأشخاص حقيقيين، وخاصة السياسيين، خلال فترة الانتخابات. وأوضحت OpenAI أن هذه الإجراءات تعتبر جزءًا أساسيًا من جهودها المستمرة لمنع استخدام أدواتها في أنشطة خادعة أو ضارة قد تؤثر على نزاهة الانتخابات.

كما شددت OpenAI على أن ChatGPT لم يعبر عن أي تفضيلات سياسية تجاه المرشحين ولم يقدم توصيات لأي منهم، حرصًا على الحفاظ على حيادية المنصة. وركزت الشركة على توجيه المستخدمين إلى مصادر موثوقة للحصول على المعلومات، مشيرة إلى أهمية مكافحة الأخبار الكاذبة التي قد تنتشر خلال الفترات الانتخابية.

وفي إطار تعزيز دقة المعلومات المقدمة، تعاونت OpenAI مع الرابطة الوطنية لوزراء الخارجية الأمريكية (NASS)، حيث تم توجيه استفسارات المستخدمين المتعلقة بالتصويت في الولايات المتحدة إلى موقع CanIVote.org للحصول على معلومات رسمية وموثوقة حول إجراءات التصويت. وذكرت الشركة أنها قدمت أكثر من مليون إجابة تتضمن توجيهًا للحصول على مصادر موثوقة بشأن التصويت.

كما أشار ChatGPT عند الاستفسار عن نتائج الانتخابات إلى مصادر إعلامية موثوقة مثل وكالة أسوشيتد برس ورويترز لضمان تقديم معلومات دقيقة، بعيدًا عن الإشاعات أو الأخبار غير المؤكدة. 

وتؤكد OpenAI أنها ستواصل مراقبة المنصة بشكل دائم لضمان تقديم معلومات ذات مصداقية، ومواصلة العمل على تطوير الإجراءات الوقائية التي تمنع التلاعب أو التضليل، مما يسهم في تعزيز الثقة بتكنولوجيا الذكاء الاصطناعي كأداة تقدم الدعم وتساعد في نشر المعلومات بشكل أخلاقي وموثوق.


ولا تنسى الضغط هنا ومتابعة قناتنا على تليجرام

أخبار ذات صلة

0 تعليق