عندما يفقد المصدر مصداقيته.. الذكاء الاصطناعي يزيف الواقع
كشف تقرير عالمي جديد عن تصاعد أزمة ثقة تهدد مصداقية الأخبار الرقمية، وذلك من خلال دراسة دولية أعدها اتحاد البث الأوروبي بالتعاون مع هيئة الإذاعة البريطانية “BBC”. تناولت الدراسة أداء أربعة من أبرز مساعدي الذكاء الاصطناعي: ChatGPT، Copilot، Gemini، وPerplexity، عن طريق تحليل ثلاثة آلاف رد بلغات مختلفة، مما أسفر عن نتائج مثيرة للقلق.
أظهرت الدراسة أن حوالي نصف الإجابات التي قدمتها هذه التطبيقات احتوت على تحريفات أو مشكلات أساسية، في حين تجاوزت نسبة الردود التي تضمنت نوعاً من الخطأ أو الالتباس 80%. لم تقتصر الأخطاء على المعلومات، بل امتدت إلى المصادر، حيث تبين أن ثلث الإجابات تعاني من إسناد مفقود أو مضلل، وكانت Gemini من Google الأكثر عرضة لهذه المشكلات بنسبة 72%.
الجدير بالذكر أن بعض التطبيقات قدّمت معلومات خاطئة حول قوانين السجائر الإلكترونية أو حتى حول شخصيات عامة، مثل ذكر وفاة البابا فرنسيس رغم كونه على قيد الحياة. هذه الأخطاء، وإن بدت فردية، تعكس خللاً هيكلياً في آلية توليد المحتوى الإخباري، خاصة مع تزايد اعتماد الجمهور على الذكاء الاصطناعي كمصدر رئيسي للأخبار، لا سيما بين الشباب.
الشركات المطورة، مثل OpenAI ومايكروسوفت، أظهرت اهتماماً بمعالجة ظاهرة ما سمته “الهلوسة” التي تؤدي إلى إنتاج معلومات غير دقيقة، بينما تؤكد Perplexity على أن نمط “البحث العميق” لديها يتمتع بدقة عالية. لكن هذه التصريحات لا تزال تثير القلق المتزايد لدى المؤسسات الإعلامية، والتي شاركت منها 22 جهة من 18 دولة في هذه الدراسة.
وفي ظل هذه الظروف، يدعو التقرير إلى تحميل شركات الذكاء الاصطناعي المساءلة عن تحسين آليات الاستجابة للاستفسارات الإخبارية، محذراً من أن تراجع الثقة قد يقود إلى عزوف الجمهور عن المشاركة الديمقراطية. فعندما يفقد الناس القدرة على التمييز بين الحقيقة والرأي، وبين الخبر والتحريف، يصبح الإعلام الرقمي ساحة مشوشة لا تؤدي دورها في التنوير والمساءلة.
هذه الدراسة لا تنتقد الذكاء الاصطناعي بقدر ما تضعه أمام مسؤولية أخلاقية ومهنية، كما تمنح الصحفيين والمحررين فرصة لإعادة تعريف دورهم في عصر الخوارزميات. فهل نكتفي بالمراقبة، أم نعيد صياغة العلاقة بين الإنسان والآلة في إنتاج الحقيقة؟
تابعوا صفحاتنا على وسائل التواصل
اشترك
بالإعلام الفوري بالاخبار الجديدة بالإيميل .. ضع بريدك


