تحذير: تطبيقات الذكاء الاصطناعي تشوه الأخبار بنسبة مقلقة

دراسة حديثة أجراها اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية “بي بي سي” كشفت عن نتائج مثيرة للقلق بشأن دقة تطبيقات الذكاء الاصطناعي في نقل الأخبار.
وأظهرت الدراسة، التي نُشرت يوم الأربعاء 22 أكتوبر 2025، أن حوالي نصف ردود هذه التطبيقات على استفسارات الأخبار تحتوي على تحريفات أو أخطاء.
البحث، الذي شمل تحليل ثلاثة آلاف رد من مساعدي الذكاء الاصطناعي مثل “تشات جي بي تي” و”كوبايلوت” و”جيميناي” و”بربليكستي”، ركز على تقييم الدقة، مصداقية المصادر، والقدرة على التفريق بين الحقائق والآراء عبر 14 لغة.
ووجدت الدراسة أن 45% من الردود تحتوي على خطأ جوهري واحد على الأقل، بينما 81% منها تضمنت نوعًا من المشكلات.
من أبرز المشكلات التي رصدتها الدراسة، أخطاء في الإسناد إلى المصادر، حيث تبين أن ثلث الردود يعاني من إسناد غير صحيح أو مضلل أو مفقود تمامًا.
وكان أداء “جيميناي”، وهو مساعد الذكاء الاصطناعي التابع لشركة “غوغل”، الأسوأ، حيث سجل مشكلات في المصادر بنسبة 72% من ردوده، مقارنة بنحو 25% للتطبيقات الأخرى.
كما رصدت الدراسة أخطاء في الدقة بنسبة 20% من الردود، مثل تقديم معلومات قديمة أو غير صحيحة. على سبيل المثال، ذكر “جيميناي” تغييرات غير دقيقة في قانون السجائر الإلكترونية، بينما أشار “تشات جي بي تي” إلى البابا فرنسيس كالبابا الحالي بعد أشهر من وفاته.
شاركت في هذا البحث 22 مؤسسة إعلامية من 18 دولة، بما في ذلك بريطانيا، الولايات المتحدة، فرنسا، وألمانيا. وأكد اتحاد الإذاعات الأوروبية أن استبدال محركات البحث التقليدية بمساعدي الذكاء الاصطناعي قد يؤدي إلى تآكل ثقة الجمهور بالأخبار. وقال جان فيليب دي تيندر، مدير الإعلام بالاتحاد: “عندما يفقد الناس الثقة في المعلومات، قد ينتهي بهم الأمر بعدم الثقة في أي شيء، مما يهدد المشاركة الديمقراطية.”
ووفقًا لتقرير الأخبار الرقمية لعام 2025 الصادر عن معهد “رويترز”، يعتمد 7% من متصفحي الأخبار عبر الإنترنت، و15% من الشباب دون سن 25 عامًا، على مساعدي الذكاء الاصطناعي للحصول على الأخبار. وحثت الدراسة شركات الذكاء الاصطناعي على تحسين دقة هذه التطبيقات والخضوع للمساءلة لضمان تقديم معلومات موثوقة.
وأشارت الدراسة إلى أن شركات مثل “أوبن إيه آي” و”مايكروسوفت” تعملان على معالجة مشكلة “الهلوسة”، وهي ظاهرة ينتج فيها الذكاء الاصطناعي معلومات غير دقيقة بسبب نقص البيانات أو غيره من العوامل. من جانبها، تدعي “بربليكستي” أن نمط “البحث العميق” الخاص بها يحقق دقة تصل إلى 93.9%.