الذكاء الاصطناعي في الإعلام.. بين ثورة الابتكار ومخاطر التضليل

يشهد قطاع الإعلام العالمي في عام 2025 تحولًا جذريًا بفعل التطور السريع في تقنيات الذكاء الاصطناعي (AI)، التي أصبحت تساهم في إنتاج المحتوى، وإدارة غرف الأخبار، وحتى تحليل سلوك الجمهور.
لكن مع هذه الثورة التقنية، تتزايد المخاوف من انتشار المعلومات المضللة، وتراجع الثقة بالمصادر الإعلامية التقليدية.
ثورة في صناعة المحتوى
أصبحت أدوات الذكاء الاصطناعي اليوم قادرة على:
• كتابة الأخبار تلقائيًا اعتمادًا على البيانات اللحظية.
• تحرير الفيديوهات وإضافة المؤثرات الصوتية والمرئية بدقة عالية.
• تحليل توجهات الجمهور وتوقع المواضيع الرائجة عبر الخوارزميات.
وتستخدم مؤسسات إعلامية كبرى مثل رويترز ونيويورك تايمز وبي بي سي أنظمة ذكاء اصطناعي لتسريع إنتاج الأخبار وتحسين تجربة المتلقي.
في المقابل، بدأت منصات التواصل الاجتماعي توظّف الذكاء الاصطناعي لرصد المحتوى المزيف وتقليل انتشاره.
مخاطر التزييف العميق
رغم هذه المزايا، حذّر الاتحاد الدولي للصحفيين في تقرير صدر في 11 أكتوبر 2025 من تصاعد استخدام تقنيات “التزييف العميق” (Deepfake)، التي تسمح بإنشاء مقاطع وصور وأصوات يصعب تمييزها عن الحقيقة.
وأشار التقرير إلى أن ما يزيد عن 28% من الأخبار المضللة المنتشرة في الإنترنت باتت تعتمد على أدوات ذكاء اصطناعي، خصوصًا في أوقات الانتخابات أو النزاعات السياسية، مما يشكّل تهديدًا مباشرًا لحرية الإعلام والمصداقية.
تحديات أمام غرف الأخبار
تواجه المؤسسات الإعلامية الآن معادلة صعبة:
كيف تستفيد من قوة الذكاء الاصطناعي دون أن تفقد السيطرة على مصداقيتها؟
يؤكد خبراء الإعلام أن الحل يكمن في:
• تدريب الصحفيين على استخدام أدوات الذكاء الاصطناعي بحذر.
• وضع مدونات سلوك رقمية تحدد متى يُسمح باستخدام المحتوى المُنشأ آليًا.
• تعزيز التحقق البشري قبل النشر.
وتشير دراسات إلى أن أكثر من 60% من غرف الأخبار حول العالم بدأت بتشكيل “لجان ذكاء اصطناعي” لمراقبة استخدام هذه التقنيات داخليًا.
فرص اقتصادية ضخمة
على الجانب الإيجابي، توقعت شركة “بلومبيرغ إنتليجنس” أن تصل قيمة سوق الذكاء الاصطناعي في الإعلام إلى 45 مليار دولار بحلول عام 2030.
ويرجع ذلك إلى زيادة الاعتماد على الأتمتة في الإعلانات الرقمية والتحرير الصوتي وإنتاج البودكاست الآلي.
كما أن الصحافة المحلية والمستقلة بدأت تستفيد من الذكاء الاصطناعي في خفض التكاليف التشغيلية وتحسين الوصول للجمهور عبر أدوات تحليل البيانات.
البعد الأخلاقي والقانوني
يثير انتشار المحتوى المُولّد بالذكاء الاصطناعي أسئلة قانونية معقدة حول حقوق النشر والمساءلة.
فمن المسؤول إذا نشر نظام ذكاء اصطناعي خبرًا كاذبًا أو أساء إلى جهة ما؟
تعمل دول عدة — مثل الاتحاد الأوروبي والولايات المتحدة والإمارات — على وضع تشريعات تنظم استخدام الذكاء الاصطناعي في الإعلام، لضمان الشفافية والمساءلة دون خنق حرية الإبداع.