قضايا وتحليلات

الصحافة في زمن الذكاء الاصطناعي| كيف تحولت الخوارزميات إلى مصانع للأخبار المزيفة؟

  • “نيوز جارد”: 1271 موقعا إخباريا ومعلوماتيا مزيفا بـ 16 لغة منها العربية
  • الذكاء الاصطناعي وحده لا يصنع صحافة.. بل التكامل بين الإنسان والآلة
  • الانتشار الواسع للمعلومات المضللة والأخبار الكاذبة يقوض مهنية الإعلام
  • من نموذج”التلقي” إلى “التفاعل الخوارزمي”.. هذا ما فعله الذكاء الصناعي

“إنسان للإعلام”- فريق التحرير:

https://2h.ae/JKnyN

منذ ظهور الذكاء الاصطناعي (AI)، تصاعدت المخاوف من استغلاله في “فبركة” موضوعات على مواقع التواصل الاجتماعي دون أي تدخل بشري، أو في التأثير على العمل الصحفي، بحيث تلجأ صحف أو صحفيون إلى “فبركة” تقارير كاملة أو طلب إنتاجها من أدوات الذكاء الاصطناعي دون بذل جهد مهني حقيقي، خصوصًا أن الذكاء الاصطناعي ليس دقيقًا بطبيعته، وغالبًا ما ينتج محتوى بلا مصادر واضحة، وقد يبث معلومات مضللة أو غير صحيحة.

الجديد في هذا السياق هو ظهور مواقع ومنصات متخصصة في رصد وتتبع هذه المواقع الإخبارية المزيفة، التي تعتمد في عملها على محتوى جاهز مولّد بالذكاء الاصطناعي، لم يكتبه صحفيون أو خبراء.

وتشير هذه المنصات إلى وجود ما يزيد على 1200 موقع إخباري ومعلوماتي مولد بالذكاء الاصطناعي، تنشر أخبارًا كاذبة بلغات مختلفة دون إشراف بشري، وفقًا لما توصلت إليه منصة “نيوز جارد”  (News Guard)

وقد رصدت هذه المنصة شبكات واسعة من مواقع الأخبار والمواقع المعلوماتية التي تُدار أو تُغذّى آليًا عبر تقنيات توليد المحتوى بالذكاء الاصطناعي، من دون إشراف بشري كافٍ، وتنتج محتوى مضللًا أو كاذبًا بهدف الربح، أو التأثير السياسي، أو ممارسة أشكال من الضغط والابتزاز، عبر الادعاء بامتلاك معلومات غير صحيحة عن وقائع أو قضايا معينة.

وحددت منصة “نيوز جارد” نحو 1271 موقعًا تغطي ما لا يقل عن 16 لغة، تشمل: العربية، والصينية، والتشيكية، والهولندية، والإنجليزية، والفرنسية، والألمانية، والإندونيسية، والإيطالية، والكورية، والبرتغالية، والروسية، والإسبانية، والتاغالوغ، والتايلاندية، والتركية. وتعتمد هذه المواقع على الذكاء الاصطناعي في إنتاج محتواها، وتقوم بفبركة أخبار وتقارير وتحليلات دون أي تدخل بشري فعلي.

وتغطي هذه المواقع موضوعات متعددة، تشمل السياسة، والصحة، والتكنولوجيا، والترفيه، والسفر، والاقتصاد. وغالبًا ما تبدو هذه المواقع محلية أو شبيهة بمواقع إخبارية عادية، لكنها في الواقع تُدار عبر آليات توليد محتوى آلي أو شبه آلي، وبإشراف بشري ضئيل أو معدوم.

وفي بعض الحالات، يقوم فرد واحد بادعاء إدارة صحيفة أو موقع إخباري، بينما يعتمد بالكامل على محتوى مولّد بالذكاء الاصطناعي، وينشره على أنه من إنتاج كُتّاب أو صحفيين معروفين.

ويهدف مركز تتبع الذكاء الاصطناعي التابع لمنصة News Guard إلى تسليط الضوء على كيفية توظيف الذكاء الاصطناعي التوليدي في تعزيز عمليات التضليل ونشر الأخبار غير الموثوقة، ويضم هذا المركز مجموعة مختارة من التقارير والرؤى والتحليلات التي توثق استخدام الذكاء الاصطناعي في إنتاج محتوى مضلل.

وبدأت News Guard في تتبع المواقع التي تنتج محتوى صحفيًا آليًا منذ منتصف عام 2023، عقب الطفرة الكبيرة التي شهدها العالم في استخدام تقنيات الذكاء الاصطناعي لتوليد المحتوى، بما في ذلك الأخبار والمقالات؛ ففي البداية، رُصد 49 موقعًا فقط، ثم ارتفع العدد إلى 713 موقعًا في فبراير 2024، ثم إلى 1121 موقعًا في نهاية عام 2024، ليصل إلى 1271 موقعًا في مايو 2025.

واعتمدت News Guard أربعة معايير أساسية لتصنيف المواقع الإخبارية المولدة بالذكاء الاصطناعي على أنها غير موثوقة، تتمثل في: وجود دليل واضح على أن المحتوى منشأ بواسطة أدوات الذكاء الاصطناعي، وغياب الإشراف أو التحرير البشري الفعّال، وتقديم الموقع نفسه كمصدر إخباري بشري بهدف تضليل القراء، إضافة إلى عدم الإفصاح الصريح عن استخدام الذكاء الاصطناعي في إنتاج المحتوى.

مخاطر الذكاء الاصطناعي

بحسب دراسات وتقارير بحثية متعددة، ينبع الخطر الأساسي من استخدام هذه المواقع التي تُغذّى بمحتوى الذكاء الاصطناعي دون أي عنصر بشري إبداعي، من انتشار واسع للمعلومات الزائفة، والتأثير في الرأي العام، بما في ذلك خطر التدخل في الانتخابات، فضلًا عن إضعاف المنظومة الإخبارية المحلية الحقيقية عبر سحب عائدات الإعلانات منها.

وقد وثّق موقع “نيوز جارد” حالات لمواقع تحمل أسماء شبيهة بعناوين إعلامية مشهورة، في محاولة لتقليد أسماء قنوات أو صحف معروفة، إلى جانب شبكات تنشر مئات المقالات يوميًا بكميات آلية ضخمة، مع تحرير بشري محدود أو منعدم، وربطت بعض تقارير الصحافة المستقلة هذه الشبكات أحيانًا بمحاولات تلاعب معلوماتي أو حملات تأثير إقليمية.

وكمثال على استخدام الذكاء الاصطناعي في الكذب وحملات التضليل بين الدول، حدد محللو News Guard موقعًا إلكترونيًا تديره الحكومة الصينية، ويستخدم نصوصًا مولّدة بالذكاء الاصطناعي كمرجع لادعاء كاذب مفاده أن الولايات المتحدة تدير مختبرًا للأسلحة البيولوجية في كازاخستان، يتسبب في إصابة الإبل ويعرّض السكان في الصين للخطر.

كما رصدت المنصة شبكة تضم 167 موقعًا إخباريًا لها صلات بروسيا، متنكرة في صورة منافذ إخبارية محلية، وتنشر ادعاءات كاذبة أو مضللة للغاية حول حرب أوكرانيا، مع اعتماد أساسي على الذكاء الاصطناعي في توليد المحتوى.

وتؤكد News Guard أن هذه الظاهرة لا تقتصر على كونها تطورًا تقنيًا، بل تمثل تهديدًا حقيقيًا لعمل ومصداقية الأخبار ولسلامة النقاشات العامة.

وتشير إلى أن معظم هذه المواقع تُنشأ أساسًا بهدف الربح من خلال الإعلانات الرقمية، وليس لنشر معلومات موثوقة، حيث يتم إنتاج مئات المقالات يوميًا بشكل آلي لجذب حركة المرور الإعلانية دون أي مراجعة بشرية.

وفي كثير من الحالات، يعتمد نموذج الإيرادات لهذه المواقع على الإعلانات البرمجية  (Programmatic Advertising) ، حيث تقدم شركات تكنولوجيا الإعلانات إعلاناتها بغض النظر عن طبيعة الموقع أو جودته، ما يؤدي إلى دعم علامات تجارية كبرى لهذه المواقع دون قصد.

وتؤكد تقارير بحثية أن التوسع في المواقع المولدة بالذكاء الاصطناعي يمثل تحديًا جديدًا لبيئة المعلومات العالمية، إذ إن غياب الإشراف والتحقق يحوّل هذه التقنية إلى أداة محتملة لنشر التضليل.

ولذلك، تدعو مؤسسات إعلامية وهيئات تنظيمية إلى ضرورة وضع أطر قانونية وأخلاقية تحكم استخدام الذكاء الاصطناعي في الإعلام، في ظل ما يترتب على هذه المخاطر من انتشار واسع للأخبار الكاذبة، وتقويض مصداقية الإعلام المهني، وصعوبة تمييز المصادر الموثوقة، وتسرب العائدات الإعلانية إلى مواقع غير شفافة، فضلًا عن تهديد الأمن المعلوماتي والثقة العامة.

كيف تكتشف هذه المواقع؟

يمكن اكتشاف المواقع الإخبارية والمعلوماتية المزيفة المولدة بالذكاء الاصطناعي من خلال عدة مؤشرات، من بينها غياب أو زيف صفحة “من نحن” وبيانات الاتصال، أو عدم وجود صحفيين حقيقيين بأسماء معروفة، أو الاكتفاء بعناوين بريد إلكتروني عامة.

كما يظهر ذلك في النمط الأسلوبي المكرر، واللغة الركيكة، والجمل المتشابهة، والسرد المجرد الخالي من التحقيق والمصادر الموثوقة، وغالبًا ما تعتمد هذه المواقع على عناوين عامة لا يدعمها محتوى مفصل أو مصادر حقيقية، كما يمكن ملاحظة تطابق التغطيات، حيث يُنشر النص نفسه تقريبًا عبر مواقع متعددة بصياغات متقاربة، وغالبًا ما تحمل هذه المواقع أسماء عامة تبدو موثوقة، لكنها في الواقع تنشر محتوى كتبته روبوتات.

التأثير على الصحافة المهنية

منذ ظهور الذكاء الاصطناعي، بدأت بعض الصحف والمواقع في الاعتماد عليه بنسب محدودة، ثم توسع هذا الاعتماد تدريجيًا، ليصل في بعض الحالات إلى نسخ تقارير كاملة من أدوات الذكاء الاصطناعي، وهو ما يهدد ليس فقط فرص عمل الصحفيين، بل يؤدي إلى ميكنة المهنة وتراجع الإبداع الذي يميز العمل الصحفي.

وقد طرح هذا التحول الجذري تساؤلات عميقة حول مستقبل الصحافة، خصوصًا منذ عام 2023، مع انتشار أدوات مثل ChatGPT وClaude وGemini، وغيرها، وظهور ما يُعرف بـ“الصحافة الذكية” أو AI Journalism، التي تعتمد على الخوارزميات في إنتاج الأخبار وتحليل البيانات.

وأصبحت المؤسسات الإعلامية تتعامل مع الذكاء الاصطناعي بوصفه شريكًا إنتاجيًا يساعد في جمع المعلومات وصياغة القصص وتخصيص المحتوى للجمهور.

ورغم أن هذا التحول أسهم في تسريع عمليات النشر وتحليل البيانات الضخمة، وقلل التكاليف، وزاد سرعة الوصول إلى الجمهور، فإنه في المقابل هدد الإبداع والعمل الصحفي الجاد، ووسّع النطاق الجغرافي للصحافة الرقمية بشكل سطحي. ومع تولي البرامج الآلية المهام الروتينية، تحول دور الصحفي تدريجيًا نحو التحليل والتفسير والتدقيق، إلا أن الخطر الأكبر ظل قائمًا في احتمالات نشر معلومات غير دقيقة دون رقابة بشرية فعالة.

وقد تبنت مؤسسات كبرى مثل “رويترز” و”بلومبرغ” ووكالة “أسوشيتد برس” تقنيات الذكاء الاصطناعي لتقليل النفقات وتسريع دورة الخبر، غير أن هذا التحول أثار مخاوف من تراجع فرص العمل الصحفي التقليدي، وزيادة الاعتماد على “الروبوت الصحفي”، خصوصًا في المواقع الصغيرة، وتجلت خطورة ذلك في ما كشفه تقرير News Guard من وجود أكثر من 1271 موقعًا إخباريًا غير موثوق يعتمد كليًا على الذكاء الاصطناعي دون إشراف بشري.

التحديات الأخلاقية والمهنية

تطرح الصحافة المدعومة بالذكاء الاصطناعي جملة من القضايا الأخلاقية والمهنية، أبرزها الشفافية، والمصداقية، والتحيز الخوارزمي، وإشكاليات الملكية الفكرية للنصوص المنتجة آليًا.

وقد دفعت هذه الإشكاليات منظمات دولية مثل اليونسكو والاتحاد الأوروبي إلى وضع أطر أخلاقية لاستخدام الذكاء الاصطناعي في الإعلام.

ورغم أن الذكاء الاصطناعي يسهم في زيادة تدفق المعلومات وتوسيع المشاركة الرقمية، فإنه يجعل الجمهور أكثر عرضة للأخبار المضللة، كما أن أنظمة التوصية الذكية قد تعزز من ظاهرة “فقاعة المعلومات”، ما يقلل التنوع المعرفي ويعمق الاستقطاب المجتمعي.

بالتالي، يعيد هذا التحول تعريف العلاقة بين الصحافة والجمهور، من نموذج التلقي إلى نموذج التفاعل الخوارزمي.

ومع ذلك، لا يُتوقع أن يُنهي الذكاء الاصطناعي مهنة الصحافة، بل سيعيد تشكيلها، بحيث يصبح الصحفي المستقبلي مزيجًا من محلل بيانات ومحرر رقمي، يستخدم أدوات الذكاء الاصطناعي لاستخراج القصص وربط البيانات بالسياق الإنساني.

ويتوقع محللون أن تتعايش الصحافة البشرية والذكاء الاصطناعي في علاقة تكاملية، يكون فيها الإنسان مسؤولًا عن القيم والسياق، بينما تتولى الآلة الجانب التقني والحسابي.

غير أن هذا المسار يتطلب سن تشريعات واضحة تنظم استخدام الذكاء الاصطناعي في العمل الصحفي، وتدريب الصحفيين على هذه الأدوات، وتعزيز الشفافية داخل المؤسسات الإعلامية، وإنشاء هيئات رقابية مستقلة لمتابعة المحتوى الإخباري المولد آليًا، إلى جانب تشجيع التعاون بين الجامعات والمؤسسات الإعلامية لتطوير مناهج تعليمية في “الصحافة الخوارزمية”.

بهذا، يمثل الذكاء الاصطناعي فرصة وتحديًا في آن واحد أمام الصحافة المعاصرة؛ فهو يفتح آفاقًا جديدة للإبداع وتسريع الإنتاج، لكنه يثير تساؤلات عميقة حول المصداقية والهوية المهنية ودور الإنسان في صناعة الخبر.

وبرغم المخاوف المتزايدة من انتشار المواقع المزيفة التي تعتمد كليًا على الذكاء الاصطناعي، فإن مستقبل الصحافة لن يكون للآلة وحدها، بل للتكامل الواعي بين الإنسان والتقنية في خدمة الحقيقة، وبناء إعلام أكثر دقة وموضوعية وتفاعلًا مع المجتمع.

________________________________________

المصادر:

  1. Tracking AI-enabled Misinformation: 1,271 ‘Unreliable AI-Generated News’ Websites
  2. Proliferating ‘news’ sites spew AI-generated fake stories
  3. AI-generated slop is quietly conquering the internet. Is it a threat to journalism or a problem that will fix itself?
  4. AI-driven disinformation: policy recommendations for democratic resilience
  5. Generative AI and news report 2025: How people think about AI’s role in journalism and society
  6. Ethics and journalistic challenges in the age of artificial intelligence

مقالات ذات صلة

زر الذهاب إلى الأعلى