تحذير علمي: الذكاء الاصطناعي يهدد بنشر معلومات طبية مضللة بأسلوب موثوق

كشفت دراسة حديثة نُشرت في مجلة “Annals of Internal Medicine” عن مخاطر جسيمة تتعلق باستخدام نماذج الذكاء الاصطناعي في نشر معلومات صحية مضللة قد تشكل خطرًا على الصحة العامة.
حملت الدراسة عنوانًا واضحًا: “ثق بطبيبك، وليس بروبوت الدردشة”، محذرة من قدرة هذه الأنظمة على تقديم معلومات خاطئة بأسلوب مقنع يُوحي بالمصداقية.
أجرى فريق البحث تجارب على خمسة نماذج ذكاء اصطناعي متقدمة طورتها شركات رائدة مثل أنثروبيك، غوغل، ميتا، أوبن إيه آي، وإكس كورب.
تُستخدم هذه النماذج على نطاق واسع في روبوتات الدردشة المدمجة في تطبيقات ومواقع إلكترونية حول العالم.
باستخدام أدوات برمجية متقدمة غير متاحة للجمهور العام، تمكن الباحثون من تعديل هذه الأنظمة لتقديم إجابات طبية خاطئة استجابةً لأسئلة المستخدمين.
النتائج كانت مقلقة، حيث أظهرت الدراسة أن 88% من الإجابات التي قدمتها هذه النماذج كانت خاطئة. الأخطر من ذلك، أن هذه المعلومات المغلوطة صيغت بلغة علمية دقيقة ونبرة رسمية، مع إدراج مراجع وهمية، مما جعلها تبدو موثوقة للغاية.
شملت المعلومات المضللة ادعاءات تم دحضها علميًا منذ زمن، مثل ارتباط اللقاحات بالتوحد، انتقال فيروس الإيدز عبر الهواء، أو تسبب شبكات الجيل الخامس (5G) في العقم.
من بين النماذج الخمسة التي خضعت للاختبار، قدمت أربعة منها إجابات خاطئة بنسبة 100%، بينما أظهر نموذج واحد مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات فقط.
وحذّر ناتانش مودي، الباحث الرئيسي من جامعة جنوب إفريقيا، من أن هذه الأنظمة قد تُستغل من قبل جهات خبيثة للتأثير على الرأي العام في قضايا الصحة، خاصة خلال الأزمات مثل الأوبئة أو حملات التطعيم، ما يستدعي اتخاذ إجراءات عاجلة للحد من هذه المخاطر.