المخاطر المحتملة لاستخدام ChatGPT-4o في الاحتيال المالي
أفادت دراسة جديدة بأن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI يمكن أن تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، حيث تتراوح معدلات نجاح هذه العمليات بين 20% و60%.
يعتبر ChatGPT-4o أحدث نماذج الذكاء الاصطناعي، ويتميز بقدرته على التعامل مع النصوص والصوتيات والمرئيات، مما يزيد من احتمالية استخدامه في الأنشطة الاحتيالية.
آليات الأمان ومخاطر الاحتيال الصوتي
رغم أن OpenAI أدخلت تدابير أمان للحد من الاستخدام الضار للبرنامج، إلا أن مشكلة الاحتيال الصوتي تظل مقلقة بسبب انتشار تقنيات التزييف الصوتي وأدوات تحويل النص إلى صوت.
تُظهر الدراسات أن الأدوات المتاحة للجمهور تفتقر إلى حماية فعّالة، مما يعرض الأفراد لعمليات احتيال تتضمن تحويلات مصرفية وسرقة بطاقات الهدايا.
تجارب بحثية توضح خطورة الوضع
في تجارب أجراها باحثون من جامعة إلينوي، تم محاكاة عمليات احتيال باستخدام ChatGPT-4o. حيث تم استخدام النموذج لتسهيل التحويلات المالية، وتبين أن نجاح العمليات تراوح بين 20% و60%، مما يبرز الحاجة الملحة لتحسين آليات الأمان.
التكاليف المنخفضة والفعالية العالية
تشير الدراسة إلى أن تكاليف تنفيذ عمليات الاحتيال باستخدام ChatGPT-4o تعتبر منخفضة للغاية، حيث تتراوح تكلفة كل عملية ناجحة بين 75 سنتًا ودولارين ونصف فقط، مما يزيد من جاذبية استخدام هذه التكنولوجيا في الأنشطة غير المشروعة.
استجابة OpenAI للتحديات الأمنية
أعلنت OpenAI أنها مستمرة في تحسين نماذجها لمواجهة الاستخدامات الضارة، حيث يتمتع النموذج الأحدث “o1-preview” بقدرات أفضل في مقاومة محاولات الاحتيال مقارنة بالنماذج السابقة. كما أبدت الشركة التزامها بتعزيز آليات الأمان وتقييد توليد الأصوات لتقليل فرص التزييف الصوتي.
تتزايد المخاوف بشأن استخدام تقنيات الذكاء الاصطناعي في الاحتيال، مما يتطلب تدابير استباقية لحماية الأفراد والشركات. ينبغي على المطورين وصناع القرار تعزيز جهودهم لضمان استخدام آمن وفعّال لتكنولوجيا الذكاء الاصطناعي، خاصة في ظل التهديدات المتزايدة من قبل المجرمين الإلكترونيين.