تقنية استنساخ الأصوات: OpenAI تُطلق أداة جديدة و جدل حول خطورة إستخدامه
في خطوة تقنية جديدة تثير الجدل، كشفت شركة «OpenAI» عن أداة جديدة تسمى «فويس انجين»، التي تمكن من استنساخ الأصوات باستخدام عينات صوتية قصيرة لا تتجاوز 15 ثانية.
هذه التقنية الجديدة، المعروفة باسم VALL-E، عن جدل واسع حول أخلاقيات استخدامها، حيث أثارت تساؤلات حول الجوانب الأخلاقية لاستخدام تكنولوجيا استنساخ الأصوات دون موافقة الأفراد المستهدفين.
في حين يرون البعض هذه التقنية كفرصة للابتكار والتعبير، يعتبر آخرون أنها قد تمثل تهديدًا للخصوصية الصوتية وتفتح بابًا لاستخدامات مشبوهة.
قيود جديدة على استخدام تقنية استنساخ الأصوات أعلنت عنها« OpenAI» في 4 أبريل 2024، بهدف منع إساءة استخدام أداة« VALL-E» وتوجيهها نحو الاستخدامات الشرعية والأخلاقية.
مراجعة الأصوات قبل النشر
تشمل القيود المفروضة من قبل «OpenAI» مراجعة جميع الأصوات التي يتم إنشاؤها باستخدام الأداة قبل نشرها، بهدف التأكد من عدم استخدامها في أغراض غير مشروعة.
الصوت الاصطناعي وتأثيره السلبي
كان صوت الرئيس الأمريكي «بايدن» الضحية الأولى لاستنساخ الأصوات، حيث استُخدم في دعوى لعدم التصويت في انتخابات نيو هامبشر.
تعكس هذه الحادثة خطورة استخدام التقنيات الصوتية لأغراض غير قانونية أو أخلاقية.
تحذيرات من المخاطر الأمنية والأخلاقية
يحذر الخبراء من مخاطر استنساخ الأصوات بشكل غير مسبوق، مشيرين إلى أن التقنية تتطور بوتيرة سريعة وقد تؤدي إلى أزمات أمنية وأخلاقية متعددة إذا لم يتم تنظيمها بشكل صارم.
خطر استخدام تقنية استنساخ الأصوات يظهر بوضوح في أزمة تغيير الأصوات السمعية، حيث يمكن استغلال 15 ثانية فقط من صوت الشخص لإطلاق تصريحات مضللة أو إثارة كوارث.
تهديدات على جميع الأصعدة
تتضح المخاطر في العديد من الجوانب، بما في ذلك تطبيقات الأوامر الصوتية مثل «Siri»و «Alexa»، حيث يمكن استخدامها لأغراض غير قانونية وتسبب كوارث على نطاق واسع.
انعكاسات سلبية على الأمن والخصوصية
يؤكد الخبراء أن السيناريوهات المروعة تشمل سرقة السيارات التي تعمل بالأوامر الصوتية وتوريط الأفراد في جرائم لم يرتكبوها، مما يهدد الأمن وينتهك الخصوصية الشخصية.
التحديات القانونية والأخلاقية
يشير خبراء قوانين التكنولوجيا إلى أهمية وجود قوانين تنظم استخدام تقنية استنساخ الأصوات، خاصة فيما يتعلق بحقوق الملكية الفكرية والخصوصية الصوتية.
بالرغم من المزايا المحتملة لهذه التقنية على المدى البعيد، إلا أن المخاطر الحالية تبقى مهولة، وينبغي وضع قوانين صارمة لمنع سوء الاستخدام وحماية الجمهور من تداعياتها السلبية.
في البيان الرسمي، أوضحت «OpenAI» أنها اتخذت إجراءات محددة لتقييد استخدام أداة VALL-E بهدف تفادي حوادث الاحتيال والجرائم، مؤكدة التزامها بنهج حذر لتجنب إساءة استخدام الأصوات الاصطناعية.
معلقًا على التطورات الأخيرة في OpenAI، أكد الدكتور ماركو ممدوح، الخبير في الذكاء الاصطناعي بالجامعة الأمريكية، على أن تقنية استنساخ الأصوات تحمل جوانب إيجابية وسلبية.
الجانب الإيجابي
يشير ممدوح إلى الفوائد المحتملة لتقنية استنساخ الأصوات، مثل توفير الوقت والجهد في الإنتاج الصوتي، حيث يمكن للشركات استخدام نسخ صوتية بدلاً من تسجيلات طويلة في الاستوديو، مما يقلل من التكلفة ويسرع عملية الإنتاج.
الجانب السلبي
ومع ذلك، يؤكد على أن التقنية تتسبب في مخاطر أكبر من فوائدها، حيث يمكن استغلالها في الاحتيال والتلاعب بالأشخاص، مما يزيد من حدوث جرائم لم يقترفها صاحب الصوت الأصلي.
ويشير إلى أنه من الصعب تفادي هذه السلبيات في ظل عدم توفر تنظيمات قانونية صارمة لمنع سوء الاستخدام.
بالمجمل، يعتبر ممدوح أن تقنية استنساخ الأصوات تحمل في طياتها مزيجًا من الفوائد والمخاطر، ويجب تنظيمها بشكل صارم لمنع تداعياتها السلبية على المجتمع.