!Discover over 1,000 fresh articles every day

Get all the latest

نحن لا نرسل البريد العشوائي! اقرأ سياسة الخصوصية الخاصة بنا لمزيد من المعلومات.

كيفية منع الذكاء الاصطناعي من سرقة صوتك

تقدم تقنية جديدة تسمى AntiFake والتي تمنع سرقة صوتك عن طريق تعقيد عملية تحليل تسجيلات الصوت بواسطة أدوات الذكاء الاصطناعي.

تقدم الذكاء الاصطناعي في توليد الكلام

تمكن التطورات في الذكاء الاصطناعي الجيل الأصوات الاصطناعية التي تبدو حقيقية لدرجة أن الشخص لم يعد يستطيع التمييز بينما إذا كان يتحدث مع إنسان آخر أو مع شخصية مزيفة. إذا تم استنساخ صوت الشخص من قبل طرف ثالث دون موافقته، يمكن للأشخاص الضارين استخدامه لإرسال أي رسالة يرغبون فيها.

تهديد الاستنساخ الصوتي

تعتبر التكنولوجيا التي تقوم بنسخ الأصوات الحقيقية باستخدام برامج الصوت العميقة تهديدًا واضحًا، حيث يمكن استخدام الأصوات الاصطناعية بسهولة لإيهام الآخرين. ويمكن استخدام بضع ثوانٍ فقط من تسجيل الصوت لاستنساخ صوت الشخص بطريقة مقنعة. فأي شخص يرسل رسائل صوتية من حين لآخر أو يتحدث على أجهزة الرد الآلي قدم بالفعل ما يكفي من المواد لاستنساخ صوته.

تقنية AntiFake

قام العالم الحاسوبي والمهندس نينغ زانغ من مدرسة ماكيلفي للهندسة في جامعة واشنطن في سانت لويس بتطوير طريقة جديدة لمنع توليد الكلام غير المصرح به قبل حدوثه: أداة تسمى AntiFake. قدم زانغ عرضًا عنها في مؤتمر جمعية الحوسبة والاتصالات الآلية في كوبنهاجن، الدنمارك، في 27 نوفمبر.

طريقة عمل AntiFake

تعمل أداة AntiFake على صعوبة استخلاص ملامح التسجيل الصوتي التي تهم عملية توليد الصوت. تستخدم الأداة تقنيات مشابهة لتلك المستخدمة من قبل المجرمين الإلكترونيين في استنساخ الأصوات لحماية الأصوات من القرصنة والتزوير. يمكن الحصول على نص المصدر لمشروع AntiFake بحرية.

تحديات مكافحة الاستنساخ الصوتي

تتحسن طرق الهجوم وتصبح أكثر تطورًا باستمرار، كما يشهد الزيادة الحالية في الهجمات الإلكترونية التلقائية على الشركات والبنية التحتية والحكومات في جميع أنحاء العالم. لضمان قدرة AntiFake على مواجهة التحديات المتغيرة المحيطة بالاستنساخ الصوتي لأطول فترة ممكنة، قام زانغ وطالبه الدكتوراه زهيوان يو بتطوير أداة تدرب على منع مجموعة واسعة من التهديدات المحتملة.

نتائج اختبار AntiFake

اختبر فريق زانغ الأداة مقابل خمسة مولدات حديثة للكلام. ووفقًا للباحثين، حقق AntiFake معدل حماية يبلغ 95 في المائة، حتى ضد المولدات التجارية المجهولة التي لم يتم تصميمها خصيصًا لها. اختبر زانغ ويو أيضًا قابلية استخدام أداتهما مع 24 مشاركًا بشريًا من مجموعات سكانية مختلفة. ستكون هناك حاجة إلى مزيد من الاختبارات ومجموعة اختبار أكبر لإجراء دراسة مقارنة ممثلة.

تطبيقات AntiFake المستقبلية

يعتقد مبتكرو الأداة أنه يمكن توسيع استخدام AntiFake لحماية وثائق الصوت الأكبر حجمًا أو الموسيقى من الاستخدام السيئ. حاليًا، يتعين على المستخدمين القيام بذلك بأنفسهم، مما يتطلب مهارات البرمجة.

تحديات مستقبلية

تهدف الأداة إلى حماية تسجيلات الصوت بشكل كامل، وإذا تحقق هذا، سنتمكن من استغلال نقص كبير في استخدام الذكاء الاصطناعي بشكل آمن لمكافحة الاستنساخ الصوتي. ولكن يجب أن تستمر الأدوات والأساليب المطورة في التكيف باستمرار بسبب حتمية أن المجرمين الإلكترونيين سيتعلمون وينمون معها.

المصدر: Spektrum der Wissenschaft

المؤلفون: Silke Hahn و Gary Stix

Source: https://www.scientificamerican.com/article/how-to-keep-ai-from-stealing-the-sound-of-your-voice/


Comments

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *