حيث اهتزت قلوب ملايين المعجبين بفرقة البيتلز حول العالم على إيقاع أغنيتها الجديدة! غير أن هذه الأغنية في الواقع ليست من تأليف البيتلز، بل هي من إنشاء تكنولوجيا الذكاء الاصطناعي، التي ألفتها انطلاقا من تجميع وإعادة توضيب شظايا تسجيلات قديمة، وإدماجها بطريقة محكمة. ولقي العمل الفني الجديد للمجموعة الموسيقية الأسطورية إقبالا باهرا عبر العالم، بيد أنه شكل كذلك فرصة لطرح إشكالية عويصة: حول أبعاد قدرة الذكاء الاصطناعي على إعادة إنتاج الأصوات وتوليد الصور عبر تقنية التزييف العميق.
من حسن الحظ، لا زالت عمليات الاحتيال عبر التزييف العميق للأصوات والصور نادرة جدا في الوقت الراهن، وذلك نظرا لكون الأدوات المستخدمة في صنعها ليست متطورة أو واسعة النطاق بالشكل الكافي، ومع ذلك، فإن احتمالات استخدامها بغرض لاحتيال عالية للغاية، خصوصا وأن التكنولوجيا لا تتوقف التطور.
فما هي حدود قدرات التزييف العميق للأصوات؟
برهن برنامج الذكاء الاصطناعي المفتوح (OpenAI) مؤخرا على أن أحد نماذج واجهة برمجة التطبيقات الصوتية (API audio) يمكنه توليد كلام ونطق بشري انطلاقا من إدخال نص مكتوب. ولحدود اليوم يعد هذا البرنامج الأقرب على الإطلاق إلى النطق بصوت بشري.
صحيح أن الاحتيال باستخدام الذكاء الاصطناعي لا يزال غير شائع، إلا أننا أصبحنا بالفعل نتوفر على أمثلة حية عن حالات “ناجحة” لهذا النوع من الاحتيال. ففي منتصف شهر أكتوبر 2023، حذر الأمريكي تيم دريبر، المستثمر بالرأسمال، متابعيه على تويتر من احتمال تعرضهم لعمليات احتيال يستخدم فيها صوته للتمويه. وأوضح تيم أن طلبات المال التي يتم تقدميها بصوته هي في الحقيقة من توليد الذكاء الاصطناعي، الذي أصبح من الواضح أنه يزداد ذكاء يوما بعد يوم.
كيف تحمي نفسك
حتى الآن، قد لا يبدو للجميع أن تقنية التزييف العميق للصوت قد باتت تشكل تهديدا إلكترونيا محتملا. إلا أنه أصبح لدينا في الواقع حالات نادرة جدا تم فيها استخدام تقنيات التزييف العميق للصوت بنوايا خبيثة بغرض الاحتيال. غير أن ندرة هذه الحالات لا تعني عدم إيلاء الأهمية للازمة للحماية من هذا النوع الجديد من الاحتيال والوقاية منه، وأن على تكنولوجيا الحماية أن لا تبطئ أكثر في الرد عليه.
في الوقت الحالي، أفضل طريقة لحماية نفسك هي الإصغاء بعناية إلى ما يقوله لك محاورك المتصل عبر الهاتف. فإذا تبين لك أن التسجيل رديء، وتكتنفه ضوضاء خلفية، وله نبرة آلية، فهذا يكفي ليدفعك إلى عدم الوثوق بالمتحدث.
طريقة أخرى جيدة لاختبار إن كان مخاطبك فعلا “بشريا”، هي أن تطرح عليه أسئلة غير مألوفة وغير متوقعة. على سبيل المثال، إذا تبين أن المتصل هو نموذج صوتي، فإن طرح سؤال حول الألوان المفضلة سيربكه حتما، لأنه سؤال غير متوقع من ضحية الاحتيال. حتى لو تدخل المهاجم بعد ذلك يدويا بهدف استرجاع السيطرة على الوضع، وحاول إعادة صياغة الجواب خلال هذه المرحلة، فإن مدة التأخير الزمني في الرد ستجعلك تدرك أن أنك تتعرض لعملية خداع.
من بين الخيارات الآمنة الأخرى المتاحة، تثبيت حل أمني موثوق وشامل. فرغم أن هذه الحلول لا يمكنها اكتشاف الأصوات التي تنتجها تقنيات التزييف العميق للصوت بنسبة 100 في المائة، إلا أنها يمكن أن تساعد المستخدمين على تجنب المواقع الإلكترونية ومنصات الدفع المشبوهة، ومن تنزيل البرمجيات الخبيثة، وذلك من خلال حماية برامج التصفح والتحقق من جميع الملفات الموجودة على الكمبيوتر.
« النصيحة الأساسية في الوقت الراهن هي عدم المبالغة في أهمية هذا التهديد، وعدم محاولة البحث عن الأصوات المولدة بتقنية التزييف العميق في كل شيء. ففي الوقت الحالي، من غير المرجح أن تكون التكنولوجيا المتاحة قوية بما فيه الكفاية لتوليد أصوات يصعب على الإنسان أن يدرك أنها مصطنعة. ومع ذلك، علينا جميعا أن تكون على دراية بالتهديدات المحتملة، وأن نكون مستعدين للتصدي للاحتيال المتقدم عبر تقنيات التزييف العميق، الذي سيصبح لا محالة حقيقة واقعية جديدة في المستقبل القريب »، يقول ديمتري أنيكين، كبير علماء البيانات لدى كاسبرسكي.