الابتزاز الإلكتروني بواسطة الذكاء الاصطناعي 2025.. التزييف الصوتي شبح يطارد الفتيات

في عالم تسير فيه التكنولوجيا بخطى متسارعة، لم تعد أدوات الذكاء الاصطناعي حكرًا على المؤسسات البحثية أو المشاريع العلمية، بل أصبحت في متناول الجميع. وبينما تسهم هذه التقنيات في تحسين جوانب كثيرة من حياتنا، ظهرت لها وجوه مظلمة استغلها بعض ضعاف النفوس، ليتحول الذكاء الاصطناعي إلى سلاح جديد في يد عصابات الابتزاز الإلكتروني.

وفي مصر تحديدًا، بات هذا الخطر يطرق أبواب الفتيات بشكل متكرر، من خلال أدوات تتيح نسخ نبرة الصوت بدقة مذهلة، وتركيبها على مقاطع غير أخلاقية، مما يخلق أزمة إنسانية وأمنية تستحق التوقف عندها كثيرًا.

 القصة الكاملة: صوت فتاة يتحول إلى أداة ابتزاز

روت فتاة مصرية تفاصيل مروعة عن تعرضها لمحاولة ابتزاز عبر الهاتف، بدأت بمكالمة عادية من رقم غير مسجل، إلا أن المتصل كان يعرف اسمها الكامل بفضل تطبيقات كشف الأرقام مثل “تروكولر”، وادعى أن إحدى صديقاتها زوّدته برقمها وبعض صورها بهدف فضحها.

لكن المفاجأة لم تكن فقط في التهديد، بل في قدرته على تقليد صوتها عبر الذكاء الاصطناعي، ليُخبرها بأنه يملك تسجيلاً صوتيًا لها وهي تتحدث بشكل غير لائق، وأنه سيقوم بتركيبه على مقاطع فيديو ونشرها بين أهلها وأصدقائها ما لم تنصع لمطالبه.

ورغم أنها أنكرت كل ما قيل، أخبرها المتصل أنها كانت تتحدث عبر “جروب ميك أب”، ما زاد من غرابة التفاصيل، خاصةً وأنها لم تكن منخرطة في مثل هذه المجموعات. بعد انتهاء المكالمة، أدركت أنها وقعت ضحية واحدة من أخطر أدوات العصر الرقمي: التزييف الصوتي.

 كيف يعمل الابتزاز باستخدام الذكاء الاصطناعي؟

يبدأ المبتزون بالحصول على “عينة صوتية” لا تتجاوز 10 ثوانٍ من كلام الضحية – غالبًا من خلال مكالمة هاتفية مسجلة، أو مقطع على وسائل التواصل – ثم يرفعونها إلى خوادم تستخدم خوارزميات تعلم عميق لتحليل نغمة الصوت وطريقة النطق.

خلال دقائق، يمكن لتلك البرمجيات إنشاء مقطع صوتي جديد يبدو وكأن الضحية هي من قالت ما يُركّب عليها، ليتم بعد ذلك دمج الصوت مع فيديوهات معدة مسبقًا، ما يصعب معه التمييز بين الحقيقي والمزيف.

 الجرائم الجديدة: من التزييف العميق إلى التهديد المباشر

لم يعد الابتزاز الرقمي يقتصر على اختراق الحسابات وسرقة الصور، بل انتقل إلى مستويات أكثر تعقيدًا مثل:

  • Deepfake Videos: تركيب وجه الضحية على أجساد أخرى في فيديوهات فاضحة.
  • Voice Cloning: تسجيل مكالمات مفبركة وكأنها صادرة من الضحية.
  • AI Chatbots: انتحال شخصيات والتواصل مع أصدقاء الضحية لجمع معلومات.
  • هندسة اجتماعية متقدمة: خداع الضحية للتفاعل مع محتوى يُستخدم لاحقًا ضدها.

 ارتفاع معدلات الشكاوى في مصر 2025

وفق تقارير مراكز الدعم القانوني، ارتفعت بلاغات الابتزاز الإلكتروني في النصف الأول من عام 2025 بنسبة 47% مقارنة بالعام الماضي، وارتبط 60% منها باستخدام أدوات ذكاء اصطناعي، سواء في تزييف الصوت أو الصور أو الفيديو.

وغالبًا ما تكون الضحايا من النساء بين عمر 17 و30 عامًا، في ظل ضعف الوعي الرقمي لدى العديد من المستخدمين، وسهولة استخدام البرامج دون الحاجة لخبرة تقنية كبيرة.

 الإطار القانوني: ماذا يقول القانون المصري؟

يجرم قانون مكافحة جرائم تقنية المعلومات في مصر (رقم 175 لسنة 2018) أي شكل من أشكال التعدي على الحياة الخاصة أو القيم الأسرية باستخدام الوسائل الإلكترونية.

المادة 25: تنص على الحبس من 6 أشهر إلى 3 سنوات، وغرامة تصل إلى 100 ألف جنيه لكل من ينتهك حرمة الحياة الخاصة أو ينشر محتوى خادش.

المادة 327 من قانون العقوبات: تعاقب من يهدد آخر كتابة أو شفهيًا بجريمة ضد النفس أو المال بالحبس أو السجن، وتشدد العقوبة إن اقترنت بمطالب مالية أو استغلال جنسي.

 كيف تحمي نفسك من الابتزاز الإلكتروني بالذكاء الاصطناعي؟

فيما يلي نصائح ذهبية لتجنب الوقوع في فخاخ التزييف الرقمي:

  • لا تستقبل مكالمات من أرقام غير معروفة إلا للضرورة القصوى.
  • تجنب الحديث الطويل مع الغرباء عبر الهاتف أو الفيديو.
  • استخدم تطبيقات تحدد هوية المتصل، لكن لا تثق بها بالكامل.
  • تأكد من إعدادات الخصوصية في جميع حساباتك.
  • احذر من النقر على روابط مشبوهة أو تحميل تطبيقات غير موثوقة.
  • احذف الصور والمقاطع التي لا ضرورة لها من هاتفك.
  • استخدم برامج الحماية الحديثة المزودة بتقنية كشف التزييف الصوتي والفيديو.

 شهادات حية: “صوتي لم يعد ملكي”

إحدى الضحايا تقول: “ما صدقته أولاً، لكن لما أرسل لي مقطعًا صوتيًا يبدو كأنه أنا، بكيت… حتى أمي صدقته! لم أعد أملك ثقة بأي تسجيل لي الآن، وأشعر أنني مهددة في كل لحظة.”

شهادات كهذه تعكس مدى الألم النفسي الذي يسببه هذا النوع من الابتزاز، إذ لا يدمر فقط الخصوصية، بل يزرع شكًا دائمًا في كل تفاعل إلكتروني.

 مسؤولية الشركات التقنية

يُلقى على عاتق الشركات الكبرى مثل Meta وTikTok وGoogle مسؤولية أخلاقية وتقنية، تتمثل في:

  • تطوير خوارزميات لكشف محتوى الـ Deepfake.
  • الحد من انتشار الفيديوهات المزيفة.
  • التنبيه الفوري للضحايا عند رصد محتوى معدل.
  • تمكين المستخدمين من التحكم الكامل في ظهور صوتهم أو صورهم ضمن أدوات الذكاء الاصطناعي.

 هل من حلول قانونية دولية؟

على مستوى العالم، بدأت دول مثل الاتحاد الأوروبي وكندا والولايات المتحدة في سن قوانين تُلزم مطوري أدوات الذكاء الاصطناعي بتمييز أي محتوى تم إنتاجه باستخدام الذكاء الاصطناعي.

كما يجري إنشاء قواعد بيانات للبصمة الصوتية والوجهية، بهدف التحقق من الأصل الحقيقي لأي محتوى مشبوه، ومقارنته بمصادره قبل استخدامه قانونيًا.

 الخاتمة: وعي رقمي قبل أي شيء
الذكاء الاصطناعي ليس عدوًا، لكنه يتحول إلى ذلك إذا وُضع في يد من لا ضمير لهم. والابتزاز الإلكتروني بصورته الجديدة لا يرحم، لأنه يختبئ خلف تقنيات يصعب كشفها بسهولة، ويضرب في أكثر أماكن الإنسان هشاشة: سمعته وكرامته.

إن الحماية اليوم لم تعد مسؤولية القانون فقط، بل مسؤولية كل فرد: أن يحمي صوته، صورته، وحضوره الرقمي، كما يحمي منزله ومفتاحه وباب بيته.

يوسف صلاح

كاتب شاب وطموح، يتميز بخياله الواسع وأفكاره المبتكرة. يكتب في الكثير من المجالات، ويسعى إلى إلهام الجيل الجديد. يتميز بأسلوبه الحماسي والملهم الذي يشجع القارئ على التفكير خارج الصندوق.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

عزيزي متابع عرب ميرور

نحن نقدر أن الإعلانات قد تكون مزعجه لك في بعض الاحيان، لكن الإعلانات هي مصدر دخلنا الوحيد، مّا يُمكّننا من الاستمرار في تقديم محتوى إخباري موثوق ومجاني لكافة متابعينا، نطلب منك إغلاق حاظر الإعلانات (Ad Blocker) أثناء تصفحك لموقع عرب ميرور.

قم بإعاده تحميل الصفحه بعد اغلاق ad blocker !