...
1300 669 711 - أستراليا اتصل بنا

التحقيق في الصور والفيديوهات والصوتيات العميقة

مستخدم عشوائي

دان هالبين

نُشر في: ٢ مايو ٢٠٢٤ · ٧ دقائق للقراءة

حصة على

يواصل المطورون إطلاق منتجات الذكاء الاصطناعي (AI) بسرعة مخيفة، مما يجعل من الصعب على المشرعين والمنظمين مواكبة ذلك. في حين أن العديد منها هي بلا شك تطبيقات مفيدة، إلا أن البعض الآخر يشكل مخاطر جسيمة من الضرر عندما يقع في أيدي الجهات الفاعلة الخبيثة. سواء كنت تقوم بالتحقيق مع المحتالين أو المبتزين أو الأخبار المزيفة أو المضايقين، فإن محققي الاحتيال السيبراني الخطير يحبون ذلك Cybertrace يجب أن نطبق اليقظة والابتكار والاستشراف. بعد استكشاف استخدام ChatGPT لأغراض شريرة، دعونا نفكر في التزييف العميق واستنساخ الصوت.

بالنظر إلى الأضرار المالية والسمعة والشخصية المحتملة التي يمكن أن تسببها هذه التقنيات المزعجة، Cybertrace يشعر بأنه مضطر لتحذير الجمهور. يظل محققونا ذوو الخبرة دائمًا في طليعة التطورات التكنولوجية ويقومون ببناء أدوات مبتكرة ومصممة خصيصًا للقبض على مجرمي الإنترنت. من خلال الخبرة في الطب الشرعي لمواقع الويب، وتتبع العملات المشفرة، و تحقيقات الاحتيال, Cybertrace وتقوم الآن أيضًا بالتحقيق في الصور ومقاطع الفيديو والصوت المزيفة لتحديد المسؤولين عنها. اتصل بفريقنا اليوم لمناقشة حالتك والحصول على المساعدة التي تحتاجها.

ما هي الصور والفيديو والصوت Deepfake؟

يعتمد التزييف العميق على نماذج قوية للتعلم الآلي (ML)، وهو عبارة عن صورة أو مقطع فيديو أو صوت مزيف رقميًا لشخص ما يجعله يبدو وكأنه شخص آخر. تنتج تقنية Deepfakes صورًا ومقاطع فيديو وتسجيلات صوتية ذات مظهر وواقعية مخيفة لأحداث لم تحدث مطلقًا. عادة، تستهدف تقنية التزييف العميق المشاهير أو السياسيين أو الشخصيات العامة، ومن الأمثلة المبكرة على ذلك الرئيس أوباما والبابا فرانسيس. وذلك لأن التكنولوجيا الكامنة وراء التزييف العميق تعمل بشكل أفضل مع مجموعات البيانات الكبيرة، أي اللقطات الوفيرة لتدريب النموذج. ومع ذلك، مع التحسينات المستمرة في التعلم الآلي، يمكن لأي شخص أن يصبح هدفًا. في الواقع، يمكن الآن إجراء استنساخ الصوت باستخدام الذكاء الاصطناعي بناءً على مجرد سماعك تتحدث لمدة ثلاث ثوانٍ. ولهذا السبب أصبح اكتساب القدرة على التحقيق في الصور ومقاطع الفيديو والصوت المزيفة ذات أهمية متزايدة. كما هو الحال دائما، Cybertrace هم رواد في هذا الفضاء الاستقصائي (السيبراني).

كائن يحمل لوحة دوائر كهربائية بدلاً من الوجه، ويرتدي عباءة داكنة وقبعة، ينظر من خلفية مظلمة بعيون زرقاء ثاقبة، مما يوحي بأن هناك شيئًا أكثر شرًا يختبئ خلف هذا الوجه المزيف.

كيف يتم صنع التزييف العميق؟

ومن المثير للاهتمام أن تقنية التزييف العميق تستغل نموذجين مختلفين للتعلم الآلي: أحدهما ينشئ صورًا/فيديو/صوتًا مزيفًا من البيانات المتاحة، والآخر يحاول اكتشافها. عندما لا يتمكن الأخير من معرفة ما إذا كانت الصورة/الفيديو/الصوت حقيقية أم مزيفة، فمن المحتمل أن يخدع البشر أيضًا. وهذا باختصار هو كيف أ شبكة الخصومة التوليدية (GAN) يعمل. منذ وقت ليس ببعيد، كان إنتاج مثل هذه التزييفات العميقة حكرًا على المتسللين الذين يعيشون في الطابق السفلي ومهووسي الكمبيوتر الذين يستخدمون أجهزة كمبيوتر عالية الأداء للألعاب. في الوقت الحاضر، يمكن لأي شخص لديه جهاز كمبيوتر محمول واتصال بالإنترنت إنشاء مقاطع فيديو عميقة المظهر واقعية مجانًا في أقل من 30 ثانية. بالإضافة إلى ذلك، لا يتطلب استنساخ الصوت بالذكاء الاصطناعي سوى مقطع صوتي مدته ثلاث ثوانٍ لجعل صوتك يقول أي شيء يرغب فيه منشئه. في الواقع، وصف مقال نشرته مجلة فوربس مؤخرًا العملية برمتها بأنها "سهل بشكل مخيف"وخاصة لأصحاب النوايا السيئة. لم يكن التحقيق في الصور ومقاطع الفيديو والصوت المزيفة أكثر أهمية من أي وقت مضى.

[google_adsense_shortcode]

ما هي مخاطر الصور والفيديوهات والصوتيات المزيفة؟

ما بدأ كترفيه غير ضار بين المستخدمين سرعان ما تحول إلى مبرمجين يقومون بإنشاء خوارزميات تعلم الآلة نقل وجوه المشاهير إلى مقاطع الفيديو الإباحية. كتحقيق حديث أجرته ABC 4 زوايا يوضح أن الإباحية غير التوافقية لا تزال أحد التطبيقات الرئيسية للتزييف العميق. يستخدم المجرمون أيضًا الاستنساخ الصوتي لسرقة أموالك وهويتك عبر الخدمات المصرفية عبر الهاتف أو بوابات الخدمات الحكومية مثل Centrelink. أضف إلى ذلك الأخبار الكاذبة، وتضليل الناخبين، والمدفوعات غير المشروعة، والأعذار الكاذبة، والابتزاز والإرهاب، وستحصل على كوكتيل رائع! لا عجب أن المزيد والمزيد من الخبراء يدعون إلى زيادة القدرات للتحقيق في الصور والفيديو والصوت المزيف.

ترمز الصورة إلى العملية المطلوبة لصنع خدعة عميقة، وتحتوي على امرأة بشبكة بدلاً من الوجه، ويظهر وجهها الحقيقي بجانبها، مع شبكة فوقه أيضًا.

ولكن بعيدًا عن الاستخدامات الشائنة لأنشطة إجرامية محددة، هناك أيضًا مشكلة أكبر. تطرح تقنية التزييف العميق تحديات مجتمعية هائلة أمام فهمنا الأساسي لما هو حقيقي وحقيقي وقابل للتصديق. ومع ميل البشر القوي إلى الإيمان بآذاننا وأعيننا، فإن الأدلة المرئية والصوتية تتمتع بمصداقية قوية. وهذا صحيح في تطبيق القانون كما هو الحال في الانتخابات والثقافة الشعبية.

هل تعني تقنية التزييف العميق أننا لم نعد نستطيع أن نثق في حواسنا؟ هل تجعلنا تقنية استنساخ الأصوات نعتقد أن الساسة قالوا شيئًا لم يفعلوه قط؟ هل تجعل ادعاءات "الأخبار الكاذبة" أسهل؟ مع صعوبة اكتشاف تقنية التزييف العميق بشكل متزايد، حتى بالنسبة لأدوات الكشفومن المرجح أن نشهد تفاقمًا في التضليل السياسي. في هذا المناخ، أصبح اكتساب القدرة المهنية للتحقيق في الصور ومقاطع الفيديو والصوت المزيفة أكثر أهمية من أي وقت مضى.

كيف يستخدم مجرمو الإنترنت الصور والفيديوهات والصوتيات المزيفة؟

وبطبيعة الحال، سارع مجرمو الإنترنت إلى اعتماد الذكاء الاصطناعي والصور ومقاطع الفيديو والصوت المزيفة لاستغلالها وتضليلها والتلاعب بها. وفي عالم الذكاء الاصطناعي بشكل عام، يشعر الخبراء بالقلق من أن الإرهابيين يستكشفون كيفية استخدام المركبات ذاتية القيادة كأسلحة. بالإضافة إلى ذلك، قد تسعى الدول المعادية إلى تعطيل الأنظمة التي يسيطر عليها الذكاء الاصطناعي، مما يتسبب في انقطاع التيار الكهربائي، أو ازدحام حركة المرور، أو انهيار الخدمات اللوجستية الغذائية. علاوة على ذلك، يمكن للجهات الخبيثة استخدام الصور ومقاطع الفيديو والصوت المزيفة لإثارة الاضطرابات المدنية والتلاعب بالانتخابات. وأخيرًا، بالمقارنة مع الأشكال التقليدية للجريمة، فإن الجرائم القائمة على الذكاء الاصطناعي (بما في ذلك استنساخ الصوت) أسهل بكثير في المشاركة أو التكرار أو البيع. ونتيجة لذلك، يمكن لمجرمي الإنترنت بسهولة تقديم "خدمات إجرامية" مقابل رسوم أو الاستعانة بمصادر خارجية للأجزاء الأكثر صعوبة في جريمتهم الرقمية. وبالتالي، أصبح التحقيق في الصور ومقاطع الفيديو والصوت المزيفة مسألة ملحة بالنسبة لوكالات إنفاذ القانون والاستخبارات في جميع أنحاء العالم.

امرأة ذات شبكة تغطي نصف وجهها تنظر من خلال لوحة شفافة تحتوي على صور تقنية شفافة مثل الرسوم البيانية والشبكات والخرائط.

ماذا عن المحتالين والمخادعين؟

ليست الجهات الفاعلة الحكومية الخبيثة والإرهابيون وعصابات الجريمة هي الوحيدة التي تستخدم الذكاء الاصطناعي. في الواقع، مكّنت الصور ومقاطع الفيديو والصوت المزيفة بعمق أيضًا المحتالين الصغار سابقًا من زيادة عملياتهم بشكل كبير. باستخدام الصور ومقاطع الفيديو المزيفة، يمكن للمحتالين الآن إنشاء حسابات وهمية على تطبيقات المواعدة لارتكابها الحيل الرومانسية. وبالمثل، يمكنهم إنشاء مقاطع فيديو مزيفة للرؤساء التنفيذيين أو المشاهير الذين يؤيدونهم الاستثمارات الاحتيالية في العملات المشفرة. يستخدم المحتالون هذه التأييدات المزيفة للتلاعب بالضحايا المطمئنين وسرقة أموالهم التي حصلوا عليها بشق الأنفس. علاوة على ذلك، يمكن للمحتالين بسهولة إنشاء صور لمنتجات أو خدمات أو مراجعات للمنتجات المزيفة لخداع الضحايا عبرها عمليات الاحتيال في بيع السيارات. مجتمعة، هناك الكثير من الأسباب لإعطاء الأولوية للتحقيق في الصور والفيديو والصوت المزيف، بما في ذلك استنساخ الصوت.

هل استنساخ الصوت مشكلة؟

كما ذكرنا سابقًا، يتم استنساخ الصوت قادر على إعادة إنشاء صوت الشخص بعد ثلاث ثوانٍ فقط من الاستماع إليه وهو يتحدث. ومما يثير القلق أن هذا يأتي في وقت تستخدم فيه البنوك والهيئات الحكومية بشكل متزايد القياسات الحيوية الصوتية للتحقق من صحة المكالمات الهاتفية للعملاء. في النهاية، هذا يعني أنه يمكن للمحتالين استخدام الذكاء الاصطناعي لنسخ جزء أساسي من هويتك الشخصية بسرعة وبشكل مقنع. كما هو الحال مع جميع حيلهم الأخرى، فإن هدفهم النهائي هو الوصول إلى بياناتك الشخصية وأموالك. علاوة على ذلك، يمكن للمحتالين أيضًا استخدام استنساخ الصوت لانتحال شخصية صديق أو أحد أفراد العائلة في محنة وبحاجة إلى المال. وهي في الأساس نسخة أكثر تعقيدًا من عملية احتيال الرسائل النصية "Hi Mum"، حيث يتلاعب المحتالون بالحب العائلي للضحايا وحمايتهم. فقط عندما يستنزف المحتالون حساباتهم المصرفية، يدرك الضحايا أنه لا يوجد أي فرد من أفراد الأسرة في ورطة. ومن المؤسف أننا نشهد زيادة الحالات و تحذيرات حول عمليات الاحتيال الطارئة العائلية المعززة بالذكاء الاصطناعي.

يتحول سماعة الهاتف إلى فم غريب ووحشي، يمثل صوتًا مزيفًا واستنساخًا صوتيًا. وبجانبه جدار من النصوص غير المنطقية، والحروف التي لا تشكل كلمات حقيقية.

ما هي التهديدات الأخرى الموجودة؟

ولسوء الحظ، يعمل استنساخ الصوت أيضًا على تحسين جودة ومصداقية عمليات الاحتيال الجماعي عبر رسائل الهاتف الآلية، المعروفة أيضًا باسم "عمليات الاحتيال الآلي". يمكن لمعظم متلقي الرسائل المشؤومة من مكاتب الضرائب أو مقدمي خدمات الاتصالات أو غيرها من الكيانات الحكومية/الشركات أن يخبروا عادةً أنها مزيفة. ومع ذلك، مع التحسينات في جودة الصوت والنصوص الخاصة بالذكاء الاصطناعي، سيصبح التمييز بين الرسائل الحقيقية والرسائل المزيفة أكثر صعوبة. أخيرًا، يستخدم المحتالون الذكاء الاصطناعي لإنشاء "أدلة" مزيفة لابتزاز الأهداف. لهذه الأسباب، Cybertrace تعتقد أن التحقيق في الصور أو مقاطع الفيديو أو الصوت المزيفة أمر مهم بشكل متزايد.

ماذا يمكننا أن نفعل لحماية أنفسنا من الصور والفيديوهات والصوتيات المزيفة؟

في عالم رقمي مليء بشكل متزايد بالصور والفيديو والصوت المزيفة، نحتاج إلى حماية أنفسنا. ولحسن الحظ، هناك عدة طرق يمكننا من خلالها القيام بذلك. أولاً، في سباق القط والفأر مع مولدات التزييف العميق، تفضل شركات التكنولوجيا ذلك إنتل و OpenAI يعملون على أدوات الكشف عن التزييف العميق. في حين نأمل أن تصبح هذه التقنيات متطورة بما يكفي لمواكبة التزييف العميق، إلا أنها أيضًا ليست موثوقة بنسبة 100%. وبالتالي، من المهم أن نعتمد على التفكير النقدي القديم والدهاء الإعلامي من خلال طرح السؤال: من الذي صنع الفيديو؟ وهل تم تأكيد ذلك من قبل وسائل إعلام أخرى؟ ماذا قال موضوعه أيضًا؟ باختصار، نحن جميعًا بحاجة إلى المشاركة في التحقيق في الصور والفيديوهات والصوتيات المزيفة بعمق.

لقد قامت يد بتحريك قرص إلى سجل الحد الأقصى في خزنة رقمية. توجد صورة لقفل داخل درع على وجه القرص.

أحد الأمثلة الرائعة على كيفية تعزيز هذه القدرة بشكل استباقي يأتي من دولة الشمال فنلندا. وفي مواجهة حملة تضليل منسقة من جارتها روسيا، استعانت بخبراء عالميين للمساعدة في تصميم تدابير مضادة فعالة. ومن خلال الجمع بين التحقق من الحقائق والتفكير النقدي ومحو أمية الناخبين، تمكنت فنلندا من تنمية مواطنين أقوياء أقل عرضة للتلاعب. ويمثل هذا نتيجة قوية ويمكن تكرارها في بلدان أخرى. وعلى نحو مماثل، توفر الكوميديا ​​والسخرية سبلا فعالة لتثقيف الجمهور حول مخاطر التزييف العميق. وخير مثال على ذلك هو الممثل الكوميدي جوردان ستيل فيديو اوباما الشهير. مهما كانت الطريقة، يلعب التعليم دورًا حاسمًا في المجتمع الذي يبحث في التزييف العميق والصور والفيديو والصوت، بما في ذلك استنساخ الصوت. ولكن ماذا لو تجاوز المحتالون أو المبتزون دفاعاتنا؟

الارتقاء بتجربة التعلم داخل الفصل الدراسي إلى المستوى التالي؟ Cybertrace ساعدني؟

في بعض الأحيان، يتمكن المحتالون العازمون من تجاوز حتى أكثر الدفاعات يقظة. وذلك عندما تحتاج إلى بعض المساعدة الجادة من جانبك! لنفترض أن المحتالين قاموا بخداعك وسلب أموالك التي كسبتها بشق الأنفس من خلال انتحال شخصية أحفادك أو شركاءك الرومانسيين المحتملين أو المشاهير. وبدلاً من ذلك، قد يقوم شخص ما بتوزيع صور أو مقاطع فيديو مزيفة لك من أجل مضايقتك أو ابتزازك. لحسن الحظ، Cybertraceيمكن لفريق المحققين ذوي الخبرة مساعدتك في التعرف على المسؤول. سواء كان ذلك تتبع العملة المشفرة عبر blockchain, تحليل المواقع الجنائية لمعرفة من يستضيفهم، أو التمشيط المضني عبر الملفات الشخصية على وسائل التواصل الاجتماعي لتحديد هوية الجناة، يمكننا المساعدة في التحقيق في الصور ومقاطع الفيديو والصوت المزيفة، بما في ذلك استنساخ الصوت. اكتشف من يقف وراء عمليات الاحتيال أو الابتزاز أو التحرش، حتى تتمكن من الذهاب إلى الشرطة أو محاميك. Cybertrace لديه الموارد والقدرات والتفاني لإنجاز هذه المهمة. تواصل معنا محققينا ذوي الخبرة اليوم.

تمت مراجعة هذا المنشور لتحسين قابلية القراءة والدقة في 27 نوفمبر 2024.

دان هالبين - المؤلف

دان هالبين

المؤسس والمدير، Cybertrace

المؤهلات والخبرة
• أكثر من 20 عامًا في مجال التحقيقات والاستخبارات الأسترالية • ضابط سابق في جهاز الاستخبارات الأمنية الأسترالي، وشرطة نيو ساوث ويلز، وشرطة كوينزلاند • ضابط استخبارات مكافحة الإرهاب • محاكمة إرهابيي عملية بيندينيس (2007-2009) • مستشار استشاري في PM&C (2016-2017)
خلفية إحترافية

عمل دان في قطاعي التحقيقات والاستخبارات الأستراليين على مدار العشرين عامًا الماضية، وحصل على مؤهلات رسمية في مجال الشرطة والتحقيقات والاستخبارات والعمليات الأمنية وإدارة المخاطر الأمنية. يُعرف دان عالميًا بأنه رائد في التحقيق في عمليات الاحتيال بالعملات المشفرة.

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول المشار إليها إلزامية *

اخر منشور

امرأة تتساءل عما إذا كان من الممكن استعادة عملاتها الرقمية المسروقة
هل يمكن استرداد العملات المشفرة المسروقة؟

في عالمٍ باتت فيه العملات المشفرة تكتسب أهمية متزايدة...

اقراء المزيد
امرأة تبدو مرتبكة وهي تنظر إلى جهاز كمبيوتر محمول تحت مصباح مكتب صغير، تمثل شخصًا يتساءل عن كيفية معرفة من يقف وراء حساب مزيف على فيسبوك.
كيفية معرفة من يقف وراء…

يرسل لك حساب فيسبوك لا تعرفه رسالة...

اقراء المزيد
خلفية داكنة مع بطاقة هدية يد جولدينجا
تزايد عمليات الاحتيال ببطاقات الهدايا

في جميع أنحاء العالم، انتشرت عمليات الاحتيال المتعلقة ببطاقات الهدايا....

اقراء المزيد

اتصل بنا

اتصل بموظفينا الودودين على Cybertrace أستراليا لتقييم حالتك بسرية تامة. تواصل مع الخبراء.

رمز البريد الإلكتروني البريد الإلكتروني: [البريد الإلكتروني محمي]
رمز الهاتف دولي +61 2 9188