الوجه المظلم للذكاء الإصطناعي.. كيف تعيد الخوارزميات تشكيل الجريمة في القرن الحادي والعشرين

د. عصام الدين عباس احمد
مستشار نظم وتكنولوجيا تحليل البيانات
مدخل
في عصر أصبحت فيه الخوارزميات قادرة على خلق عالم افتراضي لا يختلف عن الواقع، لم تعد الجريمة الرقمية حكراً على الأدوات التقليدية، بل استفادت كثيرا من الذكاء الإصطناعي التوليدي لتصبح أكثر ذكاءً وتعقيدا. ففي هونغ كونغ، استطاع محتالون باستخدام تقنية “التزييف العميق Deepfake” انتحال شخصيات جميع الإدارة المالية لشركة عالمية عبر اجتماع فيديو، وخداع موظف لتحويل 25 مليون دولار دون أن يدرك أن جميع المشاركين، باستثناء ذلك الموظف، في الاجتماع الاسفيري كانوا شخصيات غير حقيقية. اذا كانت هذه الواقعة حدثت بين هونغ كونغ ولندن، فليس بمستغرب اللغط الدائر في السودان حول ظهور بعض الشخصيات عبر الوسائط، هل هم الأشخاص الحقيقيون ام هو تزييف عميق عبر أدوات الذكاء الاصطناعي التوليدي، وهل ما نسمعه ونشاهده حقيقة ام ذكاء اصطناعي؟
المتتبع للتطور الهائل في التكنولوجيات الناشئة يلاحظ تحول الذكاء الإصطناعي التوليدي، وفي زمن قياسي، إلى قوة تعيد تشكيل العالم. في الجانب المشرق، نراه يحاكي عظماء فن الرسم ويقوم بتصميم اللوحات بصورة فنية مبهرة، ويكتب نصوصاً أدبية، ويسرع اكتشاف الأدوية المنقذة للحياة، ويساعد فرق الدفاع المدني في إنقاذ المحتجزين تحت الأنقاض. لكن لكل ابتكار وجهان، وهنا يبرز السؤال الهام جدا: ماذا يحدث عندما تصبح هذه التكنولوجيا في متناول أيدي المجرمين؟
بدأت الإجابة تتضح أمام أعيننا بوضوح لا لبث فيه. فبينما العالم منشغل بإمكانيات الجات جي بي تي وغيره من أدوات الذكاء التوليدي، كان العالم السفلي الرقمي يعيد ترتيب أوراقه. لم يعد المجرم بحاجة إلى مهارات برمجية معقدة أو فرق متخصصة، فالـمراكز السحابية للجريمة كخدمة ((Crime-as-a-Service CaaS تقدم الآن كل ما يحتاجه المجرم العصري: نماذج لغوية كبيرة (LLM) يتم تدريبها على كميات هائلة من النصوص ليفهم اللغة البشرية ويولدها بطريقة طبيعية، وأدوات تزييف جاهزة، وبنية تحتية متكاملة. النتيجة ارتفاع فاق التصور لمعدلات الجريمة الرقمية المستحدثة بلغ نسبة 1265% في الهجمات الإلكترونية المدعومة بالذكاء الإصطناعي خلال عام 2025 وحده.
ينطلق هذا المقال من موقعي كشخص ينتمي إلى مجتمعين يقعان في قلب هذا التحول الرقمي: مجتمع الشرطة، بصفته حائط الصد الأول المنوط به التصدي لكل فعل ضار وغير شرعي، ومجتمع تكنولوجيا المعلومات، المعني باستشراف التكنولوجيات الناشئة وتعظيم منفعتها ومواجهة مخاطرها. يناقش المقال كيف تحول التزييف العميق من مجرد أداة لصناعة فيديوهات ترفيهية إلى سلاح فتاك في الاحتيال المالي، مستعرضاً قصة الـ25 مليون دولار التي هزت هونغ كونغ، وكيف أصبح المجرم قادراً على أن يكون في كل مكان ولا مكان في آن واحد. وقبل الغوص في آليات الدفاع الممكنة في هذه المعركة غير المتكافئة، نبدأ بتعريف الذكاء الاصطناعي التوليدي، ذلك المحرك الخفي الذي يقف خلف هذا التحول الجذري.
ماهو الذكاء الإصطناعي التوليدي
الذكاء الإصطناعي التوليدي (Generative Artificial Intelligence GAI) هو فرع متقدم من الذكاء الإصطناعي يركز على إنشاء محتوى جديد، بدلاً من مجرد تحليل أو تصنيف البيانات الموجودة. يقوم عبر التعلم من كميات هائلة من البيانات غير المهيكلة (نصوص، صور، أصوات، أكواد برمجية) باكتشاف الأنماط والهياكل الأساسية لهذه البيانات، ثم يستخدم هذه المعرفة لإنتاج مخرجات جديدة تماما تحاكي ما تعلمه. لفهم الذكاء التوليدي جيدا لابد من لمحة موجزة عن النوع الاخر من الذكاء وهو ذلك الجزء المختص بالتنبوء والاستنتاجات او ما يعرف بالذكاء التنبؤئ (Predictive Artificial Intelligence PAI).
الذكاء التنبؤي هو القاعدة الأساسية التي يقوم عليها الذكاء الإصطناعي ويختص بتحليل البيانات التاريخية والحالية بهدف التنبؤ بالأحداث أو السلوكيات المستقبلية، من خلال توظيف تقنيات التعلم الآلي والإحصاء والرياضيات لاكتشاف الأنماط الخفية وإصدار توقعات دقيقة حول السيناريوهات المحتملة. ويتجلى هذا بوضوح في أبرز تطبيقاته الحالية على أرض الواقع مثل التحقق عبر القياسات البيومترية كالبصمة المدنية والتعرف على صورة الوجه في أنظمة الهوية، ومنصات التسوق كأمازون التي تستخدمه لتحليل سلوك المستهلكين وتقديم توصيات واتخاذ القرارات، والقطاع المصرفي حيث يعمل في أنظمة كشف الاحتيال عبر مراقبة المعاملات المالية ومقارنتها بأنماط الإنفاق المعتادة لإيقاف العمليات المشبوهة وغيرها.
بلغة بسيطة، إذا كان الذكاء الإصطناعي التنبؤي قادرًا على الإجابة عن سؤال على شاكلة “من هو صاحب صورة الوجه هذه؟”، فإن الذكاء الإصطناعي التوليدي قادرا على “انتاج صورة مطابقة تماما لهذه الصورة ومنحها القدرة على الحركة والكلام والتصرف تماما كصاحبها الاصلي”.
فوائد الذكاء الإصطناعي التوليدي
في عصرنا الرقمي الحالي، أحدث الذكاء الاصطناعي التوليدي تحولاً جذرياً إيجابياً في مختلف جوانب الحياة، حيث انتقل من كونه أداة تجريبية إلى شريك أساسي يعزز الإنتاجية، يُطلق العنان للإبداع، ويُسرع الابتكار في مجالات متعددة. من خلال قدرته على إنشاء نصوص، صور، فيديوهات، أكواد برمجية، وحتى حلول طبية مخصصة بسرعة ودقة غير مسبوقة، أصبح الذكاء التوليدي يوفر ساعات عمل يومية، يُحسن جودة التعليم والرعاية الصحية، ويُعيد تشكيل طرق العمل والتسويق والإبداع. رغم التحديات الأخلاقية والأمنية التي يثيرها، فإن فوائده الملموسة تجعله محركاً قوياً للتقدم، وتستحق مناقشة متعمقة لفهم كيف يُثري حياتنا اليومية والمهنية في عام 2026.
آليات الإجرام الجديدة – كيف يعمل الذكاء التوليدي لصالح المجرمين؟
التزييف متعدد الوسائط
لم يعد التزييف مقتصراً على تبديل الوجوه في مقاطع فيديو، بل تطور ليدمج بين الفيديو والصوت والنص لانتاج واقع غير حقيقي بالكامل. السمة الابرز تكمن في الانتقال من التزييف المسجل (حيث يعد فيديو مسبقاً) إلى التزييف في الوقت الحقيقي بحيث يتمكن المجرم من إجراء مكالمة فيديو مباشرة عبر زووم او تيمز او أي تطبيق مشابه، ويظهر خلالها بالشخصية التي يريد، ويتحدث بصوتها في اللحظة نفسها، بل ويستجيب لتعابير وحركات الضحية. هذا التطور يحول الاحتيال من مجرد رسالة مسجلة إلى تفاعل حي مباشر، مما يضاعف فرص النجاح.
مراكز الجريمة كخدمة ونماذج اللغات
في عالم الويب المظلم، انتشر سوق سري لأنظمة ذكاء اصطناعي غير خاضعة للرقابة . نماذج لغوية كبيرة تم تسريبها أو تطويرها خصيصاً للأغراض الإجرامية، تقدم لطالبيها (مقابل عملات رقمية طبعاً) خدمات تفوق الوصف مثل كتابة رسائل تصيد باحترافية، صياغة نصوص احتيال مخصصة لكل ضحية بناءً على بياناته المنشورة، وحتى إنشاء محادثات كاملة مع الضحايا نيابة عن المحتالين. الأخطر من ذلك هو ظهور ما يمكن تسميته “مراكز الاحتيال المتكاملة”، وهي كيانات إجرامية منظمة تعمل مثل الشركات الناشئة تماماً: تقدم الأدوات الاجرامية كخدمة سحابية (Crime-as-a-Service CaaS)، ولديها رؤساء أقسام للتسويق والتقنية وخدمة العملاء، وتقدم خدمات احترافية للمشتركين تشمل كل شيء من الدعم الفني وجمع البيانات وحتى تنفيذ التحويلات البنكية وغيرها من الأفعال غير المشروعة.
سرقة الهوية البيومترية
من أكثر التطورات ذات البعد الاجرامي هو تحول بياناتنا البيومترية إلى سلعة قابلة للسرقة والاستغلال. كل مقطع فيديو تنشره على فيسبوك، وكل صورة تشاركها على إنستغرام، وكل رسالة صوتية ترسلها عبر واتساب، هي بمثابة “مواد خام” ثمينة للمحتالين. يكفي بضع ثواني من تسجيلاتك الصوتية لتدريب نموذج ذكاء اصطناعي على تقليد صوتك بدقة عالية، وبعض من صورك لإنشاء نسخة رقمية من وجهك لها القدرة على تحريك الشفاه والرمش وتعبيرات الوجه.
عندما يتحول الإبداع إلى جريمة: قصص من الواقع
حادثة هونغ كونغ – عندما اجتمع المدير المالي وزملاؤه
في يناير 2024، تعرضت شركة استشارية عالمية في هونغ كونغ لحادثة اقرب للخيال. موظف في قسم المالية تلقى رسالة بريد صادرة عن المدير المالي للمجموعة من مقرها الرئيسي في لندن. تتحدث الرسالة عن “صفقة سرية” تتطلب تحويل أموال بشكل عاجل. تمت دعوة الموظف للانضمام إلى اجتماع عبر الفيديو لمناقشة الصفقة. لم يكن المدير المالي فقط حاضرا، بل أيضاً خمسة من زملائه الآخرين الذين يعرفهم شخصياً من الدائرة المالية في لندن. كانوا جميعاً هناك، يتبادلون النظرات والقفشات، ويناقشون تفاصيل الصفقة.
الحقيقة ان كل المشاركين في الاجتماع، ما عدا الموظف الضحية، كانوا نسخاً رقمية مولدة بالكامل بتقنية التزييف العميق. خلال اجتماع الفيديو هذا أصدر المدير المالي تعليمات واضحة بتحويل الأموال. نتيجة لذلك، قام الموظف بـ 15 تحويلا مصرفيا إلى خمسة حسابات بنكية محلية في هونغ كونغ. المبلغ الإجمالي 25 مليون دولار أمريكي.
لم يكتشف الموظف الخداع إلا بعد انتهاء الأسبوع، عندما تواصل مع المقر الرئيسي في لندن للتأكيد. هناك، اكتشف الحقيقة المرة: لا أحد من المشاركين في المكالمة كان حقيقياً. الشركة المستهدفة هي مجموعة أروب (Arup)، إحدى أكبر شركات الاستشارات الهندسية في العالم، ومقرها لندن. هذه الحادثة كانت إعلاناً رسمياً عن ولادة حقبة جديدة من الجريمة الرقمية، حيث يمكن للمجرمين استنساخ وجوه وأصوات عدة أشخاص في وقت واحد لخلق واقع غير حقيقية.
واقعة البنك الإماراتي
تُعد هذه الحادثة مرجعاً هاما في دراسة مخاطر الذكاء الإصطناعي التوليدي، حيث استُخدمت تقنية “استنساخ الصوت” (Voice Cloning) لانتحال صفة مدير شركة معروف لدى مدير أحد البنوك في دولة الإمارات. تمكن الجاني من محاكاة نبرة صوت المدير بدقة عالية خلال اتصال هاتفي، لإعطاء أوامر بتحويلات مالية بلغت 35 مليون دولار أمريكي بذريعة إتمام عملية استحواذ على شركة. أثبتت هذه الواقعة قدرة الذكاء الإصطناعي على تجاوز بروتوكولات التحقق البشري والمصرفي التقليدية، مما أدى إلى إعادة النظر عالمياً في موثوقية البصمة الحيوية الصوتية كوسيلة آمنة للتصديق المالي.
محاكاة صوت الرئيس الأمريكي جو بايدن
في مايو 2024، أدين استشاري سياسي في لويزيانا بإنشاء مكالمات روبوتية مزيفة بصوت الرئيس جو بايدن مولدة بالذكاء الإصطناعي، لإقناع الناخبين بعدم التصويت له في الانتخابات التمهيدية في نيو هامشير. فرضت لجنة الاتصالات الفيدرالية غرامة قدرها 6 ملايين دولار.
استراتيجيات الأمان من مخاطر الذكاء الإصطناعي التوليدي
الحماية على المستوى الشخصي: الوعي والأدوات الأساسية
تبدأ الحماية من مخاطر الذكاء الاصطناعي التوليدي، مثل التزييف أو الاحتيال الصوتي، بالتوعية الذاتية والتحقق اليومي. من المهم الاهتمام بتثقيف الأفراد حول علامات المحتوى المزيف، مثل عدم التوافق في الفيديوهات، واستخدام أدوات كشف التلاعب مع التنبيه لتجنب مشاركة البيانات الشخصية الحساسة مع تطبيقات الذكاء الاصطناعي غير الموثوقة، والاعتماد على التشفير وكلمات المرور القوية لتقليل مخاطر تسرب البيانات.
الحماية على المستوى المؤسسي: الحوكمة والمراقبة المستمرة
في المؤسسات، يتطلب الأمر إنشاء إطار حوكمة الذكاء الاصطناعي يشمل تقييم المخاطر من مرحلة التطوير إلى النشر، مع تطبيق قيود الوصول والمراقبة المستمرة والتدقيق الدوري للأدوات التقنية، وتحديث عقود الموردين لتحميل المسؤولية عن الانتهاكات، مع التركيز على جودة البيانات والامتثال للمعايير.
الحماية على المستوى المجتمعي: التشريعات والتعاون الدولي
على المستوى المجتمعي، تحتاج الاستراتيجية إلى قوانين صارمة لتنظيم التعامل مع الذكاء الاصطناعي، مع تعزيز التعاون الدولي لمشاركة المعلومات عن الحوادث. يجب تطوير أدوات كشف المحتوى غير الحقيقي، وحماية البنية التحتية الحيوية، مع التركيز على الحقوق الأساسية لتجنب الأضرار في الدول النامية. التقارير الدولية تشدد على طبقات متعددة من الدفاع، بما في ذلك الإبلاغ عن الحوادث وتعزيز القدرات المؤسسية لمواجهة التهديدات الجديدة.
النهج الشامل: التوازن بين الابتكار والأمان
لنجاح الاستراتيجية، يجب دمج النهج الوقائي مع الاستجابة السريعة، مثل الاستخدام الدفاعي للذكاء الاصطناعي لكشف التهديدات وتطبيق مبدأ انعدام الثقة zero-trust. في السنوات الأخيرة، أصبحت الاستراتيجيات الناجحة تعتمد على التعاون بين الحكومات والشركات، مع التركيز على الابتكار المسؤول لتقليل المخاطر دون إعاقة الفوائد، كما أوصت المنتديات العالمية.
ختاماً
المستقبل ليس كئيباً بالضرورة، لكنه يتطلب منا جميعاً وعياً مختلفاً. الوعي بأن صوت أمي في المكالمة قد لا يكون صوتها، وأن وجه مديري في مؤتمر الفيديو قد يكون قناعاً رقمياً، وأن صديقي الذي يطلب المساعدة على واتساب قد يكون محتالاً يدير مركز احتيال على بعد آلاف الأميال.
الحماية ليست مسؤولية الحكومات وحدها، ولا الشركات وحدها، ولا الأفراد وحدهم. هو معركة مشتركة، تتطلب من كل طرف أن يقوم بدوره. المؤسسات تضع البروتوكولات الصارمة وتدرب موظفيها، الأفراد يحمون بياناتهم ويصقلون وعيهم، الحكومات تسن القوانين وتتعاون دولياً، وشركات التقنية تطور أدوات الكشف وتحمي منصاتها.
الذكاء الإصطناعي التوليدي سلاح ذو حدين. في أيدي المبدعين، يصنع مستقبلاً أفضل. وفي أيدي المجرمين، يعيد تشكيل الجريمة. السؤال الذي يبقى مفتوحا: أي الفريقين سيكون أسرع وأذكى؟ الإجابة تعتمد علينا جميعاً. لأن التحدي ليس تقنياً فقط، بل هو تحدٍ بشري في المقام الأول في عالم يمكن فيه تزييف كل شيء.
الدكتور عصام الدين عباس أحمد هو ضابط شرطة متقاعد ومستشار في أنظمة تحليل البيانات والتكنولوجيا ولديه أكثر من 30 عاما من الخبرة القيادية في قطاع الأمن السوداني وأعمال لاحقة في السياقات الإنسانية والتنمية. خلال خدمته في الشرطة عبر مناطق متنوعة، ركز على الحوكمة والهوية وإدارة التنوع في بيئات معقدة. بعد التقاعد، انتقل إلى المجال الإنساني كخبير وطني يدعم الاستجابة للأزمات، والتنسيق، وبناء القدرات المؤسسية. يحمل مؤهلات أكاديمية متقدمة في علوم الحاسوب وتحليل البيانات، وتطبيق المنهج القائم على البيانات والحلول الرقمية في البيئات الهشة والمتأثرة بالصراعات. خلفيته متعددة التخصصات تربط بين العمليات الأمنية، واللوجستيات الإنسانية، والتقنيات الناشئة، مما يمكن المؤسسات من تعزيز اتخاذ القرار المبني على الأدلة، وتحسين الفعالية التشغيلية، ودفع مبادرات التحول الرقمي، لا سيما في المجالات المتعلقة بالإصلاح الأمني والعسكري، وبناء السلام، والحوكمة، وتطوير المؤسسات





