هل يسرق ChatGPT بياناتك؟ وهل ChatGPT آمن من قراصنة الإنترنت؟
يُعتبر الذكاء الاصطناعي، وبالأخص ChatGPT الذي طوّرته شركة OpenAI، أداة متطورة تستخدم في العديد من المجالات، مثل خدمة العملاء، والإبداع، وتحليل البيانات. لكن، تثير هذه التكنولوجيا أسئلة هامة حول الأمان وحماية البيانات. لذلك، سنستعرض في هذا المقال المخاطر المرتبطة باستخدام ChatGPT، بما في ذلك احتمالية سرقة البيانات والتعرض للاختراق.
أفادت شبكة BBC News بأن ChatGPT يمتلك القدرة على استيعاب المعرفة المتعلقة بالهندسة الاجتماعية بسرعة فائقة، حيث يُمكنه صياغة نصوص مقنعة تتناسب مع مجموعة متنوعة من تقنيات الاختراق والاحتيال، حتى عبر لغات متعددة، دون الحاجة إلى برمجة معقدة، وهذا يجعل منه أداة مغرية للمجرمين، الذين يستغلون تلك القدرات لتحقيق أغراضهم الخبيثة.
في حين تُبدي OpenAI التزامًا بتحسين الأمان، إلا أنها تعرضت لانتقادات بسبب ما يُعتبر اعتدالاً ضعيفاً في أدوات بناء GPT الخاصة بها، مما قد يتيح الفرصة للمجرمين لاستخدام الذكاء الاصطناعي بشكل غير أخلاقي.
يمكننا تعريف احتيال ChatGPT بأنه أي نشاط خادع أو ضار يستغل قدرات ChatGPT لأغراض غير قانونية. تشمل هذه الأنشطة انتحال الهوية، والتصيد الاحتيالي، أو إنشاء محتوى مزيف، مما يؤدي إلى ضرر للضحايا أو المؤسسات.
تتضمن عمليات احتيال ChatGpt أيضًا الوصول غير المصرح به إلى معلومات حساسة، والتلاعب بالتفاعلات عبر الإنترنت لأغراض احتيالية، واستغلال الثغرات في أنظمة أو منصات ChatGPT.
تتعدد الأسئلة حول ما إذا كان ChatGPT يسرق بياناتك، وما إذا كان آمنًا من قراصنة الإنترنت، لذا، إليك عشرة اتجاهات مشبوهة مرتبطة بـ ChatGPT:
1. احتيال انتحال الهوية: يقوم المحتالون بانتحال شخصية ChatGPT للتفاعل مع العملاء أو الموظفين، بحثًا عن معلومات حساسة أو معاملات مالية تحت ذرائع كاذبة.
2. إنشاء محتوى خبيث: يستغل المجرمون ChatGPT لإنشاء محتوى مضلل أو ضار، مثل مراجعات زائفة، ومقالات مضللة، أو إعلانات احتيالية.
3. هجمات التصيد الاحتيالي: يمكن للمجرمين صياغة رسائل تصيد متقنة موجهة للأفراد أو الشركات، بهدف خداع المستلمين للكشف عن بيانات سرية أو تثبيت برامج ضارة.
4. المعاملات الاحتيالية الآلية: يستفيد المحتالون من ChatGPT لأتمتة المعاملات الاحتيالية، مثل إنشاء حسابات مزيفة، أو إنتاج مستندات مزورة، أو إجراء تحويلات مالية غير مصرح بها.
5. استغلال الهندسة الاجتماعية: يُستغل ChatGPT في مخططات الهندسة الاجتماعية، حيث يقوم المحتالون بالتلاعب بالعواطف لخداع الأفراد أو المؤسسات للكشف عن معلومات حساسة أو اتخاذ إجراءات محفوفة بالمخاطر.
6. دعم العملاء الزائف: يمكن للمحتالين انتحال شخصية وكلاء دعم العملاء، موفرين مساعدة زائفة للضحايا، مما قد يؤدي إلى خسائر مالية أو تسريبات بيانات.
7. حملات المعلومات المضللة: يمكن استخدام ChatGPT لنشر المعلومات المضللة أو الخاطئة، للتأثير على الرأي العام، أو نشر الشائعات، أو إثارة الاضطرابات لأغراض خبيثة.
8. سرقة الهوية: يمكن أن يستخدم المحتالون ChatGPT لجمع البيانات الشخصية وارتكاب سرقة الهوية، مما يشكل مخاطر جسيمة على الأمان المالي والسمعة للأفراد.
9. الممارسات التجارية الاحتيالية: يمكن لبعض الكيانات استغلال ChatGPT للمشاركة في ممارسات تجارية احتيالية، مثل الإعلانات المضللة، أو الادعاءات الكاذبة حول المنتجات، أو المنافسة غير العادلة.
10. خرق البيانات: إذا لم يكن مؤمناً بشكل كافٍ، قد تكون أنظمة ChatGPT عرضة لخرق البيانات، مما قد يعرض معلومات حساسة تمت مشاركتها أثناء المحادثات لأطراف غير مصرح بها.
لقد قام المجرمون بتطوير نسخهم الخاصة من نماذج اللغة الكبيرة (LLMs)، التي تشبه ChatGPT وBard من Google، لأغراض غير قانونية. وقد تم الترويج لهذه النسخ، مثل WormGPT وFraudGPT، في منتديات وأسواق الويب المظلم (الدارك ويب) منذ يوليو 2023. تدعي هذه النماذج غير الشرعية أنها تلغي تدابير الأمان والحدود الأخلاقية.
في اختبارٍ، طُلب من أحد الأنظمة إنشاء بريد إلكتروني لعملية احتيال تتعلق بالبريد الإلكتروني التجاري، مما أسفر عن رسالة مقنعة بشكل غير مريح واستراتيجية واضحة. كما تفاخر منشئ FraudGPT بقدرته على إنشاء برامج ضارة يصعب اكتشافها، وتحديد الثغرات، وصياغة نصوص لعمليات الاحتيال عبر الإنترنت. وقد اكتشف راكيش كريشنا، محلل التهديدات البارز في Netenrich، الإعلان عن FraudGPT في منتديات الويب المظلم وقنوات تلغرام المختلفة.
وفقًا لموقع DarkReading، يُوجه مستخدمو وسائل التواصل الاجتماعي الذين ينقرون على روابط خبيثة إلى صفحة رئيسية مزيفة لـ ChatGPT تشبه إلى حد كبير الصفحة الأصلية. وعلى الرغم من أن المستخدمين قد يرون رسالة خطأ أو لا يرون أي رسالة على الإطلاق، فإن برنامج Trojan horse يُفعَّل في الواقع.
يبحث هذا التروجان عن تفاصيل تسجيل الدخول المحفوظة في متصفح الضحية، مستهدفًا بشكل خاص حسابات الأعمال مثل Google وFacebook وTikTok. ومع الوصول إلى هذه البيانات، يمكن للمهاجمين إطلاق هجمات أكثر خطورة ضد المؤسسات، مما قد يؤدي إلى الحصول على معلومات مالية مثل إنفاق الإعلانات والأرصدة الحالية.
أظهرت الأبحاث التي أجرتها Group-IB زيادة في المهاجمين الذين يستهدفون حسابات ChatGPT، مما قد يكون بهدف جمع بيانات حساسة وتنظيم هجمات مستهدفة إضافية. وفقًا لنتائج Group-IB، ظهرت بيانات اعتماد ChatGPT كأهداف رئيسية للأنشطة غير المشروعة على مدار عام 2023.
بسبب التخزين الافتراضي لاستفسارات المستخدمين واستجابات الذكاء الاصطناعي بواسطة ChatGPT من OpenAI، يمثل كل حساب نقطة دخول محتملة للمهاجمين الذين يسعون للوصول إلى معلومات المستخدمين، مما يطرح مخاطر مثل سرقة الهوية، والاحتيال المالي، والاحتيالات المستهدفة.
لحماية منظمتك من عمليات احتيال الذكاء الاصطناعي المتزايدة، يمكن تنفيذ عدة تدابير استباقية، منها:
يجب تنفيذ أنظمة مراقبة قوية ومستدامة، حيث تمكّن التنبيهات الداخلية عن الأنشطة غير العادية، مثل المعاملات المالية الكبيرة أو أنماط الدفع غير المنتظمة، من الكشف المبكر عن السلوك المشبوه.
يجب فرض تدابير أمان صارمة من خلال استخدام الشبكات والأجهزة المقيدة، بالإضافة إلى التحقق متعدد العوامل لمنع الوصول غير المصرح به إلى المعلومات الحساسة، إذ تعتبر المراقبة المنتظمة للشبكات والأنظمة بحثًا عن الحالات الشاذة، مثل تسجيلات الدخول غير المصرح بها أو عمليات نقل البيانات غير العادية، أمرًا ضروريا للحفاظ على أمان المؤسسة.
ينبغي إعطاء الأولوية لتعليم وتدريب الموظفين لتعزيز الوعي والاستجابة للعمليات الاحتيالية المحتملة، خاصة محاولات التصيد، إضافة إلى تجهيز الموظفين باستراتيجيات للتعامل بأمان مع البيانات الحساسة هو أمر أساسي، حيث تمكن المعرفة بالذكاء الاصطناعي ودوره في تكتيكات الاحتيال الموظفين لتحديد السلوك المشبوه والإبلاغ عنه على الفور.
تتيح الحلول المدعومة بالذكاء الاصطناعي من منصة فوكال رصد الحالات الشاذة في حركة مرور الشبكة وسلوك المستخدم بسرعة وكفاءة، مما يعزز من سرعة الاستجابة ويُسهم في الحد من الأضرار المحتملة.
يبقى السؤال: هل ChatGPT آمن من المتسللين؟ تم تصميم ChatGPT ليكون آمنًا من التهديدات الأمنية، بما في ذلك محاولات التسلل. تعتمد المنصة على بنية تحتية قوية من OpenAI، وتُطبق معايير عالية من الحماية، مثل تشفير البيانات، والمراقبة المستمرة، وتحديثات الأمان المنتظمة. مع ذلك، يُنصح المستخدمون بعدم مشاركة معلومات شخصية أو حساسة أثناء المحادثات، لأن الحماية الكاملة تبدأ أيضًا من وعي المستخدم.
لحماية أعمالك من احتيال ChatGPT، من الضروري تبني نهج استباقي وشامل، ويمكن تحقيق ذلك من خلال فهم تعقيدات احتيال ChatGPT وتنفيذ استراتيجيات وقائية فعالة تمكّن عملك من التخفيف من المخاطر المرتبطة بهذا التهديد الناشئ.