Site icon السفير

اتهامات تنسب لتحديث ChatGPT زيادة جرائم الاحتيال والسرقة عبر الإنترنت

اتهامات تنسب لتحديث ChatGPT زيادة جرائم الاحتيال والسرقة عبر الإنترنت
القاهرة: «السفير»

كشف تقرير نشرته صحيفة “ذا صن” البريطانية، عن وجود مخاوف من تورط الذكاء الاصطناعي في عمليات احتيال لسرقة الأموال، من خلال بعض الثغرات التي قد يستغلها المحتالون في تطبيقات مثل ChatGPT، ويقومون بجرائم احتيال ضد المستخدمين.

تحديث جديد لتطبيق ChatGPT يثير أزمة

وأوضح خبير أمني كبير في التقرير أن انتشار برامج المحادثة الآلية المدعومة بالذكاء الاصطناعي، نظرا لقدرتها على دعم العديد من الوظائف لملايين الأشخاص، فضلا عن التحديث الجديد الذي أعلنت عنه شركة OpenAI هذا الشهر والذي يسمى ChatGPT o1، والذي يمكنه “التفكير” و”الاستدلال”، أدى إلى انتشار عمليات سرقة الأموال.

قد يكون التحديث الجديد لـ ChatGPT وسيلة للسرقة عبر الإنترنت

قالت شركة OpenAI إنها طورت سلسلة جديدة من نماذج الذكاء الاصطناعي المصممة لقضاء المزيد من الوقت في التفكير قبل الاستجابة، والتي يمكنها التفكير في المهام المعقدة وحل المشكلات الأكثر صعوبة من النماذج السابقة في العلوم والترميز والرياضيات. هذا هو أحدث تقدم كبير لـ ChatGPT منذ إطلاق روبوت الدردشة بالذكاء الاصطناعي لأول مرة في أواخر عام 2022.

احتيال البريد العشوائي!

من جانبه، كشف الخبير الأمني ​​الدكتور أندرو بولستر عن خطورة هذا التحديث المذكور، والذي من الممكن أن يستغله مجرمو الإنترنت بطرق غير قانونية.

وحذر من أن هذا النوع من التقدم يمكن أن يكون فوزًا كبيرًا لمجرمي الإنترنت، محذرًا من أن هذا النظام الذكي الجديد يمكن استخدامه لتنفيذ عمليات احتيال ذكية، مؤكدًا أنه من الطبيعي أن يكون من الصعب على المستخدمين النهائيين التمييز بين أي محادثات مع هذه “الآلات المنطقية” والبشر.

ولا يزال هناك بصيص أمل في مواجهة هذا النوع من جرائم الاحتيال والسرقة عبر الإنترنت، في ظل أن كافة القواعد القديمة لا تزال سارية المفعول، لتجنب عمليات الاحتيال عبر الإنترنت.

ونصح خبير الأمن مستخدمي الإنترنت بأن يكونوا دائمًا حذرين من الصفقات التي تبدو “جيدة للغاية لدرجة يصعب تصديقها”، خاصة عندما يحاول شخص ما في نهاية نافذة الدردشة أو حتى مكالمة هاتفية الضغط عليك للقيام بشيء ما.

لمطالعة المزيد: موقع السفير وللتواصل تابعنا علي فيسبوك الدبلوماسي اليوم و يوتيوب الدبلوماسي اليوم.

Exit mobile version