بعد تسريب بيانات أكثر من 100.000 حساب من مستخدمي روبوت الدردشة ChatGPT في الويب المظلم، قامت شركة OpenAI بالرد على هذا الحدث وتوقع حدوث تسريبات إضافية.
فقد صرح ممثل شركة أبحاث الذكاء الاصطناعي، التي تحظى بدعم قوي من شركة التكنولوجيا العملاقة Microsoft، لموقع Tom's Hardware التقني بأنهم يتبعون ممارسات أمان متوافقة مع معايير الصناعة، وأن التسريب هو نتيجة لبرامج ضارة توجد على أجهزة الأفراد وليس نتيجة لاختراق لشركة OpenAI.
وقال المتحدث الرسمي لشركة OpenAI: "نحن حالياً نقوم بفحص الحسابات التي تم الكشف عنها. وتلتزم OpenAI بأفضل ممارسات التحقق من هوية المستخدمين وتمكينهم من استخدام خدماتنا مثل ChatGPT. نشجع مستخدمينا على استخدام كلمات مرور قوية وتثبيت برامج معتمدة وموثوقة فقط على أجهزة الكمبيوتر الشخصية."
كما ذكرت شركة أمن المعلومات Group-IB هذا الأسبوع أن برامج ضارة مصممة لسرقة المعلومات قد قامت بسرقة أكثر من 101.000 حساب لمستخدمي روبوت الدردشة ChatGPT خلال العام الماضي.
وذكرت الشركة أنها قد حددت أكثر من 100.000 سجل لمجرمي الاختراق في مواقع مختلفة على الويب الغامض، والتي تحتوي على حسابات ChatGPT. ووصلت الذروة في مايو 2023، حيث قام ممثلو التهديد بنشر 26.800 زوج جديد من بيانات الاعتماد أي اسم المستخدم وكلمة المرور الخاصة بروبوت ChatGPT.
وتُذكر فئة سارقي المعلومات بكونها برامج ضارة تستهدف بيانات الحساب المخزنة في تطبيقات مختلفة، مثل خدمات البريد الإلكتروني ومتصفحات الويب وخدمات التراسل الفوري وخدمات الألعاب ومحافظ العملات المشفرة وغيرها.
ونظرًا لإمكانية تخزين المحادثات في ChatGPT، فإن الوصول إلى حساب الفرد يمكن أن يؤدي إلى الحصول على نظرة شاملة على المعلومات الشخصية، واستراتيجيات العمل الداخلية، والاتصالات الشخصية، والأكواد البرمجية.
ونظرًا لهذه المخاوف، قررت شركات التكنولوجيا العملاقة، مثل Samsung، أنه يجب على موظفيها عدم استخدام ChatGPT على أجهزة الكمبيوتر الخاصة بالعمل، ووعدت باتخاذ إجراءات قاسية تصل حد الفصل لأولئك الذين يرفضون الامتثال لهذه السياسة.