تواجه النماذج المتقدمة من الذكاء الاصطناعي التوليدي تحديات تتعلق بتقديم معلومات قد تكون غير دقيقة أو توجيه نصائح غير ملائمة، مما قد يؤدي إلى إرباك المستخدمين وخروج المحادثات عن المسار المطلوب.
وقد أثار هذا النوع من الإشكاليات اهتمامًا متزايدًا لدى المتخصصين في المجال، ليصبح محورًا أساسيًا في نقاشات تتعلق بأمن وسلامة تقنيات الذكاء الاصطناعي. وفي هذا الإطار، تواصل شركات مثل OpenAI جهودها لمعالجة هذه التحديات، من خلال تطوير نماذج أكثر موثوقية مثل o3 وo4-mini.
وفي تقرير السلامة الصادر عن OpenAI، تم تسليط الضوء على نظام جديد يهدف إلى مراقبة المحتوى الناتج عن هذه النماذج، مع تركيز خاص على رصد الاستفسارات التي قد تتعلق بمخاطر كيميائية أو بيولوجية محتملة.
وأشارت OpenAI في وثيقة مخصصة لنموذجي o3 وo4-mini إلى أنها قامت بإدراج تقنيات متقدمة لرصد هذه النوعية من المخاطر، بالاعتماد على نظام منطقي يهتم بجوانب الأمان، شبيه بالنظام المستخدم للحد من الاستجابات غير الملائمة في نماذج توليد الصور مثل GPT-4o، حيث يتم حجب الردود التي تُعتبر مؤذية أو خطيرة تلقائيًا.
ويعمل نظام المراقبة هذا بالتوازي مع النماذج المعنية، وقد تم تصميم o3 وo4-mini ليقدّما أداءً أكثر دقة وموثوقية مقارنة بالإصدارات السابقة، مما يعزز من الالتزام الأخلاقي والمسؤولية عند استخدام هذه الأدوات.
وتوضح معايير OpenAI أن نموذج o3 يتمتع بقدرات خاصة في التعامل مع الأسئلة المرتبطة بالتهديدات البيولوجية، وهنا يظهر دور "مراقب الاستدلال"، الذي صُمم للتركيز على الجوانب الأمنية في هذا النوع من المحتوى.
ويتدخل هذا النظام تلقائيًا عند رصد استفسارات تتعلق بالحروب البيولوجية أو الكيميائية، ليحول دون توليد إجابات تتعارض مع سياسات OpenAI الأمنية.
ووفقًا لما نشرته الشركة، فإن نظام مراقبة السلامة أسهم في منع الاستجابة للطلبات الخطرة بنسبة وصلت إلى 98.7%.
كما قامت OpenAI باتخاذ خطوات احترازية إضافية لتقليل المخاطر، منها تصفية البيانات المستخدمة في مرحلة التدريب، إلى جانب تحسينات لاحقة تهدف إلى تعزيز قدرة النماذج على التعرف على الطلبات ذات الطابع الخطير وتجنبها، مع الحفاظ على تقديم إجابات دقيقة وآمنة عندما يتعلق الأمر بالطلبات المشروعة.