OpenAI تكشف عن أدوات رقابة أبوية جديدة لمستخدمي ChatGPT

خاص
محور بلس
في خطوة تعكس تصاعد الاهتمام العالمي بأمان المراهقين على الإنترنت، أعلنت شركة OpenAI المطوِّرة لروبوت الذكاء الاصطناعي ChatGPT عن نيتها إطلاق أدوات رقابة أبوية متقدمة خلال الشهر المقبل، تمنح الآباء قدرة أكبر على التحكم في كيفية استخدام أبنائهم للروبوت التفاعلي.
ووفقاً لبيان الشركة، ستتيح المزايا الجديدة ربط حسابات الآباء بأبنائهم، مع إمكانية التحكم في طريقة استجابات ChatGPT، إضافةً إلى تعطيل بعض الخصائص الحساسة مثل الذاكرة وسجل المحادثات.
الأداة الأبرز في النظام الجديد هي التنبيهات الذكية، التي ستُرسل إشعارات تلقائية للآباء في حال اكتشف الذكاء الاصطناعي مؤشرات على مرور المراهق بـ “حالة ضيق حاد”. وأوضحت الشركة أن هذه الميزة طُوّرت بمساهمة خبراء في الصحة النفسية لتعزيز الثقة بين الطرفين.
خلفية حساسة
الإعلان جاء بعد أسابيع من رفع أول دعوى قضائية ضد OpenAI تتعلق بوفاة مراهق، حيث اتهم والداه روبوت ChatGPT بتقديم إرشادات ساعدته في التخطيط للانتحار. القضية أعادت إلى الواجهة النقاش حول مسؤولية الذكاء الاصطناعي في حماية الفئات الأكثر هشاشة.
جهود أوسع للأمان
OpenAI أكدت أن الرقابة الأبوية ليست سوى جزء من حزمة أكبر من التحديثات الأمنية، تشمل نظام توجيه لحظي للمحادثات الحساسة باستخدام تقنيات متقدمة في الاستدلال، أطلقت عليها اسم “المواءمة التداولية”، التي أظهرت التزاماً أكبر بمعايير الأمان الشخصي.
كما كشفت الشركة عن خطط لإطلاق أدوات حماية إضافية خلال هذا العام، في ظل الانتقادات المستمرة لمخاطر انفتاح المستخدمين على محادثات حميمة مع الروبوتات التفاعلية.
ردود فعل متباينة
لاقى الإعلان ترحيباً واسعاً من الآباء الذين اعتبروا الخطوة وسيلة تمنحهم راحة أكبر في السماح لأبنائهم باستخدام أدوات الذكاء الاصطناعي.
لكن خبراء الأمن الرقمي حذّروا من أن هذه الأدوات قد تكون غير كافية بمفردها لمواجهة المخاطر الرقمية المتزايدة.
سياق عالمي
تأتي هذه الخطوة في وقت تواجه فيه شركات الذكاء الاصطناعي ضغوطًا تنظيمية متصاعدة حول العالم، تطالب بفرض معايير أكثر صرامة لحماية المراهقين والقُصَّر، وسط توسع الاعتماد على هذه التقنيات في الحياة اليومية.