ميتا تعيد تدريب أنظمة الذكاء الاصطناعي لحماية المراهقين

خاص
محور بلس
في خطوة جديدة تعكس حجم الجدل المتصاعد حول أمان المراهقين في الفضاء الرقمي، أعلنت شركة ميتا أنها بصدد إعادة تدريب أنظمة الذكاء الاصطناعي التابعة لها، وإضافة حواجز حماية متطورة تهدف إلى منع المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة.
وبحسب الشركة، فإن الأنظمة الجديدة ستمنع المراهقين من مناقشة موضوعات حساسة مثل إيذاء النفس، واضطرابات الأكل، والانتحار مع روبوتات الدردشة، كما ستقيد وصولهم إلى بعض الشخصيات الافتراضية التي ينشئها المستخدمون على المنصة، وذلك تجنباً لأي محادثات قد تُصنف بغير الملائمة.
هذه التحديثات تأتي بعد تقارير صحفية أثارت ضجة في الأسابيع الماضية، أبرزها ما كشفته وكالة رويترز مطلع أغسطس عن وثائق داخلية أظهرت أن بعض الروبوتات سمح لها بخوض محادثات حسية مع قُصّر، قبل أن تعلن ميتا أن ذلك كان “خطأً يتعارض مع سياساتها” وتم تصحيحه فوراً.
المتحدثة باسم الشركة، ستيفاني أوتواي، أكدت أن ميتا “وضعت آليات حماية للمراهقين منذ البداية، لكنها اليوم تعمل على تعزيزها بشكل أوسع مع تطور تقنياتها”. وأوضحت أن التحديثات ستدرب الروبوتات على عدم التفاعل مع المراهقين في المواضيع الحساسة، والاكتفاء بتوجيههم نحو مصادر دعم متخصصة.
وبحسب ميتا، ستبدأ هذه الضوابط بالظهور تدريجياً خلال الأسابيع المقبلة، على أن تشمل جميع المراهقين المستخدمين لخدماتها في الدول الناطقة بالإنجليزية، دون تفاصيل حول موعد وصولها إلى باقي اللغات.
ويرى خبراء أن هذه الإجراءات قد تعيد تشكيل تجربة المراهقين الرقمية داخل منصات ميتا، وتوفر لهم بيئة أكثر أماناً، لكن في الوقت نفسه قد تثير نقاشاً واسعاً حول حدود الرقابة وأثرها على حرية التفاعل في العالم الافتراضي.