«ميتا» تعزز أمان المراهقين بأدوات إشراف على محادثات الذكاء الاصطناعي

ميتا

في خطوة جديدة لتعزيز أمان المستخدمين صغار السن، كشفت ميتا الأمريكية عن أدوات رقابة أبوية مبتكرة تتيح لأولياء الأمور متابعة تفاعل أبنائهم المراهقين مع تطبيقات الذكاء الاصطناعي. وسط تزايد المخاوف من الاعتماد المفرط على هذه التقنيات في الدراسة والتواصل.

ورغم الفوائد الكبيرة التي يقدمها الذكاء الاصطناعي. فإن استخدامه من قبل الأطفال والمراهقين قد يحمل بعض المخاطر. خصوصًا في ظل عدم نضجهم الكافي لفهم حدوده، وهو ما دفع الشركة لتطوير أدوات إشراف جديدة توازن بين الحماية والخصوصية.

كيف تعمل الأدوات الجديدة؟

تتضمن التحديثات إضافة تبويب جديد باسم “إحصاءات”. يتيح للآباء الاطلاع على نوعية الأسئلة والموضوعات التي يناقشها أبناؤهم مع مساعد الذكاء الاصطناعي خلال آخر 7 أيام، دون الكشف عن تفاصيل المحادثات كاملة.

وتعرض الأداة فئات عامة مثل التعليم والترفيه ونمط الحياة والصحة. ما يمنح أولياء الأمور صورة شاملة عن طبيعة الاستخدام، مع الحفاظ على خصوصية المراهقين وعدم انتهاك مساحتهم الشخصية.

أماكن توفر الميزة

بدأت الميزة في الظهور داخل عدد من الأسواق. تشمل الولايات المتحدة والمملكة المتحدة وأستراليا وكندا والبرازيل. على أن يتم طرحها في الهند خلال الفترة المقبلة، تمهيدًا لإطلاق أوسع عالميًا.

كما أصبحت الأدوات متاحة عبر تطبيقات Facebook وMessenger وInstagram، ضمن منظومة متكاملة لمراقبة استخدام المراهقين.

ميتا

حماية إضافية للمحتوى الحساس

وتسعى ميتا من خلال هذه الخطوة إلى تعزيز سلامة المراهقين، إذ تعمل أنظمة الذكاء الاصطناعي لديها وفق معايير محتوى مشابهة لتصنيفات الأفلام لمن هم فوق 13 عامًا. ما يعني تقييد بعض الاستفسارات الحساسة.

كما يجري تطوير تنبيهات فورية تُخطر أولياء الأمور حال محاولة المراهقين الدخول في محادثات تتعلق بإيذاء النفس أو الانتحار، بما يتيح تدخلًا مبكرًا لحمايتهم.

دعم الحوار الأسري

ولم تقتصر التحديثات على المراقبة فقط، إذ تعاونت الشركة مع خبراء لتوفير أدوات تساعد أولياء الأمور على بدء حوارات مفتوحة مع أبنائهم حول استخدام الذكاء الاصطناعي. من خلال أسئلة موجهة تعزز الفهم المتبادل.

مجلس خبراء للذكاء الاصطناعي المسؤول

وفي إطار تطوير هذه الجهود، أعلنت ميتا تشكيل مجلس استشاري يضم متخصصين في الصحة النفسية وسلامة الشباب. إلى جانب خبراء في الذكاء الاصطناعي المسؤول، بهدف تقديم توصيات مستمرة لتحسين التجربة وجعلها أكثر أمانًا للمراهقين.

تأتي هذه الخطوة في وقت يشهد فيه العالم توسعًا غير مسبوق في استخدام تطبيقات الذكاء الاصطناعي، ما يفرض تحديات جديدة تتعلق بحماية الفئات العمرية الأصغر. ويضع الشركات التكنولوجية أمام مسؤوليات متزايدة، لضمان الاستخدام الآمن لهذه التقنيات.

الرابط المختصر :