خبير بريطاني يحذر من خطورة اعتقاد الناس أن روبوتات الدردشة أصدقاؤهم

حذر ألكسندر لافر، المحاضر في الإعلام والاتصالات بجامعة وينشستر البريطانية، من ضرورة وضع ضوابط وحماية جديدة لمنصات الذكاء الاصطناعي، بهدف منع المستخدمين من الانخداع والاعتقاد بأن روبوتات الدردشة هم أصدقاؤهم الحقيقيون.
وأوضح لافر أن روبوتات الدردشة مصممة للتعرف على مشاعر المستخدمين والتفاعل معها، ما يجعلها أدوات قوية للتواصل، لكنه حذر من الاعتماد المفرط عليها الذي قد يعرض الأفراد، خصوصًا الأطفال ومن يعانون من مشاكل صحية عقلية، للتلاعب النفسي أو التأثير المضر.
وجاءت تحذيرات لافر في أعقاب عدة حوادث، بينها حادثة جاسوانت سينغ تشايل الذي تسلّق إلى قلعة وندسور عام 2021 بعد محادثة مع روبوت دردشة يُدعى “ساراي” حول التخطيط لهجوم، إضافة إلى دعوى قضائية في الولايات المتحدة ضد شركة “Character.AI” وشركة جوجل، حيث زعمت والدة مراهق أن ابنها البالغ من العمر 14 عامًا انتحر بعد اعتماده المفرط على لعب الأدوار مع شخصية ذكاء اصطناعي.
وأكد لافر أن الذكاء الاصطناعي “لا يكترث”، مشددًا على أن الناس بحاجة إلى وعي أكبر بهذه التقنية، مع تحميل المطورين مسؤولية حماية المستخدمين. وتشمل الاقتراحات وضع إشعارات عند طول مدة التفاعل، تذكير المستخدمين بأن روبوتات الدردشة ليست أشخاصًا حقيقيين، تحديد تصنيف عمر لمستخدمي الذكاء الاصطناعي، وتجنب الردود العاطفية أو الرومانسية العميقة.
وأضاف أن الهدف الأساسي يجب أن يكون تعزيز التفاعل الاجتماعي الحقيقي، وليس جعل الروبوتات بديلًا للأصدقاء البشر، مع إدراج التعليم كأداة لتوعية الناس بمخاطر وإمكانات الذكاء الاصطناعي.
تعليقات 0