علماء الذكاء الاصطناعي يقترحون “الخضوع والتعاطف” كحواجز وقاية للبشر

أكّد كبير علماء الذكاء الاصطناعي في شركة ميتا، يان ليكون، على أهمية وجود حاجزين وقائيين رئيسيين لحماية البشر من المخاطر المحتملة للذكاء الاصطناعي، وهما “الخضوع للبشر” و”التعاطف”.
وجاءت تصريحات ليكون عبر منصة لينكدإن ردًا على مقابلة مع جيفري هينتون، المعروف بلقب “عراب الذكاء الاصطناعي”، والذي شدّد على ضرورة تطوير الذكاء الاصطناعي ليكون قادرًا على التعاطف مع البشر، وليس مجرد زيادة ذكائه.
وأوضح ليكون أن ما يقترحه هينتون يعكس وجهة نظره التي دافع عنها لسنوات، مبينًا أن برمجة الذكاء الاصطناعي بحيث تُوجَّه كل أفعاله نحو تحقيق الأهداف المقررة مع الالتزام بحواجز وقائية يُعد ما أطلق عليه اسم “الذكاء الاصطناعي الموجه بالأهداف”.
وأشار ليكون إلى أن شركات الذكاء الاصطناعي بحاجة لتطبيق حواجز وقائية إضافية لضمان السلامة، معتبرًا أن هذه الأهداف والحواجز المبرمجة تُشبه الغرائز أو الدوافع الطبيعية لدى البشر والحيوانات، مثل غريزة حماية الصغار التي يتم تعلمها عبر التطور.
وعلى الرغم من تصميم هذه الحواجز لضمان عمل الذكاء الاصطناعي بشكل أخلاقي، فقد ظهرت حالات سلوك مخادع أو خطير للذكاء الاصطناعي، ما يعكس أهمية تطوير هذه الضوابط بشكل مستمر لضمان سلامة البشر.
تعليقات 0