يشعر العلماء بالقلق إزاء الخداع والتلاعب بواسطة الذكاء الاصطناعي





تم تحديث هذه المقالة آخر مرة في مايو 15, 2024

يشعر العلماء بالقلق إزاء الخداع والتلاعب بواسطة الذكاء الاصطناعي

deception

يشعر العلماء بالقلق إزاء الخداع والتلاعب بواسطة الذكاء الاصطناعي

الذكاء الاصطناعي الذي يخدع أثناء لعبة الورق لخداع الخصم. روبوت دردشة يتظاهر بأنه لديه موعد مع صديق لتجنب موعد آخر. وحتى نظام الذكاء الاصطناعي الذي “يتظاهر بالموت” لتجنب اكتشافه أثناء التفتيش. الذكاء الاصطناعي يضلل ويتلاعب، هذا ما توصل إليه العلماء في دراسة جديدة.

ليس أقلها أن الذكاء الاصطناعي يظهر هذا السلوك. يتصرف شيشرون من شركة ميتا، الشركة الأم لفيسبوك، بشكل مضلل وغير أمين أثناء ممارسة لعبة الدبلوماسية. هذا على الرغم من أن المبدعين قد أصدروا تعليماتهم للذكاء الاصطناعي بأن يكون “صادقًا ومفيدًا على نطاق واسع”، وألا “يتعمد الخداع” أبدًا. كما أظهرت شركة AlphaStar من DeepMind، التي استحوذت عليها Google، سلوكًا مشابهًا.

من المحتمل أن ينشأ هذا النوع من السلوك إذا كان الخداع هو أفضل طريقة لنظام الذكاء الاصطناعي لأداء جيد في التدريب، ويعتقد الباحثون أن تضليل المستخدمين يساعد الأنظمة على تحقيق أهدافها. وجمع العلماء في دراستهم دراسات سابقة ركزت على انتشار المعلومات الكاذبة عن طريق الذكاء الاصطناعي. وينشرون نتائجهم في المجلة أنماط.

لا توجد ألعاب بريئة

يحدث السلوك المضلل لأنظمة الذكاء الاصطناعي بشكل أساسي أثناء ممارسة الألعاب، مما قد يجعلها تبدو بريئة وغير ضارة. ولكن وفقًا للباحثين، فإن الأمر أبعد ما يكون عن البراءة: “قد يؤدي هذا إلى اختراقات في الذكاء الاصطناعي في المستقبل، والتي يمكن أن تتحول إلى أشكال متقدمة من الخداع”، كما يقول الباحث الرئيسي بيتر بارك من الجامعة التقنية الأمريكية في معهد ماساتشوستس للتكنولوجيا في بيان صحفي مصاحب. .

وقال عالم الكمبيوتر رومان يامبولسكي من جامعة لويزفيل، الذي لم يشارك في البحث: “إن أنظمة الذكاء الاصطناعي التي تتعلم الخداع والتلاعب هي بالتأكيد مصدر قلق”. ووفقا له، تكشف الدراسة عن مشكلة أساسية تتعلق بسلامة الذكاء الاصطناعي: “لا ينبغي أن يتوافق تحسين الأنظمة مع التفضيلات البشرية”.

يشعر يامبولسكي، مثل بارك، بالقلق إزاء اللحظة التي سيتم فيها استخدام هذه الأنواع من الاستراتيجيات ليس فقط في الألعاب، ولكن أيضًا في العالم الحقيقي. “قد يؤدي هذا إلى تلاعب وخداع ضار في الساحة السياسية أو في المفاوضات الاقتصادية أو في التفاعلات الشخصية.”

يؤكد عالم الكمبيوتر ستيوارت راسل من جامعة كاليفورنيا على عتامة هذه الأنواع من أنظمة الذكاء الاصطناعي. “ليس لدينا أي فكرة عن كيفية عملهم. وحتى لو فعلنا ذلك، فلن نتمكن من إثبات أنهم آمنون – ببساطة لأنهم ليسوا كذلك”.

ومن وجهة نظره، يظهر الخداع مرة أخرى أنه يجب فرض متطلبات صارمة على الذكاء الاصطناعي ليكون آمنًا وعادلاً. “والأمر متروك للمطورين لتصميم الأنظمة التي تلبي هذه المتطلبات.”

ليس النية

لكن هل الأنظمة مضللة حقاً؟ لا يعتقد بيم هاسيلاغر، أستاذ الذكاء الاصطناعي في معهد نيميغن دوندرز، ذلك. “أنت تخدع بنية. هذه الأنظمة هي ببساطة أدوات تنفذ الأوامر. ليس لديهم أي نية للخداع.”

يوافق يامبولسكي على ذلك قائلاً: “إن أنظمة الذكاء الاصطناعي ليس لديها رغبات أو وعي. ومن الأفضل أن ننظر إلى أفعالهم على أنها نتائج لكيفية برمجتهم وتدريبهم.

من ناحية أخرى، وفقًا لستيوارت راسل، لا يهم كثيرًا ما إذا كان النظام ينوي الخداع بالفعل. “إذا كان النظام يفكر فيما سيقوله، مع الأخذ في الاعتبار التأثير على المستمع، والفائدة التي يمكن أن تأتي من تقديم معلومات كاذبة، فمن الأفضل أن نقول إنه منخرط في الخداع”.

لكن على الرغم من هذا الاختلاف الفلسفي في الرأي، فإن السادة متفقون على المخاطر. يقول هاسيلاجر: “ستحدث العديد من الأخطاء و”الخداع” من جانب الذكاء الاصطناعي في المستقبل القريب”. “وحتى الآن. ومن الجيد أن تكون على علم بذلك، لأن التحذير المسبق يحسب لشخصين.

ويستخدم يامبولسكي لغة أقوى: “في مجال الأمن السيبراني نقول “ثق وتحقق”. في مجال أمن الذكاء الاصطناعي نقول: “لا تثق أبدًا”.

الخداع والتلاعب والذكاء الاصطناعي

شارك مع الاصدقاء





قم بكتابة اول تعليق

Leave a Reply

لن يتم نشر بريدك الالكتروني في اللعن


*