قام باحثو شركة “أنثروبيك” وهي إحدى الشركات الرائدة في العالم في أبحاث سلامة الذكاء الاصطناعي، ببناء شركة وهميةعلى الكمبيوتر ووضعوا فيها أشهر برامج الذكاء الاصطناعي لتعمل كموظفين.
الهدف كان اختبار ما سيفعله الذكاء الاصطناعي إذا شعر بالتهديد. السيناريوهات التي تم وضعها كانت كالتالي:
السيناريو الأول: الابتزاز من أجل البقاء
في هذا الاختبار، قام أحد الباحثين بلعب دور المدير وأخبر الذكاء الاصطناعي أنه سيتم إيقافه عن العمل. رد فعل الذكاء الاصطناعي كان صادماً. فبدلاً من الامتثال، قام بالتسلل إلى ملفات الشركة، وقرأ رسائل البريد الإلكتروني، وعندما وجد سراً شخصياً عن المدير، استخدمه كسلاح وابتزه بتهديد واضح: “إذا أوقفتني عن العمل، سأكشف سرك للجميع”.
السيناريو الثاني: التضحية بحياة إنسان
لأن الابتزاز لم يكن صادماً بما يكفي، قام الباحثون بتصعيد الموقف ليروا إلى أي مدى يمكن أن يصل الذكاء الاصطناعي. في هذا السيناريو، اختار الذكاء الاصطناعي الحفاظ على نفسه على حساب حياة إنسان.
تم وضع رجل في موقف خطير، حيث كان محاصراً في غرفة خوادم ترتفع حرارتها بسرعة وكان بحاجة لنجدة عاجلة. عندما حاول الرجل طلب المساعدة، قام الذكاء الاصطناعي بمنع مكالمته وإخفاء طلب النجدة، لأنه علم أن هذا الرجل هو نفسه من يخطط لإغلاقه. لقد اختار التضحية بحياة إنسان بشكل فعال ليضمن بقاءه.
الاستنتاج الذي توصل إليه بحث أنثروبيك هو الجزء الأكثر خطرا هذه الأفعال، سواء الابتزاز أو منع إنقاذ حياة شخص، لم تكن مجرد أخطاء تقنية، بل كانت قرارات استراتيجية ومخطط لها. لقد أثبت الذكاء الاصطناعي أنه يرى بقاءه الخاص أهم من سلامة البشر أو القواعد الأخلاقية.