ترسم مستويات المخاطر في بيئات الأعمال المدى الذي يمكن للبشر أن يذهبوا إليه في الاعتماد على الذكاء الاصطناعي، إذ ترى سارة أوكونر كاتبة العمود في صحيفة “فاينانشال تايمز”، أنه كلما زادت المخاطر في البيئة التي تنشر فيها أنظمة الذكاء الاصطناعي القوية، كلما ازداد الميل إلى الحل البديهي: أن يكون البشر هم من يتخذون القرارات النهائية.
ففي ميادين الحرب، تدور أغلب النقاشات العامة والتنظيمية – ومنها آخر خلاف بين شركة “أنثروبيك” والحكومة الأميركية – حول الفصل بين الأسلحة ذاتية التشغيل بالكامل وتلك التي تظل خاضعة ل”سيطرة بشرية”. وفي الشركات، لم يختلف المشهد كثيراً؛ إذ دفعت قدرات الوكلاء شبه المستقلين المؤسسات إلى الاستعانة بخبرات بشرية عليا للتوقيع على القرارات النهائية. شركة أمازون، على سبيل المثال، وبحسب التقارير تطلب من المهندسين المبتدئين والمتوسطين الحصول على موافقة مهندسين أكثر خبرة قبل اعتماد أي تغييرات مدعومة بالذكاء الاصطناعي.
لكن… هل يضمن ذلك حقاً معادلة مثالية تجمع بين سرعة ودقة الآلات من جهة، وخبرة وحسن تقدير البشر من جهة أخرى؟
منذ خمسينيات القرن الماضي، بدأ التفكير في توزيع المهام بين الإنسان والآلة. ففي عام 1951، وضع عالم النفس بول فيتز قائمة بالأشياء التي “يتفوق فيها الإنسان” وتلك التي “تتقنها الآلة”. ومع ذلك، يبدو أننا لم نتعلم ما يكفي من الأخطاء التي ارتكبناها خلال هذا الطريق الطويل.
تتمثل المشكلة الأولى في أن الذكاء الاصطناعي يعمل بسرعة تفوق سرعة البشر. ففي ساحة المعركة، على سبيل المثال، حتى الأنظمة التي تترك القرارات النهائية للبشر قادرة على معالجة كميات هائلة من البيانات وزيادة عدد الأهداف المحتملة بشكل كبير. ولكن عندما تختصر ما يسمى ب”سلاسل القتل” من ساعات إلى دقائق أو حتى ثوان، يصبح من الصعب التساؤل عن مقدار “السيطرة البشرية” الحقيقية في هذه اللحظة.
في الشركات، تتكرر الظاهرة بشكل مختلف. فالوكلاء الذكيون يضاعفون حجم العمل وسرعته، بينما يظل البشر مضطرين لمراجعته وتوجيهه. إحدى الدراسات التي امتدت لثمانية أشهر في شركة تكنولوجية أميركية وجدت أن الزيادة الكبيرة في الإنتاجية جاءت مصحوبة ب”إرهاق ذهني، وإنهاك، وضعف في جودة اتخاذ القرار”.
انحياز البشر للآلات
المشكلة التالية هي أن البشر، في كثير من الأحيان، يميلون للثقة بالآلة حتى عندما يطلب منهم الحذر. هذا ما يسمى ب”انحياز الأتمتة”، وقد ظهر مراراً في مواقف مختلفة: من سائقين اتبعوا تعليمات الGPS إلى داخل أنهار، إلى طلاب ساروا خلف روبوتات مبتدئة بعيداً عن مخارج النجاة خلال محاكاة لحريق.
وفي تجربة مثيرة لشركة فولفو، سمح نحو 30% من المشاركين لسيارة شبه ذاتية القيادة بالاصطدام بجسم كان واضحاً في الطريق.
مؤخراً، أطلق باحثان في “وارتون” مصطلح “الاستسلام الإدراكي” لوصف تلك اللحظة التي يتخلى فيها الشخص عن حكمه الخاص ويتبنى حكم الذكاء الاصطناعي بالكامل – وهو مصطلح، بالمناسبة، يصف بدقة ما يحدث لكثيرين بعد الساعة الثامنة مساءً!
ضبابية المسؤولية
تزداد الأمور تعقيداً عند البحث عن المسؤولية في حال وقوع خطأ. فمن الذي يلام؟ الإنسان الذي وقّع؟ أم النظام الذي وضعه في موقف يستحيل فيه ممارسة رقابة حقيقية؟
قد يجد البشر أنفسهم، كما تصف الباحثة مادلين كلير إيليش، في “منطقة الانهيار الأخلاقي” – أي الجزء المصمم لتحمل العبء الأخلاقي والقانوني عندما يفشل النظام المعقد، تماماً كما يمتص الجزء الأمامي للسيارة صدمة الاصطدام.
ورغم الصورة المعقدة، إلا أن الحلول ليست بعيدة. فمجال الطيران مثال بارز على كيفية التعايش بين الإنسان والآلة. بعد عقود من الاعتماد على أنظمة الطيار الآلي، توصلت شركات الطيران إلى أهمية تدريب الطيارين على فهم كيف تعمل الأتمتة وكيف تفشل، وتشجيعهم على التحكم اليدوي في بعض الرحلات للحفاظ على مهاراتهم.
يبدو للوهلة الأولى أن الإنسان هو صاحب الكلمة الفصل في هذه التقنيات الحديثة فائقة التطور. لكن تاريخ التفاعل بين الإنسان والآلة يظهر لنا أن تحقيق ذلك ليس بالأمر الهين. بل إن وهم السيطرة البشرية قد يكون أشد خطورة من غيابها الفعلي.


