انحياز للآلة

الانحياز للآلة أو التحيز الآلي أو تحيز الأتمتة[1] (بالإنجليزية: Automation bias)‏ هو ميل الإنسان لصالح الاقتراحات التي تقدمها أنظمة صنع القرار الآلية وتجاهل المعلومات الغير آلية المناقضة لهذا المقترح حتى لو كانت صحيحة. وقد تعرضت هذه المشكلة لمزيد من التدقيق حيث أن صنع القرار في سياقات حرجة، مثل وحدات العناية المركزة ومحطات الطاقة النووية وقمرة القيادة في الطائرات، أصبح يحتوي بشكل متزايد على أجهزة مراقبة حاسوبية وأجهزة ألكترونية مساعِدة على اتخاذ القرار. وعادة ما تحدث أخطاء الانحياز الآلي عندما ينطوي اتخاذ القرار على درجة كبيرة من الاعتماد على الحواسيب أو الوسائل الآلية الأخرى، ويقتصر العنصر البشري إلى حد بعيد على مراقبة المهام الجارية. ويمكن أن تشمل الأمثلة في مثل هذه الحالات ليس فقط المسائل الملحة مثل الطيران بالطيار الآلي ولكن أيضا في أمر بسيطة مثل استخدام برامج التدقيق الإملائي.

ويعرف الميل نحو الإفراط في الاعتماد على المساعدات الآلية باسم «اسائة الاستخدام الآلي».

عدم الاستخدام وسوء الاستخدام

عدل

يمكن أن تؤدي ثقة المشغل في النظام أيضًا إلى تفاعلات مختلفة مع النظام، بما في ذلك استخدام النظام وإساءة الاستخدام وعدم الاستخدام.[2]

يُعرف الميل نحو الإفراط في الاعتماد على المساعدات الآلية باسم «إساءة استخدام الأتمتة».[3][4] يمكن ملاحظة سوء استخدام الأتمتة عندما يفشل المستخدم في مراقبة النظام الآلي بشكل صحيح، أو عند استخدام النظام الآلي عند عدم وجوب استخدامه. هذا على عكس الإهمال، حيث لا يستخدم المستخدم الأتمتة بشكل صحيح إما عن طريق إيقاف تشغيلها أو تجاهلها. يمكن أن يكون كل من سوء الاستخدام وعدم الاستخدام مشكلة، لكن تحيز الأتمتة مرتبط بشكل مباشر بإساءة استخدام الأتمتة إما من خلال الكثير من الثقة في قدرات النظام، أو إهمال استخدام الاستدلالات. يمكن أن يؤدي سوء الاستخدام إلى عدم مراقبة النظام الآلي أو الاتفاق الأعمى مع اقتراح الأتمتة، تصنف الأخطاء إلى نوعين، أخطاء الإغفال وأخطاء ارتكابية، على التوالي.[5][6][3]

يمكن أن يؤثر استخدام الأتمتة وعدم استخدامها على مراحل معالجة المعلومات: الحصول على المعلومات وتحليل المعلومات واتخاذ القرارات واختيار الإجراءات وتطبيق الإجراء.[7]

على سبيل المثال، اكتساب المعلومات، الخطوة الأولى في معالجة المعلومات، هي العملية التي يسجل بها المستخدم المدخلات عبر الحواس.[8] قد يساعد مقياس المحرك الآلي المستخدم في الحصول على المعلومات من خلال ميزات واجهة استخدتم بسيطة - مثل تسليط الضوء على التغييرات في أداء المحرك - وبالتالي توجيه الانتباه الانتقائي للمستخدم. عند مواجهة مشكلات من طائرة، قد يميل الطيارون إلى الوثوق بمقاييس محرك الطائرة، متجاهلين الأعطال المحتملة الأخرى غير المتعلقة بالمحرك. هذا الموقف هو شكل من أشكال أتمتة الرضا عن النفس وسوء الاستخدام. ومع ذلك، إذا كان الطيار يخصص وقتًا لتفسير مقياس المحرك، والتعامل مع الطائرة وفقًا لذلك، فقط لاكتشاف أن اضطراب الطيران لم يتغير، فقد يميل الطيار إلى تجاهل توصيات الخطأ المستقبلية التي ينقلها مقياس المحرك — شكل من أشكال بالرضا عن الأتمتة مما يؤدي إلى عدم استخدامها.

أخطاء الاغفال والأخطاء الارتكابية

عدل

يمكن أن يتخذ التحيز التلقائي شكل أخطاء ارتكابية، التي تحدث عندما يتبع المستخدمون توجيهًا تلقائيًا دون مراعاة مصادر المعلومات الأخرى. على العكس من ذلك، تحدث أخطاء الإغفال عندما تفشل الأجهزة الآلية في الاكتشاف أو الإشارة إلى المشاكل ولا يلاحظ المستخدم أنها لا تراقب النظام بشكل صحيح.[8] ثبت أن أخطاء الإغفال ناتجة عن انخفاض اليقظة المعرفية، في حين تنجم أخطاء الارتكاب عن مزيج من الفشل في أخذ المعلومات في نظر الاعتبار والثقة المفرطة في موثوقية الوسائل الآلية.[9] تحدث أخطاء الارتكاب لثلاثة أسباب: (1) إعادة توجيه الانتباه العلني بعيدًا عن المساعدة الآلية؛ (2) تقلص الاهتمام بالمساعدة؛ (3) التخفيض النشط للمعلومات التي تعارض توصيات المساعدة.[10] تحدث أخطاء السهو عندما يفشل صانع القرار البشري في ملاحظة فشل التشغيل الآلي، إما بسبب اليقظة المنخفضة أو الانهيار الزائد في النظام. على سبيل المثال، فإن برنامج التدقيق الإملائي الذي يميز كلمة بشكل خاطئ على أنها كلمة بها أخطاء إملائية وأن اقتراح بديل سيكون خطًأ ارتكابيًا، وبرنامج التحقق من التدقيق الإملائي الذي فشل في ملاحظة كلمة بها أخطاء إملائية سيكون خطأ في الإهمال. في هذه الحالات، يمكن ملاحظة تحيز الأتمتة من قبل مستخدم يقبل الكلمة البديلة دون الرجوع إلى قاموس، أو مستخدم لا يلاحظ الكلمة التي بها أخطاء إملائية بشكل خاطئ ويفترض أن جميع الكلمات صحيحة دون مراجعة الكلمات.

تبين أن التدريب الذي ركز على الحد من تحيز الأتمتة والمشاكل ذات الصلة يؤدي إلى خفض معدل أخطاء الارتكاب، ولكن ليس من أخطاء الإغفال.[10]

العوامل

عدل

إن وجود الوسائل الآلية، كما يقول أحد المصادر، «يقلل من احتمالية قيام صناع القرار ببذل الجهد المعرفي للبحث عن معلومات تشخيصية أخرى أو معالجة جميع المعلومات المتاحة بطرق معقدة إدراكياً». كما أنه يجعل المستخدمين أكثر عرضة للانتهاء من تقييمهم للموقف على عجل للغاية بعد أن يتم تلقينهم بالمساعدة التلقائية لاتخاذ إجراءات محددة.[4]

وفقًا لمصدر واحد، هناك ثلاثة عوامل رئيسية تؤدي إلى تحيز الأتمتة. أولاً، الميل البشري إلى اختيار النهج الادراكي الأقل لصنع القرار، والذي يسمى فرضية البخيل المعرفي. ثانياً، ميل البشر إلى رؤية المساعدات الآلية على أنها تتمتع بقدرة تحليلية تفوق قدراتهم. ثالثًا، ميل البشر إلى تقليل جهدهم عند مشاركة المهام، إما مع شخص آخر أو بمساعدة آلية.[9]

تشمل العوامل الأخرى التي تؤدي إلى الاعتماد المفرط على الأتمتة وبالتالي إلى تحيز الأتمتة قلة الخبرة في المهمة (على الرغم من أن المستخدمين عديمي الخبرة يميلون إلى أن يستفيدوا أكثر من أنظمة دعم القرار الآلية)، ونقص الثقة في قدرات الفرد، وعدم وجود بديل متاح للمعلومات أو الرغبة في توفير الوقت والجهد في المهام المعقدة أو أعباء العمل المرتفعة.[11][12][13][5] لقد ثبت أن الأشخاص الذين لديهم ثقة أكبر في قدراتهم على اتخاذ القرارات يميلون إلى أن يكونوا أقل اعتمادًا على الدعم الآلي الخارجي، بينما كان أولئك الذين لديهم ثقة أكبر في أنظمة دعم اتخاذ القرار (DSS) أكثر اعتمادًا عليها.[14]

تصميم الشاشة

عدل

وجدت إحدى الدراسات، التي نشرت في مجلة الجمعية الأمريكية للمعلوماتية الطبية، أن موقف النصائح وأهميتها على الشاشة يمكن أن يؤثر على احتمال التحيز في الأتمتة، حيث من المحتمل اتباع النصائح التي تظهر بشكل بارز، سواء كانت صحيحة أم لا، دراسة أخرى، ومع ذلك، يبدو أنها تقلل من أهمية هذا العامل.[14] وفقًا لدراسة أخرى، فإن وجود قدر أكبر من التفاصيل التي تظهر على الشاشة يمكن أن يجعل المستخدمين أقل «محافظة» وبالتالي يزيد من احتمال تحيز الأتمتة.[14] أظهرت إحدى الدراسات أن جعل الأفراد مسؤولين عن أدائهم أو دقة قراراتهم قلل من تحيز الأتمتة.[10]

التوفر

عدل

تقول إحدى الدراسات التي أجرتها ليندا سكيتكا: «توفُر الوسائل الآلية للقرارات، يمكن أحيانًا أن يغذي الميل البشري العام إلى السير في الطريق الأقل من ناحية الجهد الادراكي.»[10]

الوعي بالعملية

عدل

وجدت إحدى الدراسات أيضًا أنه عندما يتم اطلاع المستخدمين على عملية الاستدلال المستخدمة في نظام دعم القرار، فمن المحتمل أن يقوموا بضبط اعتمادهم وفقًا لذلك، وبالتالي تقليل انحياز الأتمتة.[14]

الفريق مقابل الفرد

عدل

أداء الوظائف من قِبل الطواقم بدلاً من الأفراد الذين يعملون بمفردهم لا يلغي بالضرورة تحيز الأتمتة.[15][16] أظهرت إحدى الدراسات أنه عندما فشلت الأجهزة الآلية في اكتشاف مخالفات النظام، لم تكن الفرق أكثر نجاحًا من الأفراد في الاستجابة لهذه المخالفات.[10]

تدريب

عدل

نجح التدريب الذي يركز على تحيز الأتمتة في مجال الطيران في الحد من أخطاء الإغفال من قبل الطيارين الطلاب.[15][16]

فشل الأتمتة و «الإهمال المكتسب بالتعليم»

عدل

لقد ثبت أن فشل الأتمتة يتبعه انخفاض في ثقة المشغل، والذي ينجح بدوره في التعافي البطيء للثقة. تم وصف انخفاض الثقة بعد فشل التشغيل الآلي الأولي بأنه تأثير الفشل الأول.[9] وعلى نفس المنوال، إذا أثبتت المساعدات الآلية موثوقية عالية مع مرور الوقت، فمن المحتمل أن تكون النتيجة مستوى مرتفع من تحيز الأتمتة. وهذا ما يسمى «الإهمال المكتسب بالتعليم».

توفير معلومات ثقة النظام

عدل

في الحالات التي يتم فيها توفير معلومات ثقة النظام للمستخدمين، يمكن أن تصبح هذه المعلومات نفسها عاملاً في تحيز الأتمتة.

الضغوط الخارجية

عدل

أظهرت الدراسات أنه كلما تم ممارسة المزيد من الضغوط الخارجية على القدرة المعرفية للفرد، زاد اعتماده على الدعم الخارجي.[14]

مشاكل التعريف

عدل

على الرغم من أن تحيز الأتمتة كان موضوع العديد من الدراسات، لا تزال هناك شكاوى من أنه لا يزال غير محدد وأن الإبلاغ عن الحوادث التي تنطوي على تحيز الأتمتة غير منهجي.[14][5]

قام تصنيف لدراسات تحيز الأتمتة المختلفة بتصنيف الأنواع المختلفة من المهام التي استخدمت فيها الوسائل الآلية بالإضافة إلى الوظيفة التي قدمتها المساعدات الآلية. تم تصنيف المهام التي استخدمت فيها المساعدات الآلية على أنها مهام مراقبة أو مهام تشخيصية أو مهام علاجية. أدرجت أنواع المساعدة التلقائية باسم أتمتة التنبيه، والتي تتعقب التغييرات المهمة وتنبه المستخدم، أو أتمتة دعم اتخاذ القرار، والتي قد توفر تشخيصًا أو توصية، أو التنفيذ التلقائي، حيث تؤدي المساعدات الآلية مهمة محددة.[5] تعميم آثار التحيز الآلي قد يقوض تطوير حلول محددة وفعالة.

المراجع

عدل
  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 44، QID:Q111421033
  2. ^ Parasuraman، Raja؛ Riley، V (1997). "Humans and automation: Use, misuse, disuse, abuse". Human Factors. ج. 39 ع. 2.
  3. ^ ا ب Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human factors, 39(2), 230-253.
  4. ^ ا ب Mosier، Kathleen؛ Skitka، Linda؛ Heers، Susan؛ Burdick، Mark (فبراير 1997). "Automation Bias: Decision Making and Performance in High-Tech Cockpits". International Journal of Aviation Psychology. ج. 8 ع. 1: 47–63. DOI:10.1207/s15327108ijap0801_3. PMID:11540946. مؤرشف من الأصل في 2019-12-13. اطلع عليه بتاريخ 2017-01-17.
  5. ^ ا ب ج د Lyell، David؛ Coiera، Enrico (أغسطس 2016). "Automation bias and verification complexity: a systematic review". Journal of the American Medical Informatics Association. ج. 24 ع. 2: 424–431. DOI:10.1093/jamia/ocw105. PMID:27516495. مؤرشف من الأصل في 2020-04-27.
  6. ^ Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. science, 185(4157), 1124-1131.
  7. ^ Wickens؛ Hollands؛ Banbury؛ Parasuraman (2015). Engineering psychology & human performance.
  8. ^ ا ب Wickens، Christopher؛ Hollands، Justin؛ Banbury، Simon؛ Parasuraman، Raja (2015). Engineering Psychology and Human Performance.
  9. ^ ا ب ج Parasuraman، Raja؛ Manzey، Dietrich (يونيو 2010). "Complacency and Bias in Human Use of Automation: An Attentional Integration". The Journal of the Human Factors and Ergonomics Society. ج. 52 ع. 3: 381–410. DOI:10.1177/0018720810376055. PMID:21077562. مؤرشف من الأصل في 2018-10-10. اطلع عليه بتاريخ 2017-01-17.
  10. ^ ا ب ج د ه Skitka، Linda. "Automation". University of Illinois. University of Illinois at Chicago. مؤرشف من الأصل في 2019-01-05. اطلع عليه بتاريخ 2017-01-16.
  11. ^ Goddard، K.؛ Roudsari، A.؛ Wyatt، J. C. (2012). "Automation bias: a systematic review of frequency, effect mediators, and mitigators". Journal of the American Medical Informatics Association. ج. 19 ع. 1: 121–127. DOI:10.1136/amiajnl-2011-000089. PMC:3240751. PMID:21685142.
  12. ^ Alberdi، Eugenio؛ Strigini، Lorenzo؛ Povyakalo، Andrey A.؛ Ayton، Peter (2009). "Why Are People's Decisions Sometimes Worse with Computer Support?" (PDF). Computer Safety, Reliability, and Security. Lecture Notes in Computer Science. Springer Berlin Heidelberg. ج. 5775. ص. 18–31. DOI:10.1007/978-3-642-04468-7_3. ISBN:978-3-642-04467-0.
  13. ^ Goddard، Kate؛ Roudsari، Abdul؛ Wyatt، Jeremy C. (2014). "Automation bias: Empirical results assessing influencing factors". International Journal of Medical Informatics. ج. 83 ع. 5: 368–375. DOI:10.1016/j.ijmedinf.2014.01.001. PMID:24581700.
  14. ^ ا ب ج د ه و Goddard، Kate؛ Roudsari، Abdul؛ Wyatt، Jeremy (16 يونيو 2011). "Automation bias: a systematic review of frequency, effect mediators, and mitigators". J Am Med Inform Association. ج. 19 ع. 1: 121–127. DOI:10.1136/amiajnl-2011-000089. PMC:3240751. PMID:21685142.
  15. ^ ا ب Mosier، Kathleen؛ Skitka، Linda؛ Dunbar، Melisa؛ McDonnell، Lori (13 نوفمبر 2009). "Aircrews and Automation Bias: The Advantages of Teamwork?". The International Journal of Aviation Psychology. ج. 11 ع. 1: 1–14. DOI:10.1207/S15327108IJAP1101_1.
  16. ^ ا ب Mosier, Kathleen L.; Dunbar, Melisa; McDonnell, Lori; Skitka, Linda J.; Burdick, Mark; Rosenblatt, Bonnie (1998). "Automation Bias and Errors: Are Teams Better than Individuals?". Proceedings of the Human Factors and Ergonomics Society Annual Meeting (بالإنجليزية). 42 (3): 201–205. DOI:10.1177/154193129804200304.
  NODES
Association 3
INTERN 3
Note 1