نویسندگان | صمد رحیمیاقدم - پدرام صالحپور - رقیه نامور |
---|---|
نشریه | اخلاق در علوم و فناوری |
شماره صفحات | ۱۴۲-۱۴۹ |
شماره سریال | ۴ |
شماره مجلد | ۱۹ |
نوع مقاله | Full Paper |
تاریخ انتشار | ۱۴۰۳ |
رتبه نشریه | علمی - پژوهشی |
نوع نشریه | الکترونیکی |
کشور محل چاپ | ایران |
نمایه نشریه | ISC |
چکیده مقاله
زمینه: مطالعات اخیر نشان دادهاند سازمانها علیرغم سرمایهگذاریِ زمان، تلاش و منابع، هنوز ملاحظات اخلاقی لازم را در مواجهه با اتخاذ هوشمصنوعی در مدیریت منابع انسانی، پیشبینی نکردهاند. این پژوهش قصد دارد چالشهای اخلاقی بهکارگیری هوشمصنوعی برای مدیریت انسانها را شناسایی و بررسی کند.
روش: برای انجام پژوهش از روش دلفی استفاده شدهاست. جامعه آماری پژوهش را صاحبنظران دانشگاهی، صنعتی و توسعهدهندگان هوشمصنوعی و مدیران و مشاوران کسبوکارهای استعمالکننده از هوشمصنوعی تشکیل میدهند که تعداد نمونه به 22 نفر رسید. نمونهگیری بهصورت غیراحتمالی و هدفمند بوده و برای شناسایی متخصّصانِ برجسته از شیوه گلولهبرفی استفادهشد. ابزار گردآوری اطلاعات مصاحبههای عمیق نیمهساختاریافته بودهاست. تجزیهوتحلیل اولیه دادهها، بهکمک نرمافزار MAXQDA صورت گرفت. در گام نهایی، از کدگذاریهای باز بهره بردهشد.
یافتهها: یافتههای پژوهش نشان میدهد که سازمانها در استفاده از تکنیکهای هوشمصنوعی و علمداده برای وظایف منابع انسانی با 6 تهدید اخلاقی مواجه میشوند: نقض عدالت سازمانی از طریق تصمیمات و ارزیابیهای آلوده به خطا و سوگیری در دادهها؛ نقض خودمدیریتی/خودراهبری، خودمختاری، عاملیت، استقلال و اختیار کارکنان؛ نادیده گرفتن کرامت انسانی؛ مبهم بودن فرایند تصمیمگیری دادهمحور؛ آثار نامطلوب روحی، روانی و اجتماعی؛ نقض حریم خصوصی و محافظت از دادهها.
نتیجه گیری: مطالعه حاضر با آشکارسازی و کاهش فرضیات اشتباه، به سازمانها کمک میکند تا با کسب آگاهی در مورد خطرات اجرای هوشمصنوعی در منابع انسانی، بهسادگی، منطق تحلیلی حوزههای دیگر را به مدیریت و کنترل کارمندان خود منتقل نکنند. لذا چارچوب بدستآمده به تحقیقات مدیریتی در تلاقی تجزیهوتحلیل کارکنان، هوشمصنوعی و بازتابهای اخلاقی مدیریت الگوریتمی انسانها کمک میکند.
روش: برای انجام پژوهش از روش دلفی استفاده شدهاست. جامعه آماری پژوهش را صاحبنظران دانشگاهی، صنعتی و توسعهدهندگان هوشمصنوعی و مدیران و مشاوران کسبوکارهای استعمالکننده از هوشمصنوعی تشکیل میدهند که تعداد نمونه به 22 نفر رسید. نمونهگیری بهصورت غیراحتمالی و هدفمند بوده و برای شناسایی متخصّصانِ برجسته از شیوه گلولهبرفی استفادهشد. ابزار گردآوری اطلاعات مصاحبههای عمیق نیمهساختاریافته بودهاست. تجزیهوتحلیل اولیه دادهها، بهکمک نرمافزار MAXQDA صورت گرفت. در گام نهایی، از کدگذاریهای باز بهره بردهشد.
یافتهها: یافتههای پژوهش نشان میدهد که سازمانها در استفاده از تکنیکهای هوشمصنوعی و علمداده برای وظایف منابع انسانی با 6 تهدید اخلاقی مواجه میشوند: نقض عدالت سازمانی از طریق تصمیمات و ارزیابیهای آلوده به خطا و سوگیری در دادهها؛ نقض خودمدیریتی/خودراهبری، خودمختاری، عاملیت، استقلال و اختیار کارکنان؛ نادیده گرفتن کرامت انسانی؛ مبهم بودن فرایند تصمیمگیری دادهمحور؛ آثار نامطلوب روحی، روانی و اجتماعی؛ نقض حریم خصوصی و محافظت از دادهها.
نتیجه گیری: مطالعه حاضر با آشکارسازی و کاهش فرضیات اشتباه، به سازمانها کمک میکند تا با کسب آگاهی در مورد خطرات اجرای هوشمصنوعی در منابع انسانی، بهسادگی، منطق تحلیلی حوزههای دیگر را به مدیریت و کنترل کارمندان خود منتقل نکنند. لذا چارچوب بدستآمده به تحقیقات مدیریتی در تلاقی تجزیهوتحلیل کارکنان، هوشمصنوعی و بازتابهای اخلاقی مدیریت الگوریتمی انسانها کمک میکند.
tags: هوشمصنوعی، مدیریت منابع انسانی، اخلاق منابع انسانی