هوش مصنوعی در استخدام: مدیریت ریسک برای پذیرش موفقیت آمیز

هوش مصنوعی در استخدام یکی از کاربردهای کلیدی هوش مصنوعی در فعالیت های منابع انسانی بوده است. تقریباً از هر 4 شرکت، 3 شرکت در فرآیندهای استخدام و استخدام خود حداقل تا حدی از هوش مصنوعی استفاده می کنند. با ظهور هوش مصنوعی مولد، این تعداد فقط افزایش می یابد.

قوانین جدید، مانند قانون هوش مصنوعی اتحادیه اروپا و قانون تعصب هوش مصنوعی نیویورک، توجه را به خطرات هوش مصنوعی برای منابع انسانی جلب کرده است. سازمان‌ها باید به اتخاذ راه‌حل‌های هوش مصنوعی مسئولانه نزدیک شوند تا از مزایای کامل آن‌ها بهره ببرند.

در این مقاله، ما یک چارچوب ریسک هوش مصنوعی را مورد بحث قرار می‌دهیم که می‌تواند برای ارزیابی قابلیت اعتماد فناوری‌های هوش مصنوعی، به‌ویژه تمرکز بر استفاده از چارچوب برای استخدام استفاده شود.

مطالب
وضعیت فعلی هوش مصنوعی در استخدام
استفاده از چارچوب ریسک هوش مصنوعی برای پذیرش مسئولانه هوش مصنوعی در استخدام

وضعیت فعلی هوش مصنوعی در استخدام

سیستم‌های ردیابی متقاضی (ATS) در استفاده از هوش مصنوعی در استخدام با تمرکز اساسی بر افزایش کیفیت و کارایی شیوه‌های استخدام پیشگام شدند.

با ظهور هوش مصنوعی مولد، کاربردهای هوش مصنوعی در استخدام به طور چشمگیری گسترش یافته است. این شکل پیشرفته از هوش مصنوعی فراتر از ساده‌سازی فرآیندها می‌رود و بر هدایت سطوح بالاتر شخصی‌سازی، بینش‌های تحلیلی پیش‌بینی‌کننده پیشرفته برای پیش‌بینی موفقیت نامزدها و کاهش تعصب در تصمیم‌گیری‌های استخدام تمرکز می‌کند.

سازمان‌هایی مانند Electrolux، Cigna، و Kuehne و Nagel همگی دستاوردهای قابل توجهی در بهره‌وری، کیفیت خروجی و تأثیر منابع انسانی با اتخاذ هوش مصنوعی مولد گزارش کرده‌اند.

کسب و کارها می توانند هوش مصنوعی مولد را در طول مراحل مختلف فرآیند استخدام اعمال کنند:

مرحله استخدام
نمونه ای از برنامه Gen AI

منبع یابی

– نوشتن پروفایل های شغلی و آگهی های شغلی که مخاطبان خاصی را هدف قرار می دهند

– شخصی سازی آگهی های شغلی برای برجسته کردن الزامات خاص سازمانی

– حذف سوگیری در پروفایل ها و استفاده از زبان بی طرفانه جنسیتی.

غربالگری

– استفاده از تجزیه و تحلیل برای مطابقت دادن نامزدها با شرایط شغلی

– غربالگری خط اول نامزدها با استفاده از مصاحبه های ناهمزمان تعاملی.

مصاحبه ها

– تهیه سوالات مصاحبه مرتبط بر اساس شرایط شغلی و مشخصات نامزد

– ایجاد مطالعات موردی برای نامزدهای همسو با آزمون مهارت های خاص

– مصاحبه و امتیازدهی داوطلبان مبتنی بر هوش مصنوعی.

ما هوش مصنوعی را در استخدام با قاسم اسد سلام، مدیرعامل و یکی از بنیانگذاران Remotebase، شرکتی که به سازمان‌ها در استخدام توسعه‌دهندگان نرم‌افزار از راه دور کمک می‌کند، بحث کردیم. در ادامه می توانید قسمت کامل آن را تماشا کنید:

با این حال، خطرات مرتبط با استفاده از هوش مصنوعی مولد در استخدام وجود دارد، و بسیاری از موارد استفاده غیرمسئولانه باعث شده است که متخصصان منابع انسانی تمایلی به آزمایش نداشته باشند. خطرات مربوط به حریم خصوصی، سوگیری و اعتماد نامزدها منجر به زیر سوال رفتن اخلاق استفاده از GenAI برای اهداف استخدام شده است.

بسیاری از متخصصان منابع انسانی گزارش می دهند که مطمئن نیستند که چگونه و در کجا باید از هوش مصنوعی استفاده کنند، که نگرانی هایی را در مورد حفظ حریم خصوصی و امنیت داده ها به عنوان موانع اصلی ایجاد می کند. تحقیقات ما در AIHR نشان می‌دهد که بسیاری از متخصصان منابع انسانی احساس بی‌عملی را تجربه می‌کنند و باید بیاموزند که چگونه با هوش مصنوعی شروع کنند یا چگونه استفاده ایمن از سیستم‌های هوش مصنوعی را ارزیابی کنند.

استفاده از چارچوب ریسک هوش مصنوعی برای پذیرش مسئولانه هوش مصنوعی در استخدام

سازمان‌هایی که می‌خواهند هوش مصنوعی را در استخدام و سایر حوزه‌های منابع انسانی به طور مسئولانه اتخاذ کنند، باید رویکردی سیستماتیک داشته باشند. به این ترتیب، آنها می توانند ملاحظات اخلاقی و قانونی را مورد توجه قرار دهند، و همچنین اثربخشی استراتژیک و عملیاتی ابتکارات هوش مصنوعی در منابع انسانی را افزایش دهند.

چارچوب زیر که از مؤسسه ملی استاندارد و فناوری و مجمع جهانی اقتصاد اقتباس شده است، معیارها و سؤالات اساسی را که می توان برای ارزیابی قابلیت اعتماد سیستم های هوش مصنوعی مورد استفاده قرار داد، برجسته می کند.

Adopting AI in recruitment by using the AI Risk Framework to evaluate the risks.Adopting AI in recruitment by using the AI Risk Framework to evaluate the risks.
منبع: اقتباس از موسسه ملی استاندارد و فناوری ایالات متحده؛ مجمع جهانی اقتصاد

با استفاده از این سوالات، سازمان ها می توانند سطح ریسک مرتبط با اجرا را تعیین کنند:

  • ریسک قابل قبول به مواردی اطلاق می‌شود که ریسک‌ها شناخته شده و کنترل‌هایی برای کاهش آن‌ها وجود دارد. برای مثال، کنترل‌هایی برای کاهش سوگیری انتخاب در حین گزارش منبع در مورد متغیرهای جمعیتی وجود دارد.
  • کاهش مورد نیاز مواردی را برجسته می کند که قبل از در نظر گرفتن پذیرش باید کنترل های بیشتری اجرا شود. به عنوان مثال، فرآیندی برای بررسی تصمیمات هوش مصنوعی در یک دوره زمانی متناسب با الزامات شغلی حیاتی باید اجرا شود.
  • ریسک غیرقابل قبول به مواردی اطلاق می شود که بدون توجه به کنترل ها، پتانسیل آسیب به طور قابل توجهی بیشتر از سود درک شده است. به عنوان مثال، جایی که هوش مصنوعی به دلیل توصیه ها و پیش بینی های خود باعث آسیب می شود.

نکته مهم این است که این ویژگی ها به هم مرتبط هستند و هنگام ارزیابی ریسک هوش مصنوعی، باید در رابطه با یکدیگر بررسی شوند. سازمان‌ها باید برای اطمینان از پذیرش مسئولانه و مدیریت موثر ریسک استفاده از هوش مصنوعی به عنوان بخشی از شیوه‌های استخدام خود، معاوضه‌هایی انجام دهند.

عملی کردن مدل

شرکت فرضی ما، TX Energy، یک تجارت بزرگ تولیدی است که بر توسعه سیستم‌های انرژی خورشیدی متمرکز شده است. آنها رشد قابل توجهی داشته اند و نیروی کار در سه سال گذشته رشد قابل توجهی داشته است. آنها در حال بررسی پیاده سازی فناوری های جدید GenAI در فرآیند استخدام خود برای دستیابی به مزایای زیر هستند:

  • منبع یابی فعال استعدادهای بسیار حیاتی، مانند مهندسان
  • مصاحبه با برنامه های استخدامی با حجم بالا مانند خدمات مشتری انجام دهید
  • برای درک معیارهای موفقیت مشاوران بالقوه پیاده سازی، تجزیه و تحلیل پیش بینی را بهتر هدایت کنید.

با استفاده از چارچوب بالا، TX Energy ریسک و قابل اعتماد بودن راه حل را به شرح زیر ارزیابی می کند:

معیارها ملاحظات انرژی TX پاسخ رتبه بندی ریسک
روایی و پایایی در طول غربالگری، آیا سیستم هوش مصنوعی بر اساس الزامات شغلی خاص، نامزدها را به دقت بررسی می کند یا معیارهای غیر مرتبط بر تصمیمات غربالگری تأثیر می گذارد؟ این سیستم کنترل‌هایی را تنظیم کرده است که نمونه‌ای از نامزدهای غربال‌شده را ترسیم می‌کند و معیارهایی را برای رد صلاحیت نامزدها گزارش می‌دهد. ریسک قابل قبول
ایمنی در طول استخدام، آیا هوش مصنوعی به طور ناخواسته منجر به محدود کردن فرصت‌های برابر برخی از گروه‌های اقلیت برای به دست آوردن شغل می‌شود؟ این سیستم به مدیران استخدام داشبوردی ارائه می دهد که جمعیت شناسی استخر استعدادها را برای تعیین روند ردیابی می کند. ریسک قابل قبول
امنیت و انعطاف پذیری آیا در طول مدیریت رکورد، داده ها با یک سیاست مدیریت مجموعه ایمن می شوند؟ این سیستم ایمن است و با پروتکل ها و چارچوب های مختلف امنیت داده ها هماهنگ است ریسک قابل قبول
پاسخگویی و شفافیت سطح شفافیت تعامل و تعامل با هوش مصنوعی در طول تجربه نامزد چقدر است؟ این سیستم به طور فعال به نامزدها ارتباط نمی دهد که تعاملات مبتنی بر هوش مصنوعی است.
تخفیف در ارتباط با نامزدها لازم است.
کاهش مورد نیاز است
قابل توضیح و تفسیر پذیری آیا توصیه‌های مبتنی بر هوش مصنوعی در هنگام غربالگری و مصاحبه با انتظارات هنگام انجام کنترل‌های کیفی همراه است؟ سیستم در مورد تصمیمات استخدام گزارش می دهد، با این حال نیاز به یک فرآیند کیفیت وجود دارد که خروجی ها را هر سه ماه یکبار ارزیابی می کند کاهش مورد نیاز است
بهبود حریم خصوصی تعامل هوش مصنوعی با نامزد چگونه است و اطلاعات شخصی چگونه مدیریت می شود؟ اطلاعات شخصی بر اساس پروتکل‌های داده‌ای مدیریت می‌شوند، و لحن نحوه ارتباط هوش مصنوعی به طور مداوم از طریق تجزیه و تحلیل احساسات ارزیابی می‌شود. ریسک قابل قبول
انصاف آیا هوش مصنوعی در طول فرآیند غربالگری و انتخاب، علیه گروه خاصی تبعیض قائل است؟ گزارش استثنایی برای نظارت بر تصمیمات استخدام بر اساس معیارهای کلیدی مانند جمعیت شناسی در دسترس است. ریسک قابل قبول

پس از این تجزیه و تحلیل کامل، TX Energy تصمیم گرفته است راه حل هوش مصنوعی را اتخاذ کند و یک برنامه آزمایشی 3 ماهه را آغاز کند. این مرحله مقدماتی با هدف کاهش موثر ریسک‌های شناسایی‌شده، کنترل‌های قبلی را آزمایش می‌کند.

این رویکرد استراتژیک تضمین می‌کند که چالش‌های بالقوه در یک محیط کنترل‌شده مورد توجه قرار می‌گیرند، و راه را برای انتقال آرام به یک پیاده‌سازی در مقیاس بزرگ پس از تکمیل موفقیت‌آمیز پایلوت هموار می‌کند.

کلمات پایانی

ما هنوز در ابتدای انقلاب هوش مصنوعی در منابع انسانی هستیم. از آنجایی که سازمان‌ها هوش مصنوعی را به طور گسترده‌تری در استخدام و فراتر از آن اتخاذ می‌کنند، باید پایه محکمی برای ارزیابی قابلیت اعتماد سیستم‌های هوش مصنوعی و استفاده مسئولانه از آنها داشته باشند.

هوش مصنوعی فرصت‌های قابل توجهی را برای متخصصان منابع انسانی فراهم می‌کند، اما مهم است که منافع را با رویکرد پذیرش مسئولانه که خطرات مرتبط با این فناوری‌ها را در نظر می‌گیرد و سازمان‌ها را قادر می‌سازد تا تصمیم‌گیری آگاهانه در مورد استفاده از آن‌ها اتخاذ کنند، متعادل کنیم.

دکتر دیتر ولدزمن یک روانشناس سازمانی با بیش از 15 سال تجربه در زنجیره ارزش منابع انسانی و چرخه حیات است که برای سازمان های مختلف در EMEA، APAC و LATAM کار کرده و با آنها مشورت کرده است. او سمت‌های مدیر ارشد گروه، مدیر اجرایی اثربخشی سازمانی، مدیر راه‌حل‌های مشاوره و دانشمند ارشد پژوهشی را برعهده داشته است. او سخنران منظمی در مورد موضوعات منابع انسانی استراتژیک، آینده کار، تجربه کارکنان و توسعه سازمانی است.

منبع


منتشر شده

در

توسط

برچسب‌ها:

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *