هوش مصنوعی و لزوم استفاده اخلاقی از آن در کوچینگ
هوش مصنوعی و لزوم استفاده اخلاقی از آن در کوچینگ
ضروری‌ست، مؤسسه‌ها و متخصصان کوچینگ، اصولی مشخص و شفاف برای استفاده اخلاقی از تکنولوژی‌های هوش‌مصنوعی تدوین کنند که در آن به چالش‌هایی مانند امنیت داده، سوگیری‌ها و اعتبار اطلاعات توجه شود.

ندای تجن- هوش‌مصنوعی (AI) مجموعه‌ای از ابزارهای مؤثر است که برای پردازش، ترکیب، کاربست و ارتقای اطلاعات به کار گرفته می‌شود. با پیچیده‌ترشدن این تکنولوژی‌ها، دنیای کار و نحوه استفاده ما از اینترنت دگرگون خواهد شد. البته باید به خاطر داشت که این برنامه‌ها، خطرات جدیدی نیز با خود به همراه دارند زیرا هوش‌مصنوعی می‌تواند تصاویر، صداهای ضبط‌شده و اطلاعات را دستکاری و مخدوش کند یا باعث تقویت سوگیری‌های مضر شود. اگر اصول و رهنمودهای روشنی درباره استفاده اخلاقی از هوش‌مصنوعی وجود نداشته باشد، این تکنولوژی‌ها می‌توانند به سوءاستفاده از اطلاعات شخصی کمک کنند، منجر به تشدید نابرابری‌ها شوند و اطلاعات غلط را اشاعه دهند.

هوش‌مصنوعی چیست؟

هوش مصنوعی، اصطلاحی جامع است که برای توصیف روش تحلیل داده‌های کلان توسط برنامه‌ها و شناسایی الگوهایی که منعکس‌کننده نحوه تصمیم‌گیری انسان است، به کار برده می‌شود.

الگوریتم‌ها: مجموعه‌ای از قواعد برای حل مسئله است. هوش‌مصنوعی مبتنی بر الگوریتم‌هایی‌ست که به نحوه مرتب‌کردن و طبقه‌بندی داده‌ها اهمیت می‌دهند. به‌علاوه، شاید در مواقعی که معیارهای خاصی برآورده شده، الگوریتم‌ها شامل دستورالعمل‌های اضافه نیز باشد.

یادگیری ماشینی: استفاده از الگوریتم‌ها برای پردازش داده‌های کلان. هرچه داده‌های بیشتری تحلیل شود، برنامه‌های یادگیری ماشینی بهتر می‌توانند بر اساس شناسایی الگوها، خروجی‌های آینده را پیش‌بینی کنند.

پردازش زبان طبیعی: استفاده از زبان انسان به‌عنوان منبع داده برای تولید پاسخ‌هایی شبیه پاسخ انسان، از جمله خروجی‌های نوشتاری و گفتاری.

صنایع، مؤسسه‌های غیردولتی و سیاست‌گذاران برای مقابله با تهدیدها و نقاط ضعف احتمالی برنامه‌نویسی هوش‌مصنوعی، به فکر تدوین چهارچوب‌های اخلاقی و سیاست‌هایی هستند که اجرای مسئولانه هوش‌مصنوعی را کنترل می‌کند. برای مثال، شورای اروپایی چهارچوب‌های اخلاقی برای اجرای هوش‌مصنوعی، بر اهمیت حفظ استقلال انسان، پیشگیری از آسیب، عدالت، توجیه‌پذیری و نظارت بر سیستم‌های هوش‌مصنوعی تأکید می‌کند. اتحادیه اروپا نیز بر مبنای گزارش اصلی همین شورا در حال تدوین مقرراتی است تا اطمینان یابد اطلاعات ایجادشده توسط هوش‌مصنوعی، صحیح، منصفانه و منطبق با حریم خصوصی و حامی حقوق بشر است. بخشی از این قوانین شامل مسئول دانستن مؤسسه‌های تولیدکننده و استفاده‌کننده از هوش‌مصنوعی‌ست تا در قبال قوانین ایمنی و حفظ اطلاعات شخصی، متعهد باشند.

در حال حاضر، در صنعت کوچینگ از هوش‌مصنوعی برای بازاریابی کسب‌وکارهای فردی، شناسایی حوزه‌های نیازمند توسعه در مؤسسه‌ها و تسهیل هماهنگی بین کوچ و مراجع استفاده می‌شود. آزمایش‌های اولیه بات‌های مکالمه (چَت‌بات) نشان می‌دهد که هوش‌مصنوعی چگونه می‌تواند اجزای اصلی گفت‌وگوی کوچینگ را شبیه‌سازی کند. واضح است که بات‌های مکالمه نمی‌توانند تجربه همه‌جانبه کوچینگ توسط انسان را منعکس کنند یا جایگزینی برای آن باشند اما علاقه‌ای روزافزون برای استفاده از این تکنولوژی‌ها به عنوان مکمل کوچینگ و روشی برای ارائه خدمات کوچینگ به مخاطبان جدید، مشاهده می‌شود.

لازم است پژوهشگران کوچینگ، نهادهای اعتباربخشی و خدمات‌دهندگان، برای ایجاد بنیانی جهت استفاده اخلاقی از هوش‌مصنوعی، اصول و رهنمودهایی تدوین کنند که به حوزه‌های زیر بپردازد:

۱- رهنمودهایی برای کوچینگ با هوش‌مصنوعی.

۲- معتبربودن اطلاعات.

۳- ایمن و خصوصی‌بودن داده‌ها.

۴- سوگیری و تبعیض.

۱- آیا بات‌های کوچینگ با هوش‌مصنوعی، جایگزین کوچ‌های انسانی می‌شوند؟

در حال حاضر، هوش‌مصنوعی برای اثرگذاری بر تصمیم‌گیری انسان‌ها استفاده می‌شود. شرکت‌ها می‌توانند برای مدیریت امور اداری مانند تعیین زمان جلسه‌ها و نوشتن صورتجلسه از اپلیکیشن‌ها کمک بگیرند. در بخش منابع‌انسانی، الگوریتم‌های هوش‌مصنوعی برای پیداکردن متقاضیان واجد شرایط، رزومه‌های ارسالی را دسته‌بندی می‌کنند. به‌علاوه، از هوش‌مصنوعی برای تولید محتوای بازاریابی، ترجمه محتوا برای مخاطبان با زبان‌های مختلف و اطمینان از پایبندی به رهنمودهای مربوط به لحن و سبک‌ویژه برند، استفاده می‌شود. با توجه به اینکه هوش‌مصنوعی با صرف هزینه و زمان کم، از عهده تمامی این وظایف برمی‌آید، بسیاری نگرانند که استفاده از هوش‌مصنوعی با حذف مشاغل کارمندی در سطح مبتدی و افزایش شکاف مهارتی، باعث بیکاری جمعیت بزرگی خواهد شد.

مجمع جهانی اقتصاد، پیش‌بینی می‌کند که هوش‌مصنوعی با حذف برخی نقش‌ها، آینده کار را مختل ‌کند و تشریح می‌کند که چرا این ابزارها نباید جایگزین مهارت‌های خلاقانه، اجتماعی و هیجانی مختص انسان‌ها شوند. روابط کوچ و مراجع نمی‌تواند به طور کامل به هوش‌مصنوعی متکی باشد زیرا مکالمه‌های بین این دو، بر مهارت‌های انسانی که ذکر شد وابسته‌اند. در عوض، هوش‌مصنوعی باید بر تسهیل انجام امور اداری متمرکز باشد تا کوچ‌ها بتوانند بر شایستگی‌های اساسی خود مانند همکاری، همدلی و کنجاوی تمرکز کنند. از سوی دیگر، به کوچ‌ها آموزش داده می‌شود نیازهای خارج از حوزه کوچینگ مانند نیاز به یادگیری مستمر یا حمایت عاطفی را در مراجع تشخیص دهند. در حال حاضر، بات‌های مکالمه نمی‌توانند از پس این مهارت‌ها و شایستگی‌های اساسی کوچینگ برآیند و نباید با کوچینگ به روش مرسوم، یکی دانسته شوند.

از آنجا که تلاش می‌شود با کمک هوش‌مصنوعی، مکالمه‌ها و پرسش‌های مرتبط با کوچینگ تقلید شود، کوچ‌ها حق دارند که درباره بات‌های مکالمه مردد باشند. با توجه به اینکه قوانین مشخصی درباره نحوه آموزش و مهارت‌آموزی کوچ‌ها وجود ندارد، تصمیم‌گیری درباره بهترین شکل ارائه خدمات کوچینگ بر عهده هر مراجع خواهد بود. صرف‌نظر از کیفیت و اعتبار، شاید کوچ‌ها از بات‌های کوچینگ به عنوان ابزاری حمایتی استفاده کنند یا از آن برای ایجاد سطوح جدیدی از خدمات کوچینگ کمک بگیرند. استفاده از بات‌های مکالمه برای استخدام، آموزش و توسعه نیروها، یکی از روش‌های احتمالی برای به‌کارگیری آنهاست. به‌علاوه، ممکن است این برنامه‌ها برای مراجعانی که توانایی پرداخت هزینه‌های کوچینگ به روش مرسوم را ندارند، جذاب باشد. البته دریافت گواهینامه کوچینگ توسط کوچ، معمولاً نشان‌دهنده بالاتربودن کیفیت خدمات است. در مطالعه جهانی کوچینگ که توسط فدراسیون بین‌المللی کوچینگ (ICF[1]) در 2023  انجام شده، 80 درصد کوچ‌ها عنوان کرده‌اند که مراجعان از آنها انتظار دارند اعتبارنامه دریافت کرده باشند و این یافته نشان می‌دهد که تقاضا برای کوچینگ توسط انسان‌ها در آینده نیز همچنان به قوت قبل، باقی خواهد ماند.

آنچه کوچ‌ها باید به آن توجه کنند:

  • هوش‌مصنوعی ابزاری قدرتمند برای انجام امور اداری‌ست و فرصت بیشتری برای کوچ‌ها مهیا می‌کند تا تعامل با مراجع و پیشرفت حرفه‌ای را در اولویت قرار دهند.
  • بات‌های مکالمه به یک اندازه از هوش‌هیجانی و ادراک همدلانه انسان‌ها برخوردار نیستند. توانایی ایجاد اعتماد، برقراری رابطه همراه با درک و احترام و هدایت هیجان‌ها و موقعیت‌های پیچیده، همچنان جنبه‌ای حیاتی از کوچینگ است که هوش‌مصنوعی نمی‌تواند به‌طور کامل آن را شبیه‌سازی کند.

۲- آیا اطلاعاتی که توسط هوش‌مصنوعی تولید می‌شود، معتبر و ایمن است؟

یادگیری ماشینی و برنامه‌های پردازش زبان به نظارت انسانی نیاز دارند. این تکنولوژی‌ها بر مبنای داده‌های در دسترس، دستورهای داده‌شده توسط انسان و مشخصات مربوط به طراحی آنها، «نتایجی» تولید می‌کنند. برای مثال، چت ‌جی‌پی‌تی[2] که توسط شرکت اوپن ‌اِی‌آی[3] طراحی شده، داده‌ها را از اینترنت یا منبعی مشخص پیمایش می‌کند تا پاسخی تولید کند یا اطلاعات را بر اساس دستور داده‌شده، خلاصه کند. بر اساس «راهنمای ایمنی و استفاده بهنیه اوپن ‌اِی‌آی»، هوش‌مصنوعی می‌تواند با ایجاد اطلاعات اشتباه یا ساختگی و تولید پاسخ‌هایی که نامناسب یا سوگیرانه هستند، «هذیان بگوید». نباید از هوش‌مصنوعی به‌عنوان جایگزینی برای توصیه‌های اخلاقی، حقوقی، مالی یا پزشکی استفاده کرد. به‌عنوان مثال، وکیلی از چت‌ جی‌پی‌تی برای ایجاد یک استدلال حکمی با استناد به پرونده‌های جعلی، استفاده کرده است. در فضای دانشگاهی نیز این نگرانی وجود دارد که چنین تکنولوژی‌هایی، فرهنگ تقلب را جا بیندازند و متخصصان جوان بدون آمادگی وارد محیط کار شوند.

اگر برای تولید محتوای نگارشی یا برقراری ارتباط با مراجعان از برنامه‌های هوش‌مصنوعی مولّد کمک می‌گیرید، به خاطر داشته باشید که هوش‌مصنوعی به نظارت انسانی نیاز دارد. احتمال دارد اطلاعاتی که توسط هوش‌مصنوعی تولید می‌شود، نادرست، تبعیض‌آمیز، نامحترمانه یا مبهم باشد. استفاده از هوش‌مصنوعی در حوزه بازاریابی نیز می‌تواند کلامی زائد، ساده‌انگارانه یا عجیب تولید کند و تأثیری منفی بر مراجعان احتمالی بگذارد. مسئله نگران‌کننده‌تر این است که بات‌های مکالمه نمی‌توانند تشخیص دهند مراجع چه زمانی به حمایت روانی نیاز دارد و ممکن است اطلاعاتی خطرناک و آسیب‌زا در اختیار مراجع قرار دهند.

اتکای بیش از اندازه به هوش‌مصنوعی در حرفه کوچینگ می‌تواند کیفیت تعامل و مشارکت مراجع را کاهش دهد. اگر قرار است بات‌های مکالمه در کوچینگ به‌کار گرفته شوند، باید بر کیفیت و امن‌بودن آنها، به‌ویژه در مورد مراجعان آسیب‌پذیر، نظارت شود. از آنجا که بات‌های مکالمه برای گفت‌وگو با گروهی خاص از کاربرها آموزش دیده‌اند، ممکن است برای همه مراجعان مناسب نباشند و نتوانند سطوح مختلفی از حمایت را بر اساس عواملی مانند فرهنگ، نژاد، سن، جنسیت و زبان، برای مراجعان مهیا کنند. استفاده از این برنامه‌ها بدون اطلاع و رضایت قبلی مراجع می‌تواند به مشکلاتی مرتبط با امن‌بودن اطلاعات و حفظ حریم شخصی منجر شود.

آنچه کوچ‌ها باید به آن توجه کنند:

  • با توجه به اینکه هوش‌مصنوعی می‌تواند اطلاعاتی غلط، گمراه‌کننده یا سوگیرانه تولید کند، کوچ‌ها باید محتوای تولیدشده توسط هوش‌مصنوعی را راستی‌آزمایی کنند و بر آن نظارت داشته باشند.
  • کوچ‌ها باید پیش از استفاده از ابزارهای مولد زبان در جلسات کوچینگ، از محدودیت‌ها و خطرهای این ابزار هوش‌مصنوعی آگاه باشند.
  • کوچ‌ها باید با آگاهی از ملاحظات اخلاقی، حین استفاده از بات‌های مکالمه، مرزها و مسئولیت‌های حرفه‌ای خود را حفظ کنند.

۳- آیا هوش‌مصنوعی، به استانداردهای محرمانگی و امنیت داده‌ها، متعهد است؟

هوش‌مصنوعی به عنوان یک ابزار به داده‌ها متکی‌ست. برنامه‌های یادگیری ماشین برای شناسایی الگوها و همبستگی‌هایی که «یادگیری» را تقویت می‌کند و توانایی پیش‌بینی توسط هوش‌مصنوعی را ممکن می‌کند، به حجم بالایی از داده‌ها نیازمند است. زمانی‌که کاربر برای تحلیل یک متن، صدای ضبط‌شده یا ویدئو از هوش‌مصنوعی استفاده می‌کند، دیگر کنترلی بر نحوه ذخیره‌سازی و استفاده از آن داده‌ها ندارد. تحلیلی که توسط واحد آینده‌نگری علمی اتحادیه اروپا انجام شده، نشان می‌دهد که جمع‌آوری داده‌ها و استفاده از هوش‌مصنوعی، چگونه می‌تواند به مخاطراتی مانند نظارت شدید، آزار و اذیت، و پیش‌داوری تبعیض‌آمیز منجر شود. انجمن حسابرسی و کنترل سیستم‌های اطلاعاتی (ISACA)، سازمانی متشکل از پیشگامان علم داده و فناوری‌اطلاعات، تشریح کرده که برنامه‌های هوش‌مصنوعی داده‌هایی را جمع‌آوری می‌کنند که ممکن است برای استفاده ثانویه، بازآفرینی شوند. به‌علاوه، این انجمن به خطر عدم رضایت در مواردی اشاره می‌کند که اطلاعات بدون آگاهی قبلی یک یا چند طرف، به اشتراک گذاشته می‌شود. برای مثال، اگر هوش‌مصنوعی در حال تحلیل یک گفت‌وگو یا مکالمه نوشتاری باشد، ممکن است همه طرفین گفت‌وگو رضایت نداشته باشند یا قادر نباشند از تحلیل داده‌هایشان انصراف دهند.

یکی از شروط اولیه توافق میان کوچ و مراجع، حفظ محرمانگی‌ست. کوچ‌هایی که برای ضبط، پیاده‌سازی، خلاصه‌نویسی و ویرایش اطلاعات جلسات کوچینگ یا تعامل با مراجع از ابزارهای هوش‌مصنوعی استفاده می‌کنند، ممکن است قرارداد محرمانگی را نقض کنند. نقض محرمانگی به این دلیل محتمل است که برنامه‌های هوش‌مصنوعی، داده‌هایی را پردازش و ذخیره‌می‌کنند که می‌تواند اطلاعات حساس مراجع، مالکیت معنوی یا راهبردهای کسب‌وکار را در اختیار هکرها قرار دهد. به‌علاوه، اگر کوچ‌ها از هوش‌مصنوعی در تعامل با مراجع خود استفاده می‌کنند، باید متناسب با شرایط، به قوانین محلی و جهانی مربوط به حفظ حریم شخصی و امنیت داده‌ها پایبند باشند. در مواردی که مکالمه‌های کوچینگ یا اطلاعات فردی مراجع توسط هوش‌مصنوعی تحلیل می‌شود، باید به او اطلاع داده شود.

تمامی نهادهای اعتباربخشی مهم حوزه کوچینگ، رهنمودهای اخلاقی تدوین کرده‌اند. برای مثال، اصول اخلاقی فدراسیون بین‌المللی کوچینگ (ICF)، کوچ‌ها را ملزم می‌کند که «ماهیت و محدودیت‌های محرمانگی را … توضیح دهند» و «هرگونه اسنادی از جمله فایل‌های الکترونیکی و تعاملات را … به نحوی نگهداری، ذخیره یا حذف کنند که به حفظ محرمانگی کمک کند». انجمن کوچینگ و منتورینگ اروپا ([4]EMCC) نیز به طور مشترک، اصول اخلاقی جهانی برای کوچ‌ها، منتور و سوپروایزرها تدوین کرده‌اند. همچنین انجمن کوچینگ و منتورینگ اروپا بر مبنای اصول جهانی اخلاق، یک کارگروه جهانی با هدف تدوین استانداردهایی برای کوچینگ دیجیتال و هوش‌مصنوعی راه‌اندازی نموده است. با پیچیده‌ترشدن این تکنولوژی‌ها، نهادهای کوچینگ و سازمان‌های کوچینگ دیجیتال باید با یکدیگر همکاری کنند تا استانداردهایی برای استفاده اخلاقی از هوش مصنوعی در کوچینگ تدوین نموده و همواره آنها را به‌روز نگه‌دارند.

آنچه کوچ‌ها باید به آن توجه کنند:

  • کوچ‌ها باید به احتمال افشای اطلاعات شخصی مراجعان از جمله حق مالکیت معنوی، اطلاعات فردی و صداها و تصاویر ضبط‌شده توسط تکنولوژی‌های هوش‌مصنوعی توجه نمایند.
  • کوچ‌ها باید درباره نقش هوش‌مصنوعی در روند کوچینگ، محرمانه و ایمن‌بودن اطلاعات و محدودیت‌های بات‌های مکالمه با مراجعان خود به‌طور شفاف گفت‌وگو کنند.

۴- چطور می‌توان استفاده اخلاقی از هوش‌مصنوعی را که از سوگیری و تبعیض به دور باشد، تضمین نمود؟

سوگیری و تبعیض به اشکال مختلفی خود را نشان می‌دهد. اگر داده‌ها به یک گروه خاص مربوط باشد، هوش‌مصنوعی الگوها و نتیجه‌گیری‌هایی درباره مجموعه داده‌های آموزشی تولید می‌کند که شاید نتوان آن‌را برای همه مخاطبان به‌کار بست. برای نمونه، برنامه‌ای که برای تحلیل زبان انگلیسی طراحی شده است، شاید اگر فقط بر مبنای داده‌هایی از کسانی که زبان انگلیسی، زبان مادری آنهاست کار کند، برای دانشجویان زبان انگلیسی یا کاربرانی که انگلیسی زبان مادری‌شان نیست، به یک اندازه مفید نباشد. نوع دیگر سوگیری، سوگیری الگوریتم‌ است که مبتی بر، الگوها بر اساس قضاوت‌ها و پیوندهای انسانی هستند. برنامه‌ای که طراحی‌شده تا فارغ‌التحصیلان دانشگاه‌های رده‌اول را در اولویت قرار دهد، ممکن است دانشجویان جوامع حاشیه‌نشین یا افرادی با طبقه اجتماعی‌ اقتصادی پایینتر را حذف کند. به‌علاوه، اگر هوش‌مصنوعی به‌عمد برای شناسایی، ردیابی یا آزار افرادی با پیشینه‌ای مشخص طراحی شود، می‌تواند به ترویج سوگیری و تبعیض کمک نماید. در یکی از موارد منحصربه‌فرد نظارت با هوش‌مصنوعی، از تکنولوژی تشخیص چهره استفاده شده تا وکلا را شناسایی کند و مانع حضور آنها در اماکن عمومی شهر نیویورک شود. کاربرد بدخواهانه‌تر می‌تواند شامل شناسایی، ردیابی و تبعیض علیه مخالفان سیاسی یا گروه‌های اقلیت باشد.

هوش‌مصنوعی می‌تواند در کوچینگ یا پیشرفت فردی نیز، باعث سوگیری و تبعیض شود. مؤسساتی که برای شناسایی و استخدام داوطلبان کوچینگ از هوش‌مصنوعی استفاده می‌کنند، باید به خاطر داشته باشند که ممکن است هوش‌مصنوعی به‌طور اتفاقی و به دلیل سوگیری، گروه‌های مختلف را از کوچینگ و فرصت پیشرفت، محروم کند. کوچ‌ها باید آگاه باشند که احتمال دارد ابزارها و منابع هوش‌مصنوعی برای تنها یک گروه خاص طراحی شده و برای همه مخاطبان، مفید یا مناسب نباشد. به‌ویژه، بسیاری از بات‌های مکالمه برای گفت‌وگو با مخاطبانی از فرهنگ غربی و فردگرا طراحی شده‌اند. احتمالاً این ابزارها برای گروه‌ها یا مراجعان چندملیتی در جوامع غیرغربی و جمع‌گرا مفید نیست.

در حال حاضر، پژوهشگران حوزه کوچینگ، پلتفرم‌های کوچینگ دیجیتال و نهادهای اعتباربخشی، به دنبال کوچ‌ها و مراجعانی از گروه‌های مختلف هستند تا میزان سوگیری را در ابزارهای کوچینگ با هوش‌مصنوعی کاهش دهند. پیش از به‌کارگیری بات‌های مکالمه کوچینگ در مقیاس‌های وسیع، برنامه‌نویسان هوش‌مصنوعی باید بتوانند تجسم کنند داده‌های موجود چگونه می‌تواند به روش‌های مفید و مضر، بر این بات‌ها تأثیر بگذارد. با پیش‌بینی پیامدهای غیرعمدی و منفی سوگیری هوش‌مصنوعی، مؤسسه‌ها می‌توانند شرکت‌کنندگان متنوع‌تری را برای آموزش انتخاب کنند و عامدانه، الگوریتم‌های متعادل‌تری بسازند. در صورتی که انجام این کار برای بات مکالمه کوچینگ میسر نبود، باید به صورت روشن و واضح، گروه مخاطبان خود را توصیف کند تا مراجعان را از محدودیت‌های احتمالی مطلع سازد.

آنچه کوچ‌ها باید به آن توجه کنند:

  • بات‌های مکالمه بر اساس الگوریتم‌ها و قوانین ازپیش‌تعیین‌شده عمل می‌کنند. گرچه می‌توانند رهنمون‌ها و منابعی کلی در اختیار مخاطب قرار دهند، اما هنوز قادر نیستند خدمات کوچینگ را متناسب با نیازها، شرایط و پیش‌زمینه منحصربه‌فرد هر مراجع ارائه دهند.
  • کوچ‌ها باید بر به‌کارگیری تخصص و شهود خود برای ارائه پشتیبانی شخصی‌سازی‌شده، تمرکز کنند.
  • کوچ‌ها با شرکت در پژوهش‌هایی درباره کوچینگ دیجیتال یا ارائه بازخورد درباره بات‌های پژوهشی مانند CoachHub’s AIMEY می‌توانند به کاهش سوگیری در کوچینگ با هوش‌مصنوعی کمک نمایند.

مشاهده لینک منبع: thoughtleadership.org

برگردان: سمانه کاظمی ACC

[1] International Coaching Federation.

[2] ChatGPT.

[3] OpenAI.

[4] European Mentoring and Coaching Council.