تعداد نشریات | 418 |
تعداد شمارهها | 10,005 |
تعداد مقالات | 83,625 |
تعداد مشاهده مقاله | 78,453,382 |
تعداد دریافت فایل اصل مقاله | 55,469,051 |
هوش مصنوعی و تصمیمگیری اخلاقی در حسابداری و حسابرسی: تحلیل چالشهای مرتبط | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
قضاوت و تصمیم گیری در حسابداری | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
دوره 2، شماره 7، مهر 1402، صفحه 87-114 اصل مقاله (715.59 K) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
نوع مقاله: مقاله پژوهشی | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
شناسه دیجیتال (DOI): 10.30495/jdaa.2023.705528 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
نویسندگان | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
یاشار آذرسعید1؛ شعیب رستمی* 2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
1گروه اقتصاد، دانشگاه پیام نور واحد کرج، البرز، ایران | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2گروه حسابداری، واحد قزوین، دانشگاه آزاد اسلامی، قزوین، ایران. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
چکیده | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
چکیده مقاله حاضر، چالشهای اخلاقی کاربرد سیستمهای حسابداری مبتنی بر هوش مصنوعی برای تصمیمگیری را بررسی و در چارچوب مدل چهارمؤلفهای رست در باب تصمیمگیری صحیح ارائه مینماید. مقاله پیشرو به ادبیات مربوط به حسابداری به عنوان یک عامل ذهنی همانند عملکرد یک واسطه در زمینه اجتماعی - مادی کمک میکند. این کار با ارائه یک استدلال قوی صورت میپذیرد که هوش مصنوعی به تنهایی، علیرغم نقش توانمندکننده و واسطهای که در حسابداری دارد، نمیتواند تصمیمات اخلاقی حسابداری بگیرد، زیرا از نظر مدل رست فاقد پیششرطهای لازم است. علاوه بر این، از آنجایی که هوش مصنوعی با وجود یادگیری مستقل و شیوههای انطباقی، مقید به اهداف از پیش تعیینشده توسط انسانها بوده، فاقد بیطرفی واقعی است. موضوع مورد بحث در بین 138 مقاله از 43 مجله معتبر بینالمللی حسابداری بررسی شده است. در کدگذاری موضوعی مقالات انتخاب شده، پنج چالش اخلاقی عمده تصمیمگیری مبتنی بر هوش مصنوعی در حسابداری شناسایی گردید که عبارتنداز: بیطرفی، حریم خصوصی، شفافیت، پاسخگویی و قابل اعتمادبودن. با استفاده از مؤلفههای مدل رست برای تصمیمگیری اخلاقی بهعنوان چارچوبی پایدار برای ساختار مورد بحث، میتوان چالشها و ارتباط آنها را برای همکاری آینده انسان و ماشین در دفاتر مختلف بین انسانها و هوش مصنوعی، مورد بحث قرار داد. از اینرو علاوه بر درک فرآیند مناسب تصمیمگیری در حسابداری بر اساس هوش مصنوعی پیشنهاد میشود که فرآیندهای حسابرسی مستقل و داخلی نیز از نظر مهارتها و آگاهی، تطبیق داده شوند تا از تصمیمگیری اخلاقی مبتنی بر هوش مصنوعی اطمینان حاصل شود. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
کلیدواژهها | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
واژههای کلیدی: هوش مصنوعی؛ مدل رست؛ تصمیمگیری اخلاقی؛ چالشهای هنجاری و اجتماعی؛ آینده حسابداری | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
اصل مقاله | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
https://doi.org/10.30495/jdaa.2023.1976918.1068
هوش مصنوعی و تصمیم گیری اخلاقی در حسابداری و حسابرسی: تحلیل چالشهای مرتبط
چکیده مقاله حاضر، چالشهای اخلاقی کاربرد سیستمهای حسابداری مبتنی بر هوش مصنوعی برای تصمیمگیری را بررسی و در چارچوب مدل چهارمؤلفهای رست در باب تصمیمگیری صحیح ارائه مینماید. مقاله پیشرو به ادبیات مربوط به حسابداری به عنوان یک عامل ذهنی همانند عملکرد یک واسطه در زمینه اجتماعی - مادی کمک میکند. این کار با ارائه یک استدلال قوی صورت میپذیرد که هوش مصنوعی به تنهایی، علیرغم نقش توانمندکننده و واسطهای که در حسابداری دارد، نمیتواند تصمیمات اخلاقی حسابداری بگیرد، زیرا از نظر مدل رست فاقد پیششرطهای لازم است. علاوه بر این، از آنجایی که هوش مصنوعی با وجود یادگیری مستقل و شیوههای انطباقی، مقید به اهداف از پیش تعیینشده توسط انسانها بوده، فاقد بیطرفی واقعی است. موضوع مورد بحث در بین 138 مقاله از 43 مجله معتبر بینالمللی حسابداری بررسی شده است. در کدگذاری موضوعی مقالات انتخاب شده، پنج چالش اخلاقی عمده تصمیمگیری مبتنی بر هوش مصنوعی در حسابداری شناسایی گردید که عبارتنداز: بیطرفی، حریم خصوصی، شفافیت، پاسخگویی و قابل اعتمادبودن. با استفاده از مؤلفههای مدل رست برای تصمیمگیری اخلاقی بهعنوان چارچوبی پایدار برای ساختار مورد بحث، میتوان چالشها و ارتباط آنها را برای همکاری آینده انسان و ماشین در دفاتر مختلف بین انسانها و هوش مصنوعی، مورد بحث قرار داد. از اینرو علاوه بر درک فرآیند مناسب تصمیمگیری در حسابداری بر اساس هوش مصنوعی پیشنهاد میشود که فرآیندهای حسابرسی مستقل و داخلی نیز از نظر مهارتها و آگاهی، تطبیق داده شوند تا از تصمیمگیری اخلاقی مبتنی بر هوش مصنوعی اطمینان حاصل شود. واژههای کلیدی: هوش مصنوعی، مدل رست، تصمیمگیری اخلاقی، چالشهای هنجاری و اجتماعی، آینده حسابداری. 1- مقدمه با گسترش و افزایش حجم تولید اطلاعات و همچنین سرعت پاسخگوئی به نیازهای سیال بازار لازم است از ابزار توانمندی استفاده شود تا بتواند بجای انسان بررسی، تحلیل، پیشبینی و سپس تصمیمگیری نماید (کریمی و همکاران، 1401). سازمانها و مؤسسات خدمات مالی بهطور فزایندهای از هوش مصنوعی برای جمعآوری و تبدیل دادهها از منابع مختلف و استخراج اطلاعات جهت تصمیمگیری بهتر در محیطهای پیچیده بهمنظور کسب منافع اقتصادی استفاده میکنند (جراحی[3]، 2018). هوش مصنوعی را میتوان به اصطلاح به عنوان چتر در این ابر روند جهانی دید که شامل رویکردهای کلان داده و الگوریتمهای پیچیده یادگیری ماشینی (لیندباوم و همکاران[4]، 2020) برای پیشبینی آینده است (ایرلی[5]، 2015). نرمافزار حسابداری مبتنی بر هوش مصنوعی پیشرفته نیز نمیتواند به راحتی با سیستمهای اطلاعاتی حسابداری کلاسیک مقایسه شود، زیرا دائماً طراحی و برنامهنویسی خود را از طریق یادگیری تغییر میدهد و به تدریج با تواناییهای شناختی انسان در وظایف خاص مطابقت مییابد (مانوکو و همکاران[6]، 2020). در عین حال وقتی صحبت از وظایف تکراریتر و در عین حال سختگیرانهتر در حسابداری و حسابرسی میشود، سرعت پردازش دادهها توسط هوش مصنوعی از نیروی انسانی بیشتر میشود (رایش و کراکوفسکی[7]، 2021؛ کوپر و همکاران[8]، 2019). به عنوان مثال، شناسایی شروط کلیدی قرارداد اجاره پیچیده، وام و سایر قراردادهای بدهی برای طبقهبندی استاندارد IFRS 9 اکنون توسط رباتهای هوشمند مجهز به هوش مصنوعی در زمان بسیار کمتری اجرا میشود (کوپر و همکاران، 2019). عملکرد هوش مصنوعی در مواردی مانند طبقهبندی IFRS ذکر شده در بالا چندین سوال را مطرح میکند؛ به عنوان مثال سوالاتی در مورد، مسئولیتپذیری (بیبینگتون و همکاران[9]، 2019) و همینطور قابلیت ردیابی و ابعاد اخلاقی زیربنایی در خصوص تأثیر آن بر نیروی کار و جامعه (جراحی، 2018؛ مانوکو و همکاران، 2020). همانطور که گانز و تورن[10] (2020) بیان میکنند: «مهمترین نگرانی برای کسانی که به ملاحظات اخلاقی در محل کار میپردازند، موضوعی است که به عنوان شکاف مسئولیت شناخته شده است. یعنی میزان یا احتمالی که پذیرش فناوری منجر به سلب مسئولیت اخلاقی در قبال پیامدهای تصمیمات توسط افراد واقعی و در این مقولهی بخصوص، حسابداران و مالیاتدهندگان شود. بر این اساس، پیامدهای اجتماعی و اخلاقی هوش مصنوعی نیز توسط سیاستگذاران مورد توجه قرار گرفته است، برای مثال در استراتژی هوش مصنوعی اتحادیه اروپا یا در دستورالعملهای OECD ذکر شده است (بوزا و اوجنیو[11]، 2021). در این موارد، سیاستگذاران خواستار آن هستند که هوش مصنوعی به مردم و جهان کمک کند، جامعهای عادلانه را تضمین کند، افشای شفاف و مسئولانه داشته باشد، در طول عمر خود قوی، امن و مطمئن باشد و توسعهدهندگان در قبال عملکرد صحیح آن پاسخگو باشند. البته، همه اینها باید به عنوان پایهای برای تصمیمگیری مبتنی بر هوش مصنوعی در زمینه حسابداری در نظر گرفته شوند، با این حال این اصطلاحات انگیزشی برای روشن کردن فرآیندهای واقعی و ارزیابی اخلاقی آنها در حوزه حسابداری و حسابرسی کمک چندانی نمیکند (هولت و لوراس[12]، 2021). در ابتدای این مقاله، مفاهیم متفاوتی از همکاریهای انسان و هوش مصنوعی بر اساس ادبیات بینالمللی ارائه میشود. این فرض وجود دارد که در آینده قابل پیشبینی، هوش مصنوعی تنها تصمیمگیری انسان را تقویت نماید؛ در مقابل، جراحی (2018) و همچنین لهنر و همکاران[13] (2021) حرکت به سمت سیستمهای دیجیتالی را به عنوان تصمیمگیرندگان آینده پیشبینی کردهاند. تحقیقات در مورد مسائل اخلاقی مرتبط با تصمیمگیری بر اساس هوش مصنوعی (دیگنوم[14]، 2018؛ لیر و اشنایدر[15]، 2021)، الگوریتمهای مرتبط با آن (مارتین[16]، 2019) و کلان دادهها (لومباردی و همکاران، 2015) در زمینههای حسابداری و حسابرسی، به جز چند نکته برجسته اخیر که محتوا و دستور کار تحقیقاتی آینده را ارائه میدهند، بسیار کمیاب است (گانز و ترون، 2020؛ کلاگ و همکاران[17]، 2020). مانوکو و همکاران (2020) بیان نمودند بینش اخلاقی در حسابرسی مبتنی بر هوش مصنوعی باید در اینجا مورد تأکید قرار گیرد. در نتیجه، پرسش پژوهش حاضر بر اساس موارد فوق آن است که چالشهای تصمیمگیری اخلاقی بر اساس هوش مصنوعی در حسابداری و حسابرسی کدامند؟ در همین راستا این پژوهش یک توضیح جامع، علمی و در عین حال انتقادی از چالشهای اخلاقی بالقوه تصمیمگیری مبتنی بر هوش مصنوعی در حسابداری ارائه میدهد. با این کار، مقاله حاضر ضمن بررسی عمیقتر فرآیندهای تصمیمگیری مبتنی بر هوش مصنوعی و چالشهای اخلاقی مرتبط، به محققان کمک مینماید. در عین حال، این بحث به مدیران و سیاستگذاران، مبنایی جهت تصمیمگیری آگاهانه در مورد طرحهای سازمانی و نظارتی بالقوه برای آینده حسابداری و حسابرسی مبتنی بر هوش مصنوعی ارائه میدهد. روش تحقیق پژوهش حاضر ریشه در تحقیقات حسابداری تفسیری دارد. با توجه به ماهیت اجتماعی موضوع، این تحقیق بین رشتهای براساس الگوگیری از تحقیقات پنج محقق اصلی است که دارای سوابق آکادمیک و همچنین عملی در حسابداری، حسابرسی، جامعهشناسی و علوم اطلاعات هستند. ساختار مقاله در ادامه به شرح زیر است. پس از ارائه پیشینه ادبیات در مورد تصمیمگیری اخلاقی، ابتدا به صورت روایی (نیمه ساختاریافته) زمینههای تصمیمگیری مبتنی بر هوش مصنوعی مرتبط در مقالات علمی از سال 2015 تا 2020 بررسی و تفسیر میگردد و سپس چالشهای اخلاقی مرتبط که تاکنون شناسایی شده اند، بیان میشود. در ادامه، از این چالشها برای ارائه چارچوبی قوی درباره پیشایندهای اخلاقی تصمیمگیری اخلاقی، که شامل دیدگاه حالتهای شناختی، انسانهای درگیر و هوش مصنوعی است، استفاده میگردد. همانطور که همگان میدانند مدل چهار مؤلفهای اخلاقی رست به خوبی تثبیت شده است (رست[18]، 1986 و 1994)؛ در این راستا چالشهای شناسایی شده بر اساس مدل فوق ترسیم خواهد شد. مدل رست یکی از برجستهترین مدلها از نظر استفاده در تحقیقات حسابداری است (باود و همکاران[19]، 2019؛ لومباردی و همکاران[20]، 2015). این مدل به رفتار اخلاقی بهعنوان پیشنیاز برای تصمیمگیری اخلاقی نگاه میکند و بر سنتهای عقلانی استوار است و در عین حال، حالات شناختی بازیگران را نیز در نظر میگیرد. این امر به ویژه با اهمیت است زیرا انتظار داریم در آینده نزدیک شاهد همکاری بین انسان و هوش مصنوعی باشیم که ممکن است بهطور بالقوه منجر به رقابت بین شناخت عقلانی صرف و تفسیر اخلاقی مبتنی بر ارزش در میان بازیگران درگیر شود؛ برای مثال میتوان به زمانی که صحبت از سطوح اطمینان یا عدم قطعیت در مورد برخی سناریوها میشود اشاره نمود. در نهایت، مقاله با یک بحث انتقادی و هنجاری از یافتهها از نظر همکاریهای بالقوه انسان و ماشین در آینده به پایان میرسد که براساس آن، مفاهیم نظری، کاربردی و تحقیقاتی آینده پیشنهاد میشود.
2- مبانی نظری و پیشینه پژوهش 1.2. تصمیمگیری اخلاقی و هوش مصنوعی در حسابداری 1.1.2. پیشینه تصمیمگیری اخلاقی بهطور کلی، تصمیمگیری اخلاقی به فرآیندی اطلاق میشود که در آن افراد از قوانین اخلاقی شخصی خود برای تشخیص درست یا نادرست بودن یک عمل خاص استفاده میکنند. این فرآیند با زمینه های سازمانی و اجتماعی فرد درهمتنیدهاند. یک مسئله اخلاقی زمانی به وجود میآید که رفتار یک فرد به دیگران کمک کند یا به آنها آسیب برساند. عامل اخلاقی فردی است که وجود یک موضوع اخلاقی را تصدیق میکند و بر اساس قوانین اخلاقی شخصی خود عمل میکند. عواملی که یک تصمیم اخلاقی یا غیراخلاقی را تشکیل میدهند بین افراد، جوامع و محیطها متفاوت است. برای مثال اگر فرد حسابدار از اصول دینی پایینی برخوردار باشد، این عامل بر سطح اخلاقی وی تأثیرگذار است و مانع میشود تا شخص حسابدار گزارشات و صورتهای مالی را خارج از اصول حسابداری تهیه کند (خوشبخت و همکاران، 1401). در بحث حسابرسی نیز باتوجه به پیچیدگی تصمیمات حرفهای و توقعات ذینفعان واستفادهکنندگان خدمات حسابرسی، حسابرسان در بسیاری از موارد، میان وظایف اخلاقی، درتعارض قرار میگیرند. به عبارتی یک تصمیمگیری حرفهای، همواره برمبنای وظیفه اخلاقی نخواهد بود و ممکن است حسابرسان، در موقعیتهایی قرار گیرند، که هیچ گزینهای یافت نشود مگر اینکه یک وظیفه حرفهای نقض گردد (احمدزاده و یعقوبنژاد، 1401). تا کنون، دو رویکرد اصلی در ادبیات تصمیمگیری اخلاقی پدیدار شده است: سنتهای عقلانی (مرتبط با نتایج قابل اندازهگیری) و سنتهای شهودی (به رهبری یک اخلاق درونی). برای تطبیق هر دو سنت، زولو و همکاران، شهود اخلاقی را پیشرو در یک فرآیند تصمیمگیری اخلاقی میدانند که با استدلال اخلاقی منطقی آمیخته میشود و مفهوم synderesis[21] را به عنوان ظرفیت یا تمایل طبیعی انسانها معرفی میکند که به طور کلی به انسانها برای درک سادهای از آنچه میتواند خوب باشد، کمک میکند. با این حال، با معرفی بازیگران ماشینی، این جریان از تحقیقات ممکن است مفید نباشد، زیرا وجود یک وضعیت انسانی در هوش مصنوعی دقیقاً همان چیزی است که به جای فرض شدن باید مورد سوال قرار گیرد! علاوه بر این، با توجه به توانایی هوش مصنوعی برای انجام فرآیندهای شناختی پیچیده همراه با یادگیری و انطباق مستقل آن، مشخصاً هر چارچوبی برای درک تصمیمگیری اخلاقی مبتنی بر هوش مصنوعی باید شامل دیدگاهی در مورد حالات شناختی زیربنایی همه افراد دارای نقش در بازی باشد. یکی از برجستهترین مدلها در مورد فرآیندهای اخلاقی به عنوان مقدمه تصمیمگیری اخلاقی در ادبیات، مدل چهار مؤلفهای رست (1986، 1994) است. همانطور که در بالا توضیح داده شد این مدل ریشه در سنت عقلانی دارد، اما مستلزم آگاهی از حالات شناختی بازیگران است. این مدل فرض میکند که یک تصمیم اخلاقی زمانی حاصل میشود که افراد چهار فرآیند روانشناختی زیر را تکمیل کنند: (1) به آگاهی/حساسیت اخلاقی در مورد وجود یک موضوع اخلاقی دست مییابند، (2) قضاوت اخلاقی را در مورد مسئله اعمال میکنند تا تصمیم بگیرند که چه چیزی درست است، (3) ایجاد انگیزه اخلاقی و داشتن انگیزه اخلاقی برای رفتار اخلاقی و (4) توسعه شخصیت اخلاقی، یعنی قدرت، برای تبدیل قصد اخلاقی خود به رفتار اخلاقی مناسب. آگاهی اخلاقی اولین و مهمترین مؤلفه در فرآیند تصمیمگیری اخلاقی رست است زیرا تعیین میکند که آیا یک موقعیت حاوی محتوای اخلاقی است و میتواند از منظر اخلاقی مورد توجه قرار گیرد یا خیر. تصمیمگیرنده در این مرحله، همانطور که در مدل رست به آن اشاره شده است، نسبت به در نظر گرفتن دیگران و رفاه آنها "حساسیت" نشان میدهد. فقدان آگاهی اخلاقی میتواند منجر به تصمیمگیری غیراخلاقی به دلیل تأثیر سوگیری موقعیتی، فردی و انگیزشی شود. مک مانوس (2018) بحث میکند که چگونه غرور منجر به شکست افراد در نشان دادن آگاهی اخلاقی در تصمیمگیری میشود. قضاوت اخلاقی دومین مؤلفهای است که در آن تصمیمگیرنده در مورد یک موضوع اخلاقی مشخص شده، قضاوت اخلاقی میکند؛ یعنی درباره «آنچه از نظر اخلاقی صحیح تلقی میشود». تصمیمگیرنده در این مرحله نتایج "خوب" و "بد" را بدون توجه به علاقه شخصی ارزیابی میکند. بنابراین، او میتواند تصمیم بگیرد که «کدام روش از نظر اخلاقی توجیهپذیرتر است». انگیزه اخلاقی، مؤلفه سوم است که به دلیل نقش قوی منافع شخصی با قضاوت اخلاقی تفاوت دارد. قضاوت اخلاقی به دیگران اجازه میدهد تا نتایج تصمیمگیریهای مختلف را ارزیابی کنند. در مقابل، انگیزه اخلاقی و نیت اخلاقی ناشی از آن مبتنی بر «خود شخص» است، برای مثال با نگاه کردن به آسیبهایی که یک عمل اخلاقی صحیح ممکن است برای خود فرد ایجاد کند. بنابراین قصد اخلاقی به تمایل به عمل بر اساس قضاوت نیز مرتبط است. این شرایط ممکن است به اختلاف بین قضاوت و عمل منجر شود، چیزی که به خوبی در ادبیات داستانی در مورد هوش مصنوعی منعکس شده است؛ به عنوان مثال در "سه قانون رباتیک" آسیموف[22]، که در زیر خلاصه میشود:
در نهایت، شخصیت یا رفتار اخلاقی، جزء چهارم است که شامل استقرار و اجرای نیت اخلاقی قبلی است. با این حال، تبدیل انگیزه و نیت اخلاقی به شخصیت اخلاقی به چالشهای فردی و محیطی و عاملیت داده شده نیز بستگی دارد. چنین امکانی برای هوش مصنوعی در حسابداری شامل اعطای قدرت تصمیمگیری رسمی به سیستم حسابداری مبتنی بر هوش مصنوعی میشود و به اعتماد کسانی که توصیههای آن را دنبال میکنند، نیاز دارد. مدل چهار مؤلفهای رست به عنوان چارچوبی برای تصمیمگیری اخلاقی بهعنوان یک فرآیند، ساختاری اثباتشده را فراهم میکند تا تأثیر خاص چالشهای اخلاقی شناساییشده در آینده مبتنی بر هوش مصنوعی ارزیابی شود و تفکر هنجاری را در مورد آینده بالقوه همکاری انسان و ماشین در حسابداری هدایت کند.
2.1.2. دیدگاه ادبیات حسابداری و حسابرسی در مورد تصمیمگیری اخلاقی تصمیمگیری اخلاقی یک فرآیند درونی بسیار پیچیده است که از میان سایر عوامل شناخته و ناشناخته، تاحدی برانگیخته از باورهای اخلاقی تصمیمگیرنده است و همیشه خارج از قواعد برونسازمانی تجویزی قرار دارند، بنابراین بسترسازی اخلاقی بر پایه رویکرد وظیفهشناسی صرف، نمیتواند بایستههای ظهور و بروز رفتار اخلاقی را فراهم کنند. در حرفه حسابداری و حسابرسی، متغیرهای بسیاری ازجمله فرهنگ سازمانی، رهبری اخلاقی و عضویتهای رسمی در نهادهای حرفهای بر تصمیمگیری اخلاقی اثرگذار هستند (نوشفر و همکاران، 1401). در حوزه سسیتمهای مدیریت و حسابداری، تصمیمگیری اخلاقی فرد تحت تأثیر یکسری شرایط علی (شرایط اقتصادی و اجتماعی، تورشهای ذهنی و شناختی، تحصیلات دانشگاهی، خصوصیات فردی و اجتماعی و فرهنگ سازمانی) قرار دارد و به واسطه راهبردهایی همچون (ابزارهای نظارتی، اصلاح فرهنگی، تدوین آییننامههای اخلاقی و برگزاری کارگاههای آموزش اخالق حرفهای) میتواند منجر به ایجاد افزایش اعتماد اجتماعی، رعایت اصول اخالق حرفهای در محیط کار و رشد و توسعه مالی شود. در این جریان برخی مؤلفههای زمینهای ازجمله (فرهنگ اخلاقی جامعه و محیط حسابداری) و برخی متغیرهای مداخلهگر همانند (ویژگیهای جمعیتشناختی و نوع سازمان) نقش ایفا میکنند (حسینزاده و همکاران، 1401). در حیطه هوش مصنوعی، گونگ[23] (2016) در بررسی کتاب انتقادی خود بر تصمیمگیری اخلاقی در حسابداری تمرکز مینماید. وی پیشنهاد میکند که بازیگران و پیچیدگی تعاملات آنها، منبع اصلی معضلات اخلاقی است و این پیچیدگی با اضافه شدن همکاران رباتیک هوشمند مبتنی بر هوش مصنوعی به عنوان بازیگرانی با درجات مختلف توانایی (یعنی قدرت توافق شده) تشدید خواهد شد. از این رو، با نگاهی به بینشهای اخیر دیلارد و ویناری[24] (2019) در مورد مسئولیتپذیری و گفتوگوی انتقادی به این سناریوی تعاملات ربات-انسان، میتواند جالب باشد که مشخص کنیم بازیگران مسئول چه کسانی هستند و یا چه کسانی میتوانند باشند. برای افزودن بُعد دیگری، مارتین (2019) بر الگوریتمهای پیچیدهای که در یادگیری ماشینی بهعنوان پایه و اساس همه بازیگران هوش مصنوعی مورد استفاده قرار میگیرند، تمرکز نمود. این الگوریتمها (کلاگ و همکاران، 2020) ذاتاً دارای ارزش هستند و بر اساس اصول اخلاقی، پیامدهای اخلاقی مثبت و منفی ایجاد میکنند (مارتین، 2019). مارتین (2019) پیشتر یک بررسی جامع در مورد توسعهدهندگان نرمافزار به عنوان تولیدکنندگان این الگوریتمها انجام و مسئولیت پاسخگویی آنها را مورد بحث قرار داد. مفهوم اصلی الگوریتمهای مبتنی بر هوش مصنوعی به این معنی است که آنها بهطور مستقل از خود دادههای موجود یاد میگیرند و از قوانین از پیش تعریف شده پیروی نمیکنند (لیندباوم و همکاران، 2020). بنابراین، دادهها «سوخت» و همینطور منبع بالقوه سوگیری الگوریتمها هستند و لذا باید در طول آموزش و کاربرد، بلادرنگ، دقیق و معنادار باشند. جراحی (2018) در بررسی مفاهیم اخلاقی هوش مصنوعی در حسابرسی، بین سه گام همکاری انسان و ماشین با موضوعات اخلاقی مرتبط، تمایز قائل میشوند. اولین مرحله پیادهسازی هوش مصنوعی، هوش مصنوعی کمکی نامیده میشود که برای «حمایت از انسان در انجام اقدامات» طراحی شده است. هوش مصنوعی افزوده، دومین مرحله است که در آن بخشهایی از فرآیند تصمیمگیری توسط هوش مصنوعی مدیریت میشود (لوسبیچنر و لنر[25]، 2021). گام سوم، البته در آیندهای دورتر، هوش مصنوعی مستقل (یا قوی) است، که در آن هوش مصنوعی تصمیم میگیرد کدام دادهها را برای تصمیمگیری استفاده نماید و همچنین به او برای اجرای تصمیمها اعتماد میشود (لهنر و همکاران، 2021). هر یک از این سناریوها سطح نمایندگی متفاوتی را برای هوش مصنوعی نشان میدهند و بنابراین با برخی از اجزای مدل رست، کم و بیش مرتبط خواهند شد.
روش پژوهش حاضر مبتنی بر روش کیفی هرمنوتیک[26] و پژوهشهای حسابداری تفسیری است و براساس مرور ادبیات شکل گرفته است. تفسیر مطالعه حاضر از ادبیات از چرخه هرمنوتیکی پیروی میکند که در آن خواننده و دادهها به نوعی با هم درگیر میشوند. در این میان، دانش قبلی محققین نقش کلیدی دارد و برای استخراج معنا از متن حائز اهمیت است. تیم اجرایی کار با توجه به موضوع پژوهش و همچنین نوع روش تحقیق کیفی مورد اشاره میبایست از چند علم مرتبط باشند. لذا محققان پژوهش حاضر متخصص در علوم اقتصاد، فناوری اطلاعات و حسابداری هستند. سنت هرمنوتیک، نگرش انتقادی و انعکاسی را برای شناسایی پیش مفهومسازیها و ایدئولوژیهای ناخواسته و آگاهی از انتقالهای درونی به پیکربندیها و در نهایت به پیکربندیهای مجدد بر روی متون اضافی میطلبد. بنابراین، مقالههای بررسی شده در پژوهش حاضر برای بیان داستان نیستند، بلکه برای القا روایت در مورد چالشهای اخلاقی با ارائه زمینهها و بینشهایی هستند که میتوان از این طریق شناسایی نمود. علاوه بر این، با وجود تلاش صورت گرفته برای دستیابی به نوعی اعتبار کیفی (از طریق معیارهای قابلیت اطمینان بین کدگذاریها)، نمیتوان ادعا نمود که نوعی حقیقت یا آزمون جهان شمول از پرسوجوهای انجام شده استخراج گردیده است، بلکه به طور عملی بینشها در پژوهش حاضر استخراج میگردد و بر تحقیقات آینده حسابداری از زوایای مختلف تأثیر میگذارد.
1.3. نحوه گردآوری دادهها برای شناسایی چالشهای اخلاقی، از پیشنهادات پارکر و نورثکات[27] (2016) و اسنایدر[28] (2019) پیروی شده و مرور ادبیات روایی آگاهانه انجام شده که بهطور نیمه ساختاریافته یک موضوع را از طریق تفسیر، ترکیب میکند. رویکرد مرور نیمه ساختاریافته یا «روایی» برای «موضوعاتی طراحی شده است که بهطور متفاوتی مفهومسازی شده و توسط گروههای مختلفی از محققان در رشتههای گوناگون مورد مطالعه قرار گرفتهاند». در پژوهش حاضر ابتدا، مجلات معتبر و شاخص بینالمللی از سال 2015 تا 2020 در زمینههای حسابداری و حسابرسی، اقتصاد، مالی و همچنین علوم اطلاعات و مدیریت عمومی (از جمله اخلاق کسب و کار) که دارای محتوای مرتبط با حسابداری بودند مورد جستجو قرار گرفته و منجر به یافتن 148 مجله شد. سپس، از پایگاه داده اسکوپوس و ساینس دایرکت برای جستجوی عناوین و چکیدهها در مجلاتی که قبلاً شناسایی شدهاند، با استفاده از کلمات کلیدی زیر استفاده گردید.
همچنین به طور متناوب عبارت "هوش مصنوعی" با عبارات زیر و مؤلفههای آنها در جستجوهای بعدی جایگزین شدند:
این جستجوی اولیه 2969 مقاله از مجلات مختلف ازجمله موارد تکراری به دلیل همپوشانی عبارات جستجو را به دنبال داشت. سپس، مقالات تکراری حذف شدند و 2472 مقاله باقی ماند و نمونه اولیه را تشکیل داد. مطابق با ماهیت بررسی نیمه ساختاریافته که هدف آن درک و بینشهای غنی به جای کامل بودن یا مرزبندی روشن است، تعداد مقالاتِ تا حدودی مرتبط به تعداد قابل مدیریتتری کاهش یافت. این کار در دو مرحله انجام شد: ابتدا با خواندن تفسیری چکیدهها، مقالههای نامربوط برای یافتن بیشتر چالشهای اخلاقی در موقعیتهای تصمیمگیری در ترکیب با فنآوریهای ذکر شده در بالا فیلتر شدند. این تحلیل تفسیری، نمونه را به 609 مقاله کاهش داد. در مرحله دوم، مقدمه، بحث و نتیجهگیری مقالههای باقیمانده ارزیابی شد تا مشخص گردد کدامیک بینش عمیقتری در مورد فرآیندها و موقعیتهای تصمیمگیری اخلاقی ارائه میدهند. نهایتا 482 مقاله دیگر نیز کنار گذاشته شد؛ زیرا بحثها یا موارد واقعی برخی از اشکال تصمیمگیری با کمک هوش مصنوعی یا کلان دادهها را ارائه نمیدادند. همزمان، 11 مقاله خارج از نمونه اولیه اضافه گردید که این مقالات به کرات مورد استناد (بر اساس گوگل اسکالر) قرار گرفته بودند و بینشهای بیشتر و عمیقتری را ارائه مینمودند. این فرآیند کاهش دو مرحلهای، نهایتاً منجر به انتخاب 138 مقاله به طور خلاصه به این صورت بود که مجدداً اشاره میگردد: نمونه ابتدایی شامل 2472 مقاله، سپس رسیدن به 609 مقاله (با کنار گذاشتن 1863 مقاله) و نهایتا نمونه نهایی شامل 138 مقاله (با حذف 482 مقاله و اضافه کردن 11 مقاله). در این راستا در جدول 1 فهرستی از همه مجلات و تعداد مقالات ارائه شدهاند.
جدول 1. فهرست مجلات و مقالات مورد بررسی (نمونه آماری)
منبع: یافتههای پژوهشگر
2.3. ارزیابی دادهها پژوهش حاضر از رویکرد تفسیرگرایانه برای تحلیل موضوع پیروی مینماید. این رویکرد الگوهای داده را به عنوان داستان یا «واحدهای معنادار» شناسایی میکند. به عبارت دیگر، تجزیه و تحلیلها به جای مقایسه گزارشهای فردی، بر شناسایی شباهتها و تفاوتها و الگوهای حاصل در روایت موقعیتهای موجود در مقالات متمرکز است. هدف این است که موقعیتها و فرآیندهای ترسیم شده را با جزئیات از نظر ارتباط تصمیمگیری اخلاقی در آنها تجزیه و تحلیل نمود. از 138 مقاله که تفکیک موضوعی آن در جدول 2 ارائه گردیده است، 1671 واحد معنیدار با استفاده از کدگذاری استخراج شد. این واحدهای معنادار معمولاً شامل یک یا چند جمله مرتبط هستند که با یک موقعیت یا فرآیند خاص سروکار دارند و به وضوح به هم مرتبط هستند.
جدول 2. تفکیک موضوعی مقالات مورد بررسی
منبع: یافتههای پژوهشگر
لازم به ذکر است که در این مرحله ممکن است قضاوت محققین و تجربیات قبلی به شدت بر چنین تحقیقاتی تأثیر بگذارد. بنابراین، از چندین معیار برای افزایش اعتبار کیفی این مطالعه استفاده شد که کنترلها و تعادلهای مختلفی را شامل میشد (پارکر و نورثکات، 2016). هر موضوع مورد مناقشه، مطرح و مورد بحث قرار گرفت تا زمانی که پژوهشگران مقاله حاضر به کدگذاری واحد دست یابند. این خواندن و کدنویسی توسط تمام محققین برای افزایش قابلیت اطمینان ضروری بود. بنابراین، این روش تجزیه و تحلیل دادهها شامل تفسیر مشترک عبارات و تجلی هوش مصنوعی در موقعیتهای تصمیمگیری مختلف کدگذاری شد. 1671 واحد معنیدار به صورت استنتاجی کدگذاری شدند که برآیند آن منجر به 238 کد مرتبه اول شد. این کدها سپس به 50 کد مرتبه دوم جامعتر و انتزاعیتر کاهش داده شدند، زیرا به تدریج درک جامعتری از ماهیت کدهای مرتبه اول ایجاد شد. در نهایت، کدهای مرتبه دوم بر اساس ماهیت آنها در پنج چالش بیطرفی (عینیت)، حریم خصوصی، شفافیت، مسئولیتپذیری و قابل اعتماد بودن به عنوان مضامین سطح بالای استنتاج، تبدیل شدند. در جدول 3 دو نمونه از کدگذاریها ارائه گردیده است.
جدول 3. نمونهای از واحدهای معنیدار و مراحل کدگذاری برای تشخیص چالشها
منبع: یافتههای پژوهشگر
پنج چالش شناسایی شده و برآیند کدگذاریها در اختیار 5 تن از اعضای هیأت علمی صاحب نظر حسابداری، مالی، اقتصاد، فناوری اطلاعات و مدیریت اخلاق نیز قرار داده شد تا از دیدگاه انتقادی مورد بررسی قرار گیرد. با استفاده از این موقعیتهای یافت شده و چالشهای شناساییشده در آنها، سپس این موضوع مطرح شد که فرآیند تصمیمگیری اخلاقی در این موارد چگونه خواهد بود، و چگونه، چه زمانی و چرا، چالشهای شناساییشده آن را مهار میکند. برای این کار، این چالشها در چارچوب انتخابی خود از چهار مؤلفه مدل فرآیند رست ترسیم شدند تا یک مبنای تئوری قوی برای بحث فراهم شود و ساختاری کاملاً تثبیت شده از فرآیندها و پیشایندهای تصمیمگیری اخلاقی ایجاد گردد. بنابراین، در حالی که چالشها بهطور استقرایی از طریق تفسیر و تجمیع واحدهای معنیدار کدگذاریشده (کدهای مرتبه دوم به مضامین) تکامل یافتند، سپس به اجزای فردی تصمیمگیری اخلاقی متصل شده و سناریوهای متفاوتی از همکاری انسان و ماشین بر اساس دادهها مورد بحث قرار گرفتند.
بیطرفی و مشکلات سوگیری، مشکل برجسته و پر تکرار در یافتهها در هنگام تصمیمگیری بود. به عنوان مثال سان[29] (2019) در مورد کاربرد یادگیری عمیق در روشهای حسابرسی برای شناسایی اطلاعات و چالشهای آن، بر اساس سوگیری و ساختارهای داده بسیار پیچیده مینویسد. لیچت دیبالدت و همکاران[30] (2019) نیز دریافتند که در استفاده از هوش مصنوعی در ارزیابی شغل و درخواستهای وام، شواهد فراوانی از تبعیض وجود دارد. با نگاهی عمیق به زمینههای موجود در مقالات فوق، الگوریتمهای زیربنایی هوش مصنوعی و کلان دادهها بهعنوان عوامل مؤثر در اکثر چالشهای اخلاقی برای تصمیمگیریهای مبتنی بر هوش مصنوعی شناسایی شدند. برای مثال، این الگوریتمها برای پردازش وامهای افراد، هشدار در مورد از دست دادن اعتبار بالقوه و شناسایی الگوهای پرداخت استفاده میشوند. با این حال، این الگوریتمها خروجی کار انسان هستند و از دادههای ارائهشده از گذشته، ناشی و توسط انسانها انتخاب میشوند و از این رو پتانسیل سوگیری را دارند. در نتیجه، به جای پرسیدن اینکه آیا هوش مصنوعی میتواند بی طرف باشد، باید بپرسیم: چگونه انسانها میتوانند الگوریتمهای بی طرف بسازند؟ آیا دادههایی که الگوریتمها را تغذیه میکنند عاری از سوگیری ذاتی هستند؟ آموزش سیستم هوش مصنوعی برای نادیده گرفتن نژاد، جنسیت و گرایش جنسی و اتخاذ تصمیمات استقراضی بر اساس اطلاعات دیگر امکانپذیر است. با این حال، چنین سیستمی تنها با کمک و آگاهی اخلاقی متخصصان انسانی که سیستمهای هوش مصنوعی را ایجاد و آموزش میدهند، میسر میشود. بنابراین، چالش بیطرفی عمدتاً مؤلفه دوم و سوم مدل رست را تحت تأثیر قرار میدهد: یعنی قضاوت اخلاقی و انگیزه اخلاقی. زیرا با توجه به اطلاعات یا الگوریتمهای مغرضانه، هر دو اشتباه خواهند بود. بر این اساس باید مثلاً از طریق دستورالعملهای روشن و ایجاد آگاهی برای توسعهدهندگان و کارمندان، سعی در حل مشکل نمود. از سوی دیگر، هوش مصنوعی میتواند فرصتهایی را برای غلبه بر تعصبات انسانی فراهم کند؛ مثلاً داوقرتیت و همکاران[31] (2019) میگویند: «اگر برنامههای نرمافزاری میتوانستند نابرابریهایی را که دسترسی اقلیتها به وامهای مسکن و سایر وامها را محدود میکرد حساب کنند، چه؟ به عبارت دیگر، اگر به سیستمهای ما آموزش داده شود که دادههای مربوط به نژاد، جنسیت، گرایش جنسی، و سایر ویژگیهایی را که به تصمیمهای مورد نظر مرتبط نیستند نادیده بگیرد، چه میشود»؟
حریم خصوصی و مشکلات مربوط به حفاظت از دادهها یکی دیگر از چالشهای کلیدی مرتبط با اتخاذ تصمیمگیری مبتنی بر هوش مصنوعی در یک محیط حسابداری است (مارتین، 2019). این چالش یکی از برجستهترین نگرانیهای اخلاقی به دلیل افزایش سریع و تا حد زیادی غیرقانونی برای استفاده در سیستمهای مبتنی بر هوش مصنوعی در کلان دادهها است. همانطور که هوش مصنوعی تکامل مییابد و منابع دادههای خود را بهطور مستقل انتخاب میکند، استفاده از اطلاعات شخصی آن به سطح جدیدی از قدرت و سرعت دست مییابد که ممکن است به راحتی توسط کاربران قابل درک و یا شفاف نباشد. به عنوان مثال، مارتین (2019) با مفهومسازی موضوع فوق میگوید: «نتایج نشان میدهد که مصرفکنندگان حتی پس از افشای اطلاعات، انتظارات حفظ حریم خصوصی خود را دارند. نقض حریم خصوصی مانند نقض امنیت در ایجاد بی اعتمادی به شرکتها و عدم تمایل مصرف کننده به تعامل با شرکتها ارزشگذاری میشود». تحقیقات در مورد حریم خصوصی در زمینه هوش مصنوعی، محدود است؛ زیرا محققان عمدتاً بر حریم خصوصی و نقض دادهها بهطور کلی تمرکز کردهاند. در زمینه خاص حسابداری و حسابرسی، به عنوان مثال، گپ و همکاران[32] (2018) در مورد تکنیکهای کلان داده در حسابرسی تئوری و عمل مینویسند و روندهای فعلی و فرصتهای آینده را بررسی میکنند. وقتی صحبت از حریم خصوصی و حفاظت از دادهها میشود، بلاکچینها با توجه به ذخیره دادههای آن در یک دفتر کل ایمن و توزیع شده، اغلب به عنوان یک نوآوری حسابداری و حسابرسی در نظر گرفته میشوند. بلاکچین، ذخیرهسازی رمزگذاری شده ضد دستکاری دادهها را فراهم میکند که امکان ردیابی افرادی که دادهها را وارد کرده و تغییر دادهاند میسر میشود. چنین قابلیت ردیابی برای حسابرسی و ایجاد شفافیت برای دادههای ذخیره شده و همچنین برای ایجاد اعتماد مهم است. این فناوریها ممکن است به طور قابل توجهی دید مالی را بهبود بخشند و به دلیل ماهیت دائمی حسابداری، اجازه مداخله به موقع را میدهند. با این حال، برخلاف حفاظت از دادهها، تأثیر اسناد افشا شده برای جلوگیری از فعالیتهای متقلبانه نباید دست کم گرفته شود؛ همانطور که برخی محققان در زمینه منافع نفتی ایالات متحده در نیجریه، بررسیهایی را نمودند. علاوه بر این، وست[33] (2019) اصطلاح «سرمایهداری دادهها» را پیشنهاد میکند و بررسی میکند که چگونه نظارت و منطق حفظ حریم خصوصی، در حال حاضر بهنوعی دیگر تعریف میشوند. او میگوید: «سرمایهداری دادهها، سیستمی است که در آن کالاییسازی دادههای ما امکان توزیع مجدد نامتقارن قدرت را فراهم میکند که نسبت به بازیگرانی که دسترسی دارند و توانایی درک اطلاعات را دارند وزن میشود». بنابراین چالش حریم خصوصی با مؤلفه سوم در مدل رست، یعنی انگیزه اخلاقی، تداخل دارد، زیرا شامل نقض عمدی و غیرعمدی است. انتقادات گسترده نسبت به مقررات کم یا بیش از حد حفاظت از دادهها در اقصی نقاط جهان وجود دارد. برای مثال مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) را میتوان به عنوان یک شاخص خوب برای دشواری کار سیاستمداران و کارشناسان در نظر گرفت. همچنین پیشبینی توسعه مدلهای تجاری دیجیتال، مبتنی بر داده و هوش مصنوعی مانند مدلهایی که در فینتکها استفاده میشوند. در ایالات متحده نیز، هیچ مقررات مشابهی در مورد حفاظت از دادهها وجود ندارد، به جز برخی موارد در قانون حفظ حریم خصوصی مصرفکنندگان کالیفرنیا 2020 و قانون پاسخگویی الگوریتمی پیشنهادی. همچنین در استرالیا، قانون حفظ حریم خصوصی استرالیا 1988 با GDPR قابل مقایسه است. ماده 22 GDPR به انسان حق مداخله در هنگام تصمیمگیری را اعطا میکند. به عبارت دیگر، افراد حق دارند از یک انسان بخواهند که تصمیمگیری هوش مصنوعی را بررسی کند تا مشخص شود که آیا سیستم اشتباه کرده است یا خیر. این موضوع یک تعهد قانونی را بر عهده کسب و کار میگذارد تا بتواند چنین قضاوتی را انجام دهد که قدرمسلم مستلزم توضیحپذیری تصمیمات مبتنی بر هوش مصنوعی است. چنین قضاوتهایی به قابلیت ردیابی عوامل مؤثر بر تصمیم و همچنین شفافیت در مورد عملکرد درونی الگوریتمهای پشت تصمیمات نیاز دارند. دامنه گسترده و تأثیر این شفافیت خواسته شده در ادامه مورد بحث قرار میگیرد.
شفافیت به عنوان چالشی برای تصمیمگیری مبتنی بر هوش مصنوعی، اغلب فقط بهطور غیرمستقیم در سناریوها مشهود میشود. یکی از دلایل این امر میتواند ماهیت و دامنه شفافیت باشد. در این موارد، شفافیت اغلب تنها به عنوان یک شرط مرزی مهم برای مفاهیم دیگری مانند اعتماد یا پاسخگویی توصیف میشود. برای مثال، برخی محققان نقش شفافیت را در تسهیل اعتماد و اطمینان در هوش مصنوعی بررسی میکنند. علاوه بر شفافیت دادهها در مورد جمعآوری، ایجاد، دستکاری و استفاده از آن، مقالات اجازه میدهند تا مشکل عمده دیگری شناسایی شود و آن این است که الگوریتمها و در نتیجه تصمیمات حاصله، اغلب شفاف و قابل توضیح نیستند. شبکههای عصبی بهعنوان ستون فقرات هوش مصنوعی اغلب بهعنوان جعبههای سیاه بر اساس کدها و ساختارهای اختصاصی شناسایی میشوند که شرکتهای فناوری تمایلی برای به اشتراک گذاشتن آنها با مردم ندارند. این شبکههای عصبی مصنوعی شامل الگوریتمهای الهامگرفتهشده از بیولوژی هستند که بهطور آزاد از روی ذهن انسان برای یادگیری عمیق مدلسازی شدهاند (سان، 2019). یادگیری تقویتی به این معنی است که هوش مصنوعی از نتایج، در مقایسه با پیشبینیهای خود، یاد میگیرد. بنابراین، یک هوش مصنوعی مبتنی بر شبکه عصبی و یادگیری عمیق بهطور مداوم رفتار خود را بر اساس پاسخهای محیطی تطبیق داده و تغییر میدهد. با این حال، چنین تأثیرات محیطی بسیار پیچیده و تا حدی تصادفی هستند؛ لذا رفتار هوش مصنوعی را نمیتوان قطعی و شفاف دید. عدم شفافیت هوش مصنوعی، کشف هرگونه سوگیری بالقوه را دشوار میکند. بنابراین هوش مصنوعی، برای تصمیمگیری در مورد منبع سوگیری شناسایی شده، نیاز به نظارت و ردیابی دائمی دارد. شرکتهای فناوری پس از چندین رسوایی، بهطور فزایندهای از این موضوع آگاه شدهاند. در نتیجه، این شرکتها مانند گوگل، اخیراً ویدئوها و مطالبی را برای افزایش آگاهی در مورد عدم شفافیت در الگوریتمها منتشر کردهاند (لیچت دیبالدت و همکاران، 2019). علاوه بر این، استانداردهای حسابرسی اغلب ایجاب میکنند که حسابرس بر اساس تصمیمات حسابداری و سیستم اطلاعات حسابرسی، مسئول شکست حسابرسی باشد. این وضعیت علاوه بر بحث شفافیت، بر بحث ردیابی و حسابرسی الگوریتمهای تصمیمگیری که هوش مصنوعی آن را فراهم میکند، تأکید میکند. با این حال، حتی اگر چنین قابلیت ردیابی از نظر فنی قابل دستیابی باشد، از آنجایی که ممکن است برای اکثر متخصصان ازجمله حسابرسان به آسانی قابل توضیح یا درک نباشد، باز هم کاربرد محدودی خواهد داشت. در نتیجه، دانش مفاهیم اساسی الگوریتمهای هوش مصنوعی، سناریوهای استفاده از آنها و محدودیتهای آنها برای اطمینان از توضیحپذیری و در نتیجه شفافیت الگوریتمها مورد نیاز است. با این حال، در مورد الگوریتمها، حتی توسعهدهندگان نرمافزار به دلیل کدهای بسیار پیچیدهای که در طول زمان و در تیمهای مختلف انباشته شده است، با مشکل مواجه هستند. از سوی دیگر تقاضا و سطح شفافیت بین موارد مختلف، متفاوت است؛ به عنوان مثال، شفافیت مورد نیاز برای مسئولیت اجتماعی شرکت با الگوریتمی که تصمیم میگیرد تبلیغات را در کجا قرار دهد، متفاوت است (البو و فلایوربوم[34]، 2016). در نهایت، آگاهی از این واقعیت مهم است که اگر تمام فرآیندهای درگیر در تصمیمات یک الگوریتم شفاف شوند، افراد میتوانند به راحتی الگوریتمها را بر اساس آن دستکاری کنند و بهویژه بر دادههای وارد شده به الگوریتم تأثیر میگذارند تا نتایج «مطلوب» حاصل شود. بنابراین شفافیت بهعنوان یک چالش با بسیاری از مؤلفههای مدل رست مرتبط است، زیرا میتوان آن را پیش نیازی برای دستیابی به آگاهی اخلاقی دانست و دیگران را از ارزیابی پیامدهای تصمیمگیری که برای انگیزه اخلاقی ضروری است، باز میدارد. همچنین همانطور که در بخش بعدی مورد بحث قرار میگیرد، میتوان آن را به عنوان عامل مهمی برای مسئولیتپذیری و قابل اعتماد بودن دانست؛ لذا بر شخصیت (رفتار) اخلاقی نیز تأثیر خواهد گذاشت.
پاسخگویی در ادبیات حسابداری و حسابرسی به کرات مورد بررسی قرار گرفته است. برای مثال ببینگتون و همکاران (2019) حسابداری و پاسخگویی را مورد بررسی قرار میدهد که چگونه انواع مختلف پاسخگویی (فرآیند یا نتیجه) بر رویههای جستجوی اطلاعات و متعاقباً بر کیفیت تصمیمگیری تأثیر میگذارند. علاوه بر این، برخی محققان در مورد اینکه چگونه حسابداری و پاسخگویی میتواند دموکراسی تکثرگرا را ارتقا دهد، بحث میکنند که تفاوتهای قدرت و باورها را نمایان میکند. هنگامی که توسعهدهندگان نرمافزار و دانشمندان کامپیوتر، الگوریتمی را طراحی میکنند، تفویض مسئولیت در فرآیند تصمیمگیری را نیز طراحی میکنند. گاهی اوقات الگوریتمها به گونهای طراحی میشوند که افراد را از مسئولیتهایشان جدا میکنند، زیرا از ایفای نقش فعال کارمندان در فرآیند تصمیمگیری جلوگیری مینماید. بنابراین، الگوریتمها غیرقابل بررسی و مستقل بوده و کمتر دخالت انسانی دارند؛ لذا مسئولیتپذیری زیادی را متوجه طراحان خود میکنند. علاوه بر این اگر یک الگوریتم، بسیار پیچیده و درک آن دشوار باشد، آنکه ارائه دهنده هوش مصنوعی است به جای مدیریت و حسابرسان، مسئول خواهد بود (مانوکو و همکاران، 2020). این استدلال که الگوریتمها و کلان دادهها برای توضیح پیچیده هستند و اغلب درک ناقصی دارند، نافی مسئولیتپذیری سازمان و فرد و استفاده مناسب آنها از دادهها نمیباشد. در غیر این صورت، شرکتها انگیزه ایجاد سیستمهای پیچیدهای را خواهند داشت که به آنها کمک میکند از پاسخگویی اجتناب کنند (مارتین، 2019). علاوه بر این، مشاهده میشود که حتی طراحان الگوریتم اغلب نمیتوانند توضیح دهند که یک سیستم پیچیده در عمل چگونه کار میکند یا کدام بخش از الگوریتم برای عملکرد آن ضروری است. بررسی متقابل سیستمهای انسان و ماشین به فرد اجازه میدهد که آنها را به عنوان پدیدههای اجتماعی و مادی تلقی کنیم (اورلیکوفسکی و اسکات[35]، 2008) که حاوی پیچیدگی نیستند، اما با اتصال به مجموعههای انسانی و غیرانسانی، پیچیدگی ایجاد میکنند. درک این موضوع که مسئولیت انسان به استفاده از الگوریتمهای هوش مصنوعی محدود نمیشود، میتواند به عنوان اولین گام در جهت ارتقای سیستمهای مبتنی بر هوش مصنوعی اخلاقی در نظر گرفته شود. تأثیرات انسانی متعددی در الگوریتمها گنجانده شده است، از جمله انتخاب معیارهای حسابرسان، انتخاب دادههای آموزشی، معناشناسی و تفسیر بصری فزاینده. بنابراین، پاسخگویی یک الگوریتم مبتنی بر اخلاق، باید الگوریتم را به عنوان اهداف خلقت و تعامل انسان و نیت اخلاقی، ازجمله هدف هر گروه یا فرآیندهای نهادی که ممکن است بر طراحی الگوریتم یا خوراک داده تأثیر بگذارد، در نظر بگیرد. در نهایت، زمانی که آنها خروجیهای الگوریتمی را در جریان تصمیمگیریهای سطح بالاتر تفسیر میکنند، تأثیر بازیگران انسانی (از جمله تفاوت قدرت) نیز باید در نظر گرفته شود. این موضوع همچنین به معنای تمرکز بر هماهنگی مسئولیتها بین حسابداران/حسابرسان و متخصصان است و باید به شدت در «حکمرانی خوب» این فناوریها گنجانده شود. به عنوان مثال، چالشهای حاکمیت خوب مانند: «مسئولیت در قبال مالکیت دادهها، یکپارچگی یا حریم خصوصی دادهها در مورد ارزیابی عملکرد و اطمینان از چنین دادههایی بسیار اهمیت دارد». در حالی که در ساختارهای سازمانی سنتی، فرد به خوبی با مسئولیتپذیری ارتباط دارد، به نظر میرسد این موضوع در زمینه تصمیمگیری مبتنی بر هوش مصنوعی به مراتب، کمتر واضح باشد. بنابراین، چالش پاسخگویی بر مؤلفههای اول، سوم و چهارم مدل رست تأثیر میگذارد. اول، آگاهی اخلاقی باید توسط انسانها اجرا شود، بنابراین برای هر تصمیمگیری اخلاقی، ابتدا باید از پاسخگویی برای توسعهدهندگان الگوریتمها و ارائهدهندگان داده اطمینان حاصل کنیم. دوم، از آنجایی که منافع شخصی عموماً تحت تأثیر سطح مسئولیتپذیری قرار میگیرد، بر انگیزه اخلاقی در تعاملات انسان و ماشین تأثیر میگذارد. سوم، تصمیمگیری در هوش مصنوعی مبتنی بر هر سه عامل است: 1- الگوریتمهای ساخت بشر که در هوش مصنوعی اعمال میشوند و بخشی از آن توسط انسان ارائه میشود، 2- تا حدی دادههای انتخابشده توسط هوش مصنوعی بهعنوان پایه، 3- تفویض و توزیع نمایندگی بین انسان و هوش مصنوعی طبق تصمیم انسانها. هر درخواست هنجاری برای رفتار اخلاقی باید مسئولیتپذیری را بهعنوان ریشه در تعامل پیچیده بین بازیگران مختلف درگیر درک کند و تصمیمگیری هوش مصنوعی را در یک سیستم اجتماعی و مادی ببیند.
اعتماد بهطور کلی به عنوان تمایل یک فرد برای آسیبپذیر بودن در برابر شخص دیگری تعریف میشود (مارتین، 2019). اعتماد همچنین به شدت با کنترل مرتبط است، به عبارت دیگر با «مکانیزمهایی که توسط افراد و سازمانها برای مشخص کردن، اندازهگیری، نظارت و ارزیابی کار دیگران استفاده میشود و روشهایی که آنها را به سمت دستیابی به اهداف مورد نظر هدایت میکند» (لانگ و سیتکین[36]، 2018). در حسابداری و حسابرسی، اعتماد در سه سطح مورد بررسی قرار گرفته است: تمایل عمومی یک فرد، اعتماد به یک شرکت خاص و اعتماد نهادی در یک بازار یا جامعه (گلیکسون و وولی[37]، 2020). مفهوم و طراحی فناوری، ارتباطات پیرامونی و زمینه شرکتهایی که از فناوری استفاده میکنند، میتواند بر درک کاربران از قابل اعتماد بودن آن تأثیر بگذارد. برخی از طرحها ممکن است با استفاده از روشهای خاصی مشتریان را ترغیب کنند که بیش از حد به یک فناوری خاص در تعامل خود با سیستم اعتماد کنند. مارتین (2019) بیان میکنند که این سناریو را میتوان چهارمین سطح اعتماد در نظر گرفت. قابلیت اعتماد در هوش مصنوعی فقط به این معنی نیست که یک سیستم یا فرآیند تصمیمگیری بیان میکند که چه انجام خواهد داد (یکپارچگی، توانایی)، بلکه در مورد اعتماد به این است که اگر فرآیند سیستم قابل درک نیز نباشد، همچنان آن کار انجام خواهد شد. علاوه بر این، همانطور که گلیکسون و وولی (2020) اشاره میکنند: کاربران همیشه از پیچیدگی فناوری واقعی هوش مصنوعی آگاه نیستند. در حالی که در برخی موارد ماشینهای بسیار هوشمند با تمام ظرفیت خود عمل میکنند، در برخی دیگر ممکن است این قابلیت به طور کامل در رفتار آنها آشکار نباشد. قابل اعتماد بودن و اعتماد متناظر آن به دلیل ریسک این روابط و پیچیدگی و غیر قطعی بودن رفتار هوش مصنوعی، بسیار مرتبط با روابط انسان و هوش مصنوعی دیده میشود. الگوریتم در ابتدا توسط انسان طراحی میشود؛ اما سیستمهای هوش مصنوعی که به تنهایی یاد میگیرند به صراحت تحت هیچ راهنمایی اخلاقی آموزش داده نمیشوند. کارشناسان حسابداری که از هوش مصنوعی استفاده میکنند اغلب چارهای جز اعتماد به این سیستمها ندارند. به طور معمول، واحد اساسی اعتماد بین انسانها، ظاهر فیزیکی است. با این حال، با توجه به اینکه هوش مصنوعی نامشهود است، تعبیه هوش مصنوعی نقش مهمی در توسعه اعتماد بین انسانها و این تکنولوژِی ایفا میکند (گلیکسون و وولی، 2020). ادغام موفقیتآمیز سیستمهای هوش مصنوعی در محیط کار به شدت به میزان اعتماد کارکنان به هوش مصنوعی بستگی دارد (جراحی، 2018). از این رو، معمولاً به رباتهای مبتنی بر هوش مصنوعی، نامهای انسانی داده میشود (مثلاً روبرتا) و با روشهایی که برای کارمندان اداری آشنا است، ارتباط برقرار میکنند (لایتنر-هانسدر، 2021). اعتماد و بهطور خاصتر قابل اعتماد بودن در این مورد میتواند به عنوان یک کاتالیزور برای هر ارتباط معنادار و در نتیجه به عنوان یک پیشنیاز ضروری برای رفتار اخلاقی دیده شود. اگر انسانها به فرآیندهای تصمیمگیری هوش مصنوعی در حسابداری که در پسزمینه اجرا میشوند اعتماد نداشته باشند، این تصمیمها اتخاذ نمیشوند و منجر به عدم اعتماد نهادی خواهد شد. علاوه بر این، حتی اگر به هوش مصنوعی به اندازه کافی برای رسیدن به نتیجهگیریهای درست و تصمیمگیری صحیح اعتماد شود، بازهم بیاعتمادی انسانها بر اساس عوامل منطقی (مانند فقدان دستورالعملهای اخلاقی برای تصمیمگیریهای هوش مصنوعی) یا عوامل غیرمنطقی (مثلاً امتناع از گرفتن دستور از ماشینها) ممکن است اجرای چنین تصمیماتی را به خطر بیندازد (عدم اعتماد سازمانی). بنابراین، اعتماد علاوه بر اینکه به عنوان یک کاتالیزور برای رفتار اخلاقی در مدل رست عمل میکند، اشکال مختلف آن میتوانند به عنوان تعدیلکننده قوی سایر چالشهای اخلاقی دیده شوند و بهطور غیرمستقیم با هر چهار مؤلفه در مدل تصمیمگیری اخلاقی ارتباط داشته باشند. همانطور که در شکل 1 بهطور خلاصه نشان داده شده است، همه چالشهای اخلاقی شناساییشده بر چهار مؤلفه رست برای تصمیمگیری اخلاقی بهطور مساوی تأثیر نمیگذارند. چالشهای دیگر معمولاً تنها بر یک یا دو مؤلفه تأثیر میگذارند. مورد جالب دیگر، چالش شفافیت است که تأثیر چالش مرتبط با بیطرفی را بر قضاوت اخلاقی و مؤلفههای انگیزه اخلاقی تعدیل میکند و همچنین پیشینهای برای پاسخگویی ایجاد میکند.
شکل 1. مدل نهایی پژوهش (ارتباط چالشهای اخلاقی شناسایی شده با مدل رست) منبع: یافتههای پژوهشگر
در حالی که اثرات بالقوه چالشها بر فرآیند تصمیمگیری اخلاقی شناسایی شده، اما قدرت این تأثیرات بر اجزای انفرادی در مدل رست ممکن است با سطح همکاری انسان و ماشین و وظایف مرتبط تعدیل شود (جراحی، 2018؛ مانوکو و همکاران، 2020).
در بخش قبل، چالشهای اخلاقی شناسایی شده و تأثیر آنها بر مؤلفههای مختلف در فرآیند تصمیمگیری اخلاقی رست بررسی شدند. در یک مجموعه ایدهآل از همکاری انسان و ماشین، ذهن انسان میتواند ایدهپردازی کند و تصمیمات نهایی را بگیرد، در حالی که هوش مصنوعی دادههای خام را ترکیب و تجزیه و تحلیل میکند و اطلاعات حاصل را به صورت خودکار برای اهداف مختلف ارائه میدهد (رایش و کراکوفسکی، 2021). علاوه بر این، بررسی دقیق مؤلفههای فردی در مدل رست نشان میدهد که سرپرستان حسابداری آینده باید بدانند چگونه میتوانند از هوش مصنوعی، صحیح و به موقع استفاده کنند (لایتنر-هانسدر و همکاران، 2021) و محدودیتهای هوش مصنوعی چه میتواند باشد. سازمانها باید با هدایت و مدیریت دقیق فرآیندهای مرتبط، رابطه انسانگرایانه انسان و ماشین را تضمین کنند. یک برداشت از مطالعه حاضر ممکن است ضرورت ایجاد یا گسترش دامنه یک کمیته حاکمیت درون شرکتی برای نظارت و حسابرسی داخلی بر فرآیندهای مبتنی بر هوش مصنوعی و کلان دادههای مرتبط باشد. این کمیته میتواند الگوریتم یادگیری هوش مصنوعی از طریق دادههای ارائه شده و همچنین آموزش کاربران مربوطه را به بررسی و متعاقباً تصمیمات اتخاذ شده در چنین همزیستی ماشینی انسانی را وارسی کند. این کمیته همچنین میتواند دستورالعملهای اخلاقی را برای آینده هوش مصنوعی خودمختار توسعه داده و آسیبهای احتمالی مرتبط با الگوریتمهای مبتنی بر هوش مصنوعی را شناسایی کند و قوانین خاصی را در اولویت قرار دهد. تحقیقات آتی در این زمینه باید دیدگاههای انسانی، حقوقی/حاکمیتی، حسابداری/حسابرسی و علوم اطلاعاتی را ترکیب کنند تا به پرسشهایی مانند ماهیت عدالت در هوش مصنوعی، حکمرانی خوب کلان دادهها یا بهترین شیوههای مربوط به توسعه، آموزش و استفاده از سیستمهای حسابداری مبتنی بر هوش مصنوعی بپردازند. چنین تلاشهایی به پژوهشهای در حال انجام بر روی حسابداری و گزارشگری پایداری سازمانی در مورد عوامل محیطی، اجتماعی و حاکمیتی (ESG) مرتبط میشود. به هر حال، کلان دادهها و هوش مصنوعی تأثیر زیادی بر پایداری یک شرکت خواهند داشت و حتی ممکن است در تضمین گزارشهای پایداری مؤثر باشند (سیلوونا و ویناری[38]، 2021). در نتیجه انتظار میرود که حاکمیت خوب هوش مصنوعی و کلان داده به بخشی از شیوههای اطمینانبخشی آینده تبدیل شود (مشابه مدلهای ریسک حسابرسی) و حداقل بر امتیاز G در عوامل ESG تأثیر بگذارد. مقاله حاضر بیشتر به ادبیات حسابداری بهعنوان عملی ذهنی و در عین حال میانجیگر در یک زمینه اجتماعی- مادی مینگرد. از یک طرف، یک سیستم حسابداری مبتنی بر هوش مصنوعی به عنوان بازیگر ترکیبی نمیتواند تصمیمات اخلاقی خود را اتخاذ کند، زیرا فاقد پیششرطهای لازم از نظر مدل رست است. از سوی دیگر، میبینیم که هوش مصنوعی از سایر بازیگران پشتیبانی میکند و با پیوند دادن بازیگران پراکنده و عرصههای غنی از دادههایی که قبلاً به دلیل محدودیتهای شناختی غیرقابل دسترس بودند، قدرت تصمیمگیری را افزایش میدهد. علاوه بر این، از آنجایی که هوش مصنوعی مقید به اهداف از پیش تعیین شده است و علیرغم یادگیری خودمختار و شیوههای انطباقی، همچنان تابع شرایط ساخته شده توسط انسان است، حتی اگر بهطور رسمی به آن اعطا شود، همیشه فاقد عاملیت مستقل واقعی خواهد بود (تربوگت و اسکاپنز[39]، 2019). یک فرآیند تصمیمگیری اخلاقی مبتنی بر هوش مصنوعی در مراحل توسعه الگوریتمهای زیربنایی خود نیاز به آگاهی اخلاقی توسعهدهندگان دارد تا امکان توضیح و ممیزی بعدی فراهم شود. به عبارت دیگر، اگر اولین مؤلفه حیاتی یعنی آگاهی اخلاقی در طول فرآیند طراحی الگوریتم اعمال نشود، ممکن است تمام مراحل فرآیند با شکست مواجه شوند. در مورد پاسخگویی الگوریتمها، مشخص شده است که صرفاً تخصیص قدرت تصمیمگیری به هوش مصنوعی منجر به تصمیمگیریهای غیراخلاقی میشود (کواکوات و همکاران[40]، 2019) و راه پیش رو ممکن است این باشد که یک همزیستی بین انسان و ماشین برقرار گردد. تحقیقات بیشتر در مورد ماهیت این تحول در حسابداری ضروری است، به ویژه لحاظ نمودن مباحث انتقادی و تفکر بیشتر در مورد اینکه چگونه میخواهیم آینده خود را در همزیستی انسان و ماشین شناسایی کنیم. بحث بیشتر در مورد ارزشهای اجتماعی که اجرای هوش مصنوعی و تصمیمگیری در حسابداری را هدایت میکند ضروری به نظر میرسد. برای مثال آیا تعیین هدف کوتاهمدتی مانند ارزش سهامداران، راهنمایی "درست" را برای سیستمهای هوش مصنوعی در تصمیمگیری ارائه میدهد؟ کاهش مدیریت انسان و جهتگیری ذهنی ذینفعان مبتنی بر آگاهی اخلاقی و ذاتی ممکن است در چنین تصمیمگیریهایی کاملاً نادیده گرفته شود. به عبارت دیگر، آیا عقلگرایی هوش مصنوعی که به شدت از قواعد یادگیری بازی پیروی میکند، منجر به یک تخریب فکری ناخواسته مبتنی بر طرحهای ارزشی ذاتی در جامعه نمیشود؟ با این حال، آنچه واضح است این که از منظر اجتماعی – مادی، هوش مصنوعی به عنوان دستگاه حسابداری با ابزارهای ارزشگذاری تعبیه شده متعدد، ناگزیر ارزشها و ارزشگذاران را شکل میدهد. یک چشمانداز جالب برای تحقیقات نظری آینده در این زمینه را میتوان با استناد به مطالعه مانتی و همکاران[41] (2021) بیان نمود. با توجه به ماهیت ضروری بین رشتهای و انتقادی پژوهش در مورد تصمیمگیری اخلاقی در سناریوهای آینده همکاری انسان و ماشین، بازنگری در ماهیت اطلاعات حسابداری به عنوان یک کل، عاقلانه به نظر میرسد. علاوه بر این، پیامدهای اجتماعی تصمیمگیری مبتنی بر هوش مصنوعی، همراه با گزارشگری پایداری مبتنی بر فناوری چندوجهی، ممکن است از طریق گفتگو با ذینفعان در فرآیندهای تصمیمگیری خاص حاصل شود. علاوه بر بحث نظری، پیامدهای عملی بسیار روشنی از یافتهها و بحثهای این مطالعه وجود دارد. با قویتر شدن هوش مصنوعی، دستورالعملها و ساختارهای سازمانی بیشتری برای حفظ کنترل آن و در عین حال بهرهمندی از نقاط قوت و تطبیقپذیری آن باید ایجاد شود. محققان حسابداری و حسابرسی که علاقهمند به پیامدهای اجتماعی بزرگتر حسابرسی به عنوان یک عمل هستند، باید ابعاد اخلاقی فناوریهای مبتنی بر هوش مصنوعی را بیشتر کاوش نمایند. از منظر کارکردگرا، سه قانون رباتیک آسیموف که پیشتر مورد اشاره قرار گرفته بود، در فرآیند تصمیمگیری در یک سیستم حسابداری رسمی که انسان را چیزی فراتر از مصرف کننده یا نیروی کار نمیداند، به ناچار ناکام میماند.
در این مقاله کوشش شد از زاویه نگاه جامع، مستدل و انتقادی، چالشهای اخلاقی بالقوه تصمیمگیری مبتنی بر هوش مصنوعی در حوزه حسابداری بر اساس 138 مقاله معتبر از 43 مجله شاخص بررسی گردد و به سیاستگذاران، محققان و مدیران راهکارهایی ارائه شود تا تصمیمات آگاهانهای را در مورد چالشهای سازمانی اتخاذ کنند. با نگاهی عمیق به چالشهای بالقوه شناساییشده و تأثیر بالقوه این چالشها بر تصمیمگیری اخلاقی بر اساس مدل رست در همکاری انسان و ماشین، برخی از حوزههای کلیدی شناسایی شد که باید روی آنها تمرکز گردد. برجستهترین آنها اهمیت دستیابی به طرحهای الگوریتمی شفاف و قابل ممیزی، اهمیت دستیابی به قابلیت اعتماد و مسئولیتپذیری مشترک بین انسانها و هوش مصنوعی به دلیل عامل مشترک آنها بود. هوش مصنوعی در حرفه حسابرسی، ارتباطات سازمانی و اجتماعی آن را به سرعت تغییر میدهد. در حالی که صاحبنظران و متخصصان در مورد اهمیت دیدگاههای اخلاقی در درک ما از تغییر فوق توافق دارند و قانونگذاران بهطور محتاطانه مسئولیتپذیری انسان را حتی در سناریوهای پیچیده هوش مصنوعی تعیین میکنند، بسیاری از بحثهای مرتبط در این زمینه همچنان دست نخورده باقی میمانند. این مقاله سعی نمود آگاهی در مورد ضرورت نگاه عمیقتر به مشخصات، فرآیندها و پیشینههای تصمیمگیری اخلاقی برای رسیدگی به چالشهای پیشآمده را افزایش دهد. از منظر هنجاری، تنها راه انسانگرایانه و روبهجلو، ایجاد سناریویی از همکاری انسان و هوش مصنوعی در حسابداری است که همچنان به انسانها و ارزشهای اجتماعی اجازه میدهد در تصمیمات خاص دخالت کنند. برای اینکار، قدرت و عاملیت انسان و هوش مصنوعی باید به دقت متعادل شود، در غیر این صورت نمیتوان تصمیمگیری اخلاقی در آینده را تضمین کرد. در راستای محدودیتهای تحقیق، میتوان سویهها و گرایشهای شخصی پژوهشگر را از محدودیتهای هر تحقیق کیفی دانست. از آنجا که نیاز به تفسیر دادهها وجود دارد ممکن است (حداقل به صورت ناخواسته) بر تفسیرهای محقق اثر بگذارد. در تحقیق حاضر محقق تلاش خود را به کار گرفته است تا به شکلی بیطرفانه دادهها را تحلیل و ارائه کند، اما با این حال، ذات و ماهیت پژوهشهای کیفی به شکلی است که ممکن است از سویهها و گرایشهای پژوهشگر تأثیر بپذیرد. این تأثیرپذیری احتمالی را (که حتی ممکن است ناخودآگاه هم باشد) می توان از محدودیتهای تحقیق دانست.
[1] گروه اقتصاد، دانشگاه پیام نور واحد کرج، البرز، ایران. yashara82@gmail.com [2] گروه حسابداری، واحد قزوین، دانشگاه آزاد اسلامی، قزوین، ایران. نویسنده مسئول. sh.rostami@qiau.ac.ir [3] Jarrahi [4] Lindebaum et al. [5] Earley [6] Munoko [7] Raisch and Krakowski [8] Cooper et al. [9]Bebbington et al. [10] Gunz and Thorne [11] Boza and Evgeniou [12] Holt and Loraas [13] Lehner et al. [14] Dignum [15] Leyer and Schneider [16] Martin [17] Kellogg et al. [18] Rest [19] Baud et al. [20] Lombardi et al. [21] اصطلاح synderesis به عادت طبیعی یا فطری ذهن به دانستن اصول اولیه نظم عملی یا اخلاقی بدون توسل به فرآیند استدلال گفتمانی اشاره دارد. [22] Asimov’s “Three Laws of Robotics” [23] Gong [24] Dillard and Vinnari [25] Losbichler and Lehner [26] Hermeneutic [27] Parker and Northcott [28] Snyder [29] Sun [30] Leicht-Deobald et al. [31] Daugherty et al. [32] Gepp et al. [33] West [34] Albu and Flyverbom [35] Orlikowski and Scott [36] Long and Sitkin [37] Glikson and Woolley [38] Silvola and Vinnari [39] TerBogt and Scapens [40] Kovacova et al. [41] Manetti et al. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
مراجع | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
فهرست منابع
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
آمار تعداد مشاهده مقاله: 3,317 تعداد دریافت فایل اصل مقاله: 911 |