مطالعه نشان می‌دهد که شرکت‌ها از نظر قانونی کمتر مسئول تبعیض از الگوریتم‌ها هستند – ScienceDaily

به نظر نمی رسید که دانش در مورد هوش مصنوعی تفاوتی ایجاد کند. در یک آزمایش با بیش از 150 کارمند فناوری در نروژ، شرکت‌کنندگانی که اطلاعات بیشتری در مورد هوش مصنوعی گزارش کردند، همچنان از تبعیض جنسیتی ناشی از الگوریتم‌ها خشمگین نبودند.

محققان دریافتند زمانی که افراد درباره یک الگوریتم خاص اطلاعات بیشتری کسب می‌کنند، ممکن است بر دیدگاه آنها تأثیر بگذارد. در مطالعه دیگری، زمانی که یک الگوریتم استخدام که باعث تبعیض جنسیتی توسط برنامه نویسان مرد در یک شرکت معروف به اعمال جنسیتی می شود، شرکت کنندگان خشمگین تر شدند.

برخی از آزمایش‌ها از سناریویی مبتنی بر یک مثال واقعی از تبعیض جنسیتی مبتنی بر الگوریتم توسط آمازون استفاده کردند که متقاضیان کار زن را جریمه می‌کرد. در حالی که تحقیقات بر روی تبعیض جنسیتی متمرکز بود، یکی از هشت آزمایش برای بررسی تبعیض نژادی و سنی تکرار شد و یافته‌های مشابهی داشت.

بیگمن گفت که برنامه نویسان باید هنگام طراحی الگوریتم های جدید از احتمال تبعیض ناخواسته آگاه باشند. او گفت که کمپین های آموزش عمومی همچنین می توانند تاکید کنند که تبعیض ناشی از الگوریتم ها ممکن است نتیجه نابرابری های موجود باشد.

منبع داستان:

وقتی سناریوهای مختلفی در مورد تبعیض جنسیتی در تصمیمات استخدامی ناشی از الگوریتم‌ها و انسان‌ها ارائه شد، شرکت‌کنندگان از نظر اخلاقی کمتر در مورد موارد ناشی از الگوریتم‌ها خشمگین شدند. شرکت‌کنندگان همچنین بر این باور بودند که شرکت‌ها از نظر قانونی کمتر در قبال تبعیض به دلیل یک الگوریتم مسئول هستند.

بیگمن می‌گوید: «مردم انسان‌هایی را که تبعیض قائل می‌شوند به‌عنوان انگیزه‌های پیش‌داوری مانند نژادپرستی یا جنسیت‌گرایی می‌بینند، اما الگوریتم‌هایی را که تبعیض قائل می‌شوند را انگیزه داده‌ها می‌دانند، بنابراین از نظر اخلاقی کمتر خشمگین می‌شوند. “خشم اخلاقی یک مکانیسم اجتماعی مهم برای برانگیختن مردم برای رسیدگی به بی عدالتی ها است. اگر مردم از نظر اخلاقی کمتر در مورد تبعیض خشمگین شوند، ممکن است انگیزه کمتری برای انجام کاری در مورد آن داشته باشند.”

بر اساس تحقیقات منتشر شده توسط انجمن روانشناسی آمریکا، وقتی تبعیض جنسیتی به دلیل یک الگوریتم به جای دخالت مستقیم انسان رخ می دهد، مردم از نظر اخلاقی کمتر خشمگین می شوند.

در این مطالعه، محققان عبارت “کسری خشم الگوریتمی” را برای توصیف یافته های خود از هشت آزمایش انجام شده با بیش از 3900 شرکت کننده از ایالات متحده، کانادا و نروژ ابداع کردند.

مواد تهیه شده توسط انجمن روانشناسی آمریکا. توجه: محتوا ممکن است برای سبک و طول ویرایش شود.



منبع

یوچانان بیگمن، محقق ارشد، دکتری، پژوهشگر فوق دکترا در دانشگاه ییل و استادیار دانشگاه عبری، گفت: «این نگران‌کننده است که شرکت‌ها می‌توانند از الگوریتم‌هایی برای محافظت از خود در برابر سرزنش و نظارت عمومی در مورد اقدامات تبعیض‌آمیز استفاده کنند. بیگمن گفت که یافته ها می تواند پیامدهای گسترده تری داشته باشد و بر تلاش ها برای مبارزه با تبعیض تأثیر بگذارد. این تحقیق به صورت آنلاین در مجله منتشر شد مجله روانشناسی تجربی: عمومی.

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]