آیا تعصب در الگوریتم ها می تواند به ما کمک کند تا خودمان را ببینیم؟


الگوریتم‌ها قرار بود زندگی ما را آسان‌تر و عادلانه‌تر کنند: به ما کمک کنند بهترین متقاضیان شغل را پیدا کنیم، به قضات کمک کنند تا خطرات ناشی از وثیقه و تصمیمات وثیقه را بی‌طرفانه ارزیابی کنند، و اطمینان حاصل کنند که مراقبت‌های بهداشتی به بیمارانی که بیشترین نیاز را دارند ارائه می‌شود. با این حال، در حال حاضر، ما می دانیم که الگوریتم ها می توانند به همان اندازه که تصمیم گیرندگان انسانی که به آنها اطلاع می دهند و جایگزین می کنند، مغرضانه باشند.

اگر این چیز بدی نبود چه؟

تحقیقات جدید Carey Morewedge، استاد بازاریابی دانشکده بازرگانی Questrom دانشگاه بوستون و محقق برجسته دانشکده Everett W. Lord، نشان داد که افراد بیشتر از تعصبات خود در تصمیمات الگوریتم‌ها را تشخیص می‌دهند تا در تصمیمات خود – حتی زمانی که این تصمیم‌ها همان پژوهش، انتشار در مجموعه مقالات آکادمی ملی علوم، راه هایی را پیشنهاد می کند که آگاهی ممکن است به تصمیم گیرندگان انسانی کمک کند تا تعصبات خود را تشخیص داده و تصحیح کنند.

Morewedge که همچنین ریاست بخش بازاریابی Questrom را بر عهده دارد، می‌گوید: «یک مشکل اجتماعی این است که الگوریتم‌ها یاد می‌گیرند و در مقیاس، سوگیری‌ها را در تصمیم‌گیری‌های انسانی که بر اساس آن آموزش دیده‌اند به کار می‌برند. به عنوان مثال: در سال 2015، آمازون الگوریتمی را آزمایش کرد (و به زودی کنار گذاشت) تا به مدیران استخدامی خود کمک کند تا متقاضیان کار را فیلتر کنند. آنها دریافتند که این برنامه رزومه‌هایی را که تصور می‌شد از متقاضیان مرد است، تقویت کرد و رزومه‌های متقاضیان زن را کاهش داد، که یک مورد واضح از تعصب جنسیتی است.

اما در همان سال، تنها 39 درصد از نیروی کار آمازون زن بودند. اگر این الگوریتم بر روی داده‌های استخدامی موجود آمازون آموزش داده شده بود، جای تعجب نیست که متقاضیان مرد را در اولویت قرار می‌داد – آمازون قبلاً این کار را کرده بود. Morewedge می‌گوید: اگر الگوریتم آن تعصب جنسیتی داشت، به این دلیل است که مدیران آمازون در تصمیم‌گیری‌های استخدامی خود مغرضانه بودند.

«الگوریتم‌ها می‌توانند سوگیری انسان را کدگذاری و تقویت کنند، اما الگوریتم‌ها نیز آشکار کردن او می گوید: سوگیری های ساختاری در جامعه ما، بسیاری از سوگیری ها را نمی توان در سطح فردی مشاهده کرد. به عنوان مثال، در یک تصمیم استخدامی، اثبات تعصب دشوار است. اما هنگامی که تصمیمات درون و بین افراد را جمع آوری می کنیم، همانطور که هنگام ساخت الگوریتم ها انجام می دهیم، می تواند سوگیری های ساختاری را در سیستم ها و سازمان های ما آشکار کند.”

Morewedge و همکارانش – Begum Çeliktutan و Romain Cadario، هر دو در دانشگاه اراسموس در هلند – مجموعه‌ای از آزمایش‌ها را طراحی کردند که برای از بین بردن تعصبات اجتماعی افراد (از جمله نژادپرستی، جنسیت‌گرایی و سن‌گرایی) طراحی شده بود. سپس تیم تشخیص شرکت کنندگان در تحقیق را از اینکه چگونه این سوگیری ها تصمیمات خود را در مقابل تصمیمات اتخاذ شده توسط یک الگوریتم رنگ آمیزی می کنند، مقایسه کردند. در آزمایش ها، شرکت کنندگان گاهی اوقات تصمیمات الگوریتم های واقعی را می دیدند. اما یک نکته وجود داشت: در زمان‌های دیگر، تصمیم‌هایی که به الگوریتم‌ها نسبت داده می‌شد، در واقع انتخاب‌های شرکت‌کنندگان بود.

در سراسر هیئت مدیره، شرکت کنندگان بیشتر احتمال داشت که سوگیری را در تصمیماتی که فکر می کردند از الگوریتم ها گرفته شده می دیدند تا تصمیمات خودشان. شرکت‌کنندگان همچنین در تصمیم‌گیری‌های الگوریتم‌ها به همان اندازه که در تصمیم‌گیری‌های افراد دیگر تعصب داشتند، دیدند. (افراد عموماً سوگیری را در دیگران بهتر از خودشان تشخیص می‌دهند، پدیده‌ای که نقطه کور سوگیری نامیده می‌شود.) شرکت‌کنندگان همچنین احتمال بیشتری برای تصحیح سوگیری در آن تصمیم‌ها پس از این واقعیت داشتند، گامی حیاتی برای به حداقل رساندن سوگیری در آینده.

الگوریتم ها نقطه کور سوگیری را حذف می کنند

محققان مجموعه‌ای از شرکت‌کنندگان را که در مجموع بیش از 6000 نفر بودند، از طریق 9 آزمایش انجام دادند. در مرحله اول، شرکت‌کنندگان مجموعه‌ای از فهرست‌های Airbnb را رتبه‌بندی کردند که شامل چند اطلاعات در مورد هر فهرست بود: میانگین رتبه‌بندی ستاره آن (در مقیاس 1 تا 5) و نام میزبان. بر اساس این مقاله، محققان این فهرست‌های تخیلی را به میزبان‌هایی اختصاص دادند که نام‌هایی «به طور مشخص آفریقایی آمریکایی یا سفیدپوست» داشتند، بر اساس تحقیقات قبلی که سوگیری نژادی را شناسایی می‌کرد. شرکت کنندگان میزان احتمال اجاره هر فهرست را ارزیابی کردند.

در نیمه دوم آزمایش، به شرکت‌کنندگان در مورد یافته‌های پژوهشی گفته شد که توضیح می‌دهد چگونه مسابقه میزبان ممکن است امتیازات را تعصب کند. سپس، محققان مجموعه‌ای از رتبه‌بندی‌ها را به شرکت‌کنندگان نشان دادند و از آنها خواستند (در مقیاس 1 تا 7) ارزیابی کنند که چقدر احتمال دارد که سوگیری بر رتبه‌بندی‌ها تأثیر داشته باشد.

شرکت‌کنندگان یا رتبه‌بندی خودشان را دیدند که به آنها منعکس می‌شد، رتبه‌بندی خودشان را تحت پوشش الگوریتم، رتبه‌بندی خودشان را تحت پوشش دیگران، یا یک رتبه‌بندی الگوریتم واقعی بر اساس ترجیحاتشان.

محققان این تنظیم را چندین بار تکرار کردند و از نظر نژاد، جنسیت، سن و سوگیری جذابیت در پروفایل رانندگان Lyft و میزبانان Airbnb آزمایش کردند. هر بار نتایج یکسان بود. شرکت‌کنندگانی که فکر می‌کردند رتبه‌بندی‌های یک الگوریتم یا رتبه‌بندی‌های شخص دیگری را می‌بینند (خواه واقعاً چنین بوده باشند یا نه)، بیشتر احتمال دارد که سوگیری را در نتایج درک کنند.

Morewedge این را به شواهد مختلفی که برای ارزیابی سوگیری در دیگران و سوگیری در خود استفاده می‌کنیم نسبت می‌دهد. او می‌گوید از آنجایی که ما بینشی نسبت به فرآیند فکری خود داریم، احتمالاً از طریق تفکر خود ردیابی می‌کنیم و تصمیم می‌گیریم که این تفکر مغرضانه نبوده است، شاید به دلیل عوامل دیگری که در تصمیمات ما نقش داشته است. با این حال، هنگام تجزیه و تحلیل تصمیمات افراد دیگر، تنها چیزی که باید قضاوت کنیم، نتیجه است.

Morewedge می‌گوید: «فرض کنید شما در حال سازماندهی یک پانل از سخنرانان برای یک رویداد هستید. “اگر همه آن سخنرانان مرد باشند، ممکن است بگویید که نتیجه نتیجه سوگیری جنسیتی نبوده است، زیرا هنگام دعوت از این سخنرانان حتی به جنسیت فکر نمی کردید. اما اگر در این رویداد شرکت می کردید و یک پانل از همه را دیدید. – سخنرانان مرد، شما به احتمال زیاد به این نتیجه می رسید که سوگیری جنسیتی در انتخاب وجود داشته است.”

در واقع، در یکی از آزمایش‌های خود، محققان دریافتند که شرکت‌کنندگانی که بیشتر مستعد این نقطه کور سوگیری بودند، در تصمیم‌گیری‌های منتسب به الگوریتم‌ها یا دیگران بیشتر از تصمیمات خود، تعصب می‌بینند. در آزمایشی دیگر، آنها دریافتند که مردم راحت‌تر تصمیم‌های خود را تحت تأثیر عواملی که نسبتاً خنثی یا معقول هستند، مانند رتبه‌بندی ستاره میزبان Airbnb، در مقایسه با یک سوگیری متعصبانه، مانند نژاد، می‌بینند – شاید به این دلیل که اعتراف به ترجیح دادن پنج مورد است. Morewedge پیشنهاد می‌کند، اجاره ستاره برای احساس خود یا دیدگاه دیگران نسبت به ما تهدید کننده نیست.

الگوریتم ها به عنوان آینه: دیدن و تصحیح تعصب انسان

در آزمایش نهایی محققان، آنها به شرکت کنندگان فرصتی دادند تا تعصب را در رتبه بندی خود یا رتبه بندی یک الگوریتم (واقعی یا غیر واقعی) تصحیح کنند. احتمال بیشتری وجود داشت که مردم تصمیمات الگوریتم را تصحیح کنند، که این باعث کاهش تعصب واقعی در رتبه بندی آن شد.

او می گوید که این گامی حیاتی برای موروج و همکارانش است. برای هر کسی که انگیزه کاهش تعصب دارد، دیدن آن اولین قدم است. تحقیقات آنها شواهدی را ارائه می دهد که نشان می دهد الگوریتم ها می توانند به عنوان آینه استفاده شوند – راهی برای شناسایی سوگیری حتی زمانی که افراد نمی توانند آن را در خود ببینند.

Morewedge می‌گوید: «در حال حاضر، من فکر می‌کنم ادبیات مربوط به سوگیری الگوریتمی تیره و تار است. “بسیاری از آن می گوید که ما نیاز به توسعه روش های آماری برای کاهش تعصب در الگوریتم ها داریم. اما بخشی از مشکل این است که تعصب از سوی مردم نشات می گیرد. ما باید برای بهتر کردن الگوریتم ها تلاش کنیم، اما همچنین باید تلاش کنیم تا خودمان را کمتر سوگیری کنیم.”

او می‌گوید: «چیزی که در مورد این کار هیجان‌انگیز است این است که نشان می‌دهد الگوریتم‌ها می‌توانند تعصبات انسانی را کدنویسی یا تقویت کنند، اما الگوریتم‌ها همچنین می‌توانند ابزارهایی برای کمک به افراد برای دیدن بهتر سوگیری‌های خود و اصلاح آن‌ها باشند». “الگوریتم ها یک شمشیر دو لبه هستند. آنها می توانند ابزاری باشند که بدترین تمایلات ما را تقویت می کنند. و الگوریتم ها می توانند ابزاری باشند که می توانند به بهتر شدن خودمان کمک کنند.”



منبع

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]