
بروزرسانی: 27 تیر 1404
مدل های هوش مصنوعی مولد سوگیری ها و کلیشه های منفی را در کاربران خود رمزگذاری می کنند -- ScienceDaily
علاوه بر این، ساخت انبوه این پتانسیل را دارد که بر باورهای انسان تأثیر بگذارد، زیرا مدل هایی که آن را هدایت می کنند به طور فزاینده ای رایج می شوند و شبکه جهانی وب را پر می کنند. مردم نه تنها اطلاعات را از وب می گیرند، بلکه بسیاری از مواد آموزشی اولیه مورد استفاده مدل های هوش مصنوعی نیز از اینجا می آیند. به عبارت دیگر، یک حلقه بازخورد پیوسته شکل می گیرد که در آن سوگیری ها و مزخرفات تکرار می شوند و بارها و بارها پذیرفته می شوند.
آنچه مورد نیاز است، تجزیه و تحلیل سریع و دقیق است که تأثیر مدل های مولد را بر باورها و تعصبات انسانی اندازه گیری می کند.
یکی از این مثال ها که در Perspective ارائه شده است، بر این تمرکز دارد که چگونه قوانین آماری در یک مدل به متهمان سیاه پوست امتیازات ریسک بالاتری اختصاص می دهند. قضات دادگاه که الگوها را آموخته اند، ممکن است شیوه های محکومیت خود را تغییر دهند تا با پیش بینی های الگوریتم ها مطابقت داشته باشند. این مکانیسم اساسی یادگیری آماری می تواند قاضی را به این باور برساند که افراد سیاه پوست بیشتر احتمال دارد مرتکب جرم شوند - حتی اگر استفاده از سیستم توسط مقرراتی مانند مقرراتی که اخیراً در کالیفرنیا تصویب شده متوقف شود.
یکی از نگرانی های ویژه این واقعیت است که به راحتی نمی توان سوگیری ها یا اطلاعات ساختگی را پس از پذیرفته شدن توسط یک فرد متزلزل کرد. کودکان به ویژه در معرض خطر بالایی قرار دارند، زیرا در برابر تحریف باورها آسیب پذیرتر هستند، زیرا احتمال بیشتری دارد که فناوری را انسان سازی کنند و راحت تر تحت تأثیر قرار بگیرند.
در عرض چند ماه، مدل های مولد هوش مصنوعی مانند ChatGPT، Bard Google و Midjourney توسط افراد بیشتری به روش های مختلف حرفه ای و شخصی مورد استفاده قرار گرفته اند. اما تحقیقات رو به رشد تاکید می کند که آنها سوگیری ها و کلیشه های منفی را در کاربران خود رمزگذاری می کنند و همچنین اطلاعات به ظاهر دقیق اما بی معنی را تولید و منتشر می کنند. نگران کننده است که گروه های حاشیه نشین به طور نامتناسبی تحت تأثیر جعل این اطلاعات بی معنی هستند.
این یافته ها - و درخواستی برای روانشناسان و متخصصان یادگیری ماشینی برای همکاری بسیار سریع برای ارزیابی مقیاس موضوع و ابداع راه حل ها - امروز در یک چشم انداز قابل تأمل در مجله بین المللی پیشرو، Science، منتشر شده است. Abeba Birhane، که استادیار دانشکده علوم کامپیوتر و آمار ترینیتی است (با آزمایشگاه نرم افزار پیچیده ترینیتی کار می کند) و عضو ارشد هوش مصنوعی قابل اعتماد در بنیاد موزیلا.
پروفسور برهانه گفت: "مطالعات و مداخلات بعدی به طور مؤثر بر تأثیرات بر جمعیت های به حاشیه رانده شده متمرکز خواهد بود که به طور نامتناسبی تحت تأثیر ساختگی ها و کلیشه های منفی در خروجی های مدل قرار می گیرند. منابع اضافی برای آموزش مردم، سیاست گذاران و دانشمندان بین رشته ای مورد نیاز است. برای ارائه دیدگاه های آگاهانه واقع بینانه از نحوه عملکرد مدل های هوش مصنوعی و اصلاح اطلاعات نادرست و تبلیغات موجود پیرامون این فناوری های جدید."
منبع
پروفسور برهانه گفت: "افراد به طور منظم عدم قطعیت را از طریق عباراتی مانند "من فکر می کنم"، تاخیر در پاسخ، اصلاحات، و ناهمواری های گفتاری را بیان می کنند. در مقابل، مدل های مولد پاسخ های مطمئن و روان و بدون بازنمایی عدم قطعیت و یا توانایی برقراری ارتباط عدم وجود آنها را ارائه می دهند. در نتیجه، این می تواند باعث تحریف بیشتر در مقایسه با ورودی های انسانی شود و منجر به پذیرش پاسخ ها به عنوان واقعیات واقعی شود.