کارشناسان رویکرد سیستم های پیچیده را برای ارزیابی خطرات هوش مصنوعی توصیه می کنند
انتشار: آبان 23، 1403
بروزرسانی: 01 تیر 1404

کارشناسان رویکرد سیستم های پیچیده را برای ارزیابی خطرات هوش مصنوعی توصیه می کنند


با نفوذ روزافزون هوش مصنوعی در تمام جنبه های زندگی ما، کارشناسان بیش از پیش نگران خطرات آن می شوند. در برخی موارد، خطرات شدید هستند، در برخی دیگر تا ماه ها یا حتی سال ها بعد ظاهر نمی شوند. دانشمندان در مجله The Royal Society اشاره می کنند که یک رویکرد منسجم برای درک این تهدیدات هنوز گریزان است. آنها خواستار دیدگاه سیستمی پیچیده برای ارزیابی بهتر و کاهش این خطرات هستند، به ویژه در پرتو عدم قطعیت های طولانی مدت و تعاملات پیچیده بین هوش مصنوعی و جامعه.

فریبا کریمی، یکی از نویسندگان مقاله می گوید: "درک خطرات هوش مصنوعی مستلزم شناخت تعامل پیچیده بین فناوری و جامعه است. این در مورد هدایت سیستم های پیچیده و در حال تکامل است که تصمیمات و رفتارهای ما را شکل می دهند." کریمی رهبری تیم تحقیقاتی انصاف الگوریتمی در مرکز علوم پیچیدگی (CSH) و استاد علوم داده های اجتماعی در TU Graz است.

CSH می افزاید: "ما نه تنها باید در مورد اینکه چه فناوری هایی را به کار بگیریم و چگونه، بلکه باید در مورد چگونگی تطبیق بافت اجتماعی برای استفاده از احتمالات مثبت نیز بحث کنیم. احتمالات و خطرات هوش مصنوعی احتمالاً باید در بحث هایی در مورد سیاست اقتصادی در نظر گرفته شوند." دانشمند دانیل کندور، اولین نویسنده این مطالعه.

خطرات گسترده تر و بلند مدت

به گفته نویسندگان مقاله منتشر شده در این مقاله، چارچوب های ارزیابی ریسک فعلی اغلب بر آسیب های فوری و خاص، مانند سوگیری و نگرانی های ایمنی تمرکز می کنند. معاملات فلسفی الف. کندور می گوید: «این چارچوب ها اغلب خطرات سیستمی گسترده تر و بلندمدتی را که می تواند از استقرار گسترده فناوری های هوش مصنوعی و تعامل آن ها با زمینه اجتماعی مورد استفاده پدید آید، نادیده می گیرند.

کندور می افزاید: "در این مقاله، ما سعی کردیم دیدگاه های کوتاه مدت در مورد الگوریتم ها را با دیدگاه های بلندمدت از چگونگی تأثیر این فناوری ها بر جامعه متعادل کنیم. این در مورد درک پیامدهای فوری و سیستمیک هوش مصنوعی است."

آنچه در زندگی واقعی اتفاق می افتد

به عنوان یک مطالعه موردی برای نشان دادن خطرات بالقوه فناوری های هوش مصنوعی، دانشمندان درباره نحوه استفاده از الگوریتم پیش بینی در طول همه گیری کووید-19 در بریتانیا برای امتحانات مدرسه بحث می کنند. راه حل جدید «پیش بینی می شد که عینی تر و در نتیجه منصفانه تر باشد [than asking teachers to predict their students\' performance]بر اساس این مطالعه، با تکیه بر تحلیل آماری عملکرد دانش آموزان در سال های گذشته.

با این حال، زمانی که این الگوریتم عملی شد، مسائل متعددی پدیدار شد. والری حافظ، محقق مستقل و یکی از نویسندگان مطالعه، می گوید: «هنگامی که الگوریتم درجه بندی به کار گرفته شد، نابرابری ها به وضوح آشکار شدند. دانش آموزان جوامع محروم بیشترین تلاش های بیهوده را برای مقابله با درجه بندی تورم متحمل شدند، اما حتی در مجموع، 40 درصد از دانش آموزان نمره های پایین تری از آنچه که معقولانه انتظار داشتند دریافت کردند.

حافظ گزارش می دهد که بسیاری از پاسخ ها در گزارش مشاوره نشان می دهد که خطری که معلمان آن را قابل توجه می دانند - اثر بلندمدت درجه بندی پایین تر از حد شایسته - با ریسک درک شده توسط طراحان الگوریتم متفاوت است. دومی ها نگران تورم نمره، فشار ناشی از آن بر آموزش عالی، و عدم اعتماد به توانایی های واقعی دانشجویان بودند.

مقیاس و دامنه

دانشمندان تأکید می کنند که این مورد چندین مسئله مهم را نشان می دهد که هنگام استقرار راه حل های الگوریتمی در مقیاس بزرگ ایجاد می شود. "یک چیزی که ما معتقدیم باید به آن توجه کرد مقیاس - و دامنه - است، زیرا الگوریتم ها مقیاس هستند: آنها به خوبی از یک زمینه به بافت بعدی سفر می کنند، حتی اگر این زمینه ها بسیار متفاوت باشند. زمینه اصلی خلقت به سادگی انجام نمی شود. حافظ توضیح می دهد که ناپدید می شود، بلکه بر همه این زمینه های دیگر سوار می شود.

کریمی می افزاید: "ریسک های بلندمدت ترکیب خطی ریسک های کوتاه مدت نیستند. آنها می توانند به صورت تصاعدی در طول زمان افزایش یابند. با این حال، با مدل های محاسباتی و شبیه سازی ها می توانیم بینش های عملی برای ارزیابی بهتر این ریسک های پویا ارائه دهیم."

مدل های محاسباتی -- و مشارکت عمومی

این یکی از جهت هایی است که توسط دانشمندان برای درک و ارزیابی ریسک مرتبط با فناوری های هوش مصنوعی، چه در کوتاه مدت و چه در بلندمدت، پیشنهاد شده است. کوندور توضیح می دهد: «مدل های محاسباتی - مانند مدل هایی که تأثیر هوش مصنوعی را بر بازنمایی اقلیت ها در شبکه های اجتماعی ارزیابی می کنند - می توانند نشان دهند که چگونه سوگیری ها در سیستم های هوش مصنوعی منجر به حلقه های بازخوردی می شوند که نابرابری های اجتماعی را تقویت می کنند». چنین مدل هایی می توانند برای شبیه سازی ریسک های بالقوه مورد استفاده قرار گیرند، و بینش هایی را ارائه می دهند که به سختی می توان از روش های ارزیابی سنتی به دست آورد.

علاوه بر این، نویسندگان این مطالعه بر اهمیت مشارکت افراد عادی و متخصصان حوزه های مختلف در فرآیند ارزیابی ریسک تأکید می کنند. گروه های شایستگی - تیم های کوچک و ناهمگون که دیدگاه های مختلف را گرد هم می آورند - می توانند ابزاری کلیدی برای تقویت مشارکت دموکراتیک باشند و اطمینان حاصل کنند که ارزیابی های ریسک توسط کسانی که بیشتر تحت تأثیر فناوری های هوش مصنوعی قرار دارند، مطلع می شوند.

"یک موضوع کلی تر، ارتقای تاب آوری اجتماعی است که به بحث های مرتبط با هوش مصنوعی و تصمیم گیری کمک می کند تا عملکرد بهتری داشته باشند و از دام ها جلوگیری کنند. به نوبه خود، تاب آوری اجتماعی ممکن است به بسیاری از سوالات غیر مرتبط (یا حداقل مستقیماً مرتبط) با مصنوعی بستگی داشته باشد. هوش،" کندور فکر می کند. افزایش شکل های مشارکتی تصمیم گیری می تواند یکی از مؤلفه های مهم افزایش تاب آوری باشد.

"من فکر می کنم زمانی که سیستم های هوش مصنوعی را اجتماعی-تکنیکی می بینید، نمی توانید افراد تحت تاثیر سیستم های هوش مصنوعی را از جنبه های "فنی" جدا کنید. جداسازی آنها از سیستم هوش مصنوعی امکان شکل دادن به زیرساخت های طبقه بندی تحمیل شده بر آنها را از بین می برد. حافظ، که یک افسر سیاست هوش مصنوعی در صدراعظم فدرال اتریش است، می گوید، از افراد آسیب دیده برای سهیم شدن در خلق جهان هایی که بر اساس نیازهایشان است، محروم می شوند.

درباره مطالعه

مطالعه "چشم انداز سیستم های پیچیده در ارزیابی خطرات در هوش مصنوعی" توسط دانیل کندور، والری حافظ، سودهانگ شانکار، رانیا وزیر و فریبا کریمی در سال 1396 منتشر شد. معاملات فلسفی الف و به صورت آنلاین در دسترس است.



منبع