پارادوکس های ریاضی محدودیت های هوش مصنوعی — ScienceDaily را نشان می دهند

محققان می گویند که تمام هوش مصنوعی ذاتاً ناقص نیستند، اما تنها در مناطق خاص و با استفاده از روش های خاص قابل اعتماد هستند. کولبروک می گوید: «مشکل مربوط به مناطقی است که شما نیاز به ضمانت دارید، زیرا بسیاری از سیستم های هوش مصنوعی جعبه سیاه هستند. “در برخی موقعیت‌ها اشتباه کردن یک هوش مصنوعی کاملاً خوب است، اما باید در مورد آن صادق باشد. و این چیزی نیست که ما برای بسیاری از سیستم‌ها می‌بینیم – هیچ راهی برای دانستن اینکه چه زمانی مطمئن‌تر یا کم‌تر هستند، وجود ندارد. درباره یک تصمیم».

دکتر متیو کولبروک، یکی از نویسندگان این مقاله از دپارتمان ریاضیات کاربردی و فیزیک نظری، گفت: «پارادوکسی که برای اولین بار توسط تورینگ و گودل شناسایی شد، اکنون توسط اسمیل و دیگران به دنیای هوش مصنوعی آورده شده است. محدودیت‌های اساسی در ریاضیات وجود دارد و به طور مشابه، الگوریتم‌های هوش مصنوعی نمی‌توانند برای مسائل خاص وجود داشته باشند.

مرحله بعدی برای محققان ترکیب نظریه تقریب، تجزیه و تحلیل عددی و مبانی محاسبات برای تعیین اینکه کدام شبکه های عصبی را می توان توسط الگوریتم ها محاسبه کرد و کدام را می توان پایدار و قابل اعتماد ساخت. درست همانطور که پارادوکس‌های مربوط به محدودیت‌های ریاضیات و کامپیوتر که توسط گودل و تورینگ شناسایی شدند، منجر به نظریه‌های بنیادی غنی شدند – که هم محدودیت‌ها و هم امکانات ریاضیات و محاسبات را توصیف می‌کردند – شاید نظریه مبانی مشابهی در هوش مصنوعی شکوفا شود.

محققان یک تئوری طبقه بندی را پیشنهاد می کنند که توصیف می کند چه زمانی می توان شبکه های عصبی را برای ارائه یک سیستم هوش مصنوعی قابل اعتماد تحت شرایط خاص آموزش داد. نتایج آنها در گزارش شده است مجموعه مقالات آکادمی ملی علوم.

انسان‌ها معمولاً در تشخیص موارد اشتباه بسیار خوب هستند، اما سیستم‌های هوش مصنوعی اینطور نیستند. طبق یک مطالعه جدید، هوش مصنوعی به طور کلی از محدودیت‌های ذاتی به دلیل پارادوکس ریاضی صد ساله رنج می‌برد.

هانسن گفت: «در حال حاضر، سیستم‌های هوش مصنوعی گاهی اوقات می‌توانند مقداری حدس و گمان برای آنها داشته باشند. به دست نیاوردن به آنچه می خواهید، و روش دیگری را امتحان خواهید کرد. درک محدودیت های رویکردهای مختلف مهم است. ما در مرحله ای هستیم که موفقیت های عملی هوش مصنوعی بسیار جلوتر از تئوری و درک است. برنامه ای برای درک پایه های محاسبات هوش مصنوعی برای پر کردن این شکاف مورد نیاز است.”

کولبروک می‌گوید: «وقتی ریاضی‌دانان قرن بیستم پارادوکس‌های متفاوتی را شناسایی کردند، مطالعه ریاضیات را متوقف نکردند. آنها فقط باید مسیرهای جدیدی را پیدا می‌کردند، زیرا محدودیت‌ها را درک می‌کردند». برای هوش مصنوعی، ممکن است تغییر مسیرها یا توسعه مسیرهای جدید برای ساختن سیستم‌هایی باشد که می‌توانند مشکلات را به روشی قابل اعتماد و شفاف حل کنند و در عین حال محدودیت‌های آن‌ها را درک کنند.»

چند دهه بعد، استیو اسمیل، ریاضیدان، فهرستی از 18 مسئله حل نشده ریاضی را برای 21 مسئله پیشنهاد کرد.خیابان قرن. 18هفتم مشکل به محدودیت های هوش هم برای انسان و هم برای ماشین ها مربوط می شود.

مانند برخی افراد، سیستم‌های هوش مصنوعی اغلب دارای درجه‌ای از اطمینان هستند که بسیار فراتر از توانایی‌های واقعی آن‌ها است. و بسیاری از سیستم‌های هوش مصنوعی مانند یک فرد بیش از حد اعتماد به نفس، نمی‌دانند چه زمانی اشتباه می‌کنند. گاهی اوقات برای یک سیستم هوش مصنوعی تشخیص اینکه چه زمانی مرتکب اشتباه می شود، دشوارتر از ایجاد یک نتیجه صحیح است.

محققان دانشگاه کمبریج و دانشگاه اسلو می گویند که بی ثباتی پاشنه آشیل هوش مصنوعی مدرن است و یک پارادوکس ریاضی محدودیت های هوش مصنوعی را نشان می دهد. شبکه‌های عصبی، ابزار پیشرفته در هوش مصنوعی، تقریباً پیوندهای بین نورون‌های مغز را تقلید می‌کنند. محققان نشان می‌دهند که در جایی که شبکه‌های عصبی پایدار و دقیق وجود دارد، مشکلاتی وجود دارد، اما هیچ الگوریتمی نمی‌تواند چنین شبکه‌ای را تولید کند. الگوریتم‌ها فقط در موارد خاص می‌توانند شبکه‌های عصبی پایدار و دقیق را محاسبه کنند.

پارادوکس شناسایی شده توسط محققان به دو غول ریاضی قرن بیستم باز می گردد: آلن تورینگ و کورت گودل. در آغاز قرن بیستم، ریاضیدانان تلاش کردند تا ریاضیات را به عنوان زبان ثابت نهایی علم توجیه کنند. با این حال، تورینگ و گودل پارادوکسی را در قلب ریاضیات نشان دادند: اثبات درست یا نادرست بودن برخی گزاره‌های ریاضی غیرممکن است و برخی از مشکلات محاسباتی را نمی‌توان با الگوریتم‌ها حل کرد. و هر زمان که یک سیستم ریاضی برای توصیف محاسباتی که در مدرسه می آموزیم به اندازه کافی غنی باشد، نمی تواند سازگاری خود را ثابت کند.

پروفسور آندرس هانسن از دپارتمان ریاضیات کاربردی و فیزیک نظری کمبریج گفت: «بسیاری از سیستم‌های هوش مصنوعی ناپایدار هستند، و این در حال تبدیل شدن به یک مسئولیت بزرگ است، به خصوص که به طور فزاینده‌ای در زمینه‌های پرخطر مانند تشخیص بیماری یا وسایل نقلیه خودران استفاده می‌شوند. . اگر سیستم‌های هوش مصنوعی در مناطقی مورد استفاده قرار می‌گیرند که در صورت اشتباه می‌توانند آسیب واقعی وارد کنند، اعتماد به آن سیستم‌ها باید در اولویت باشد.»

یادگیری عمیق، فناوری پیشرو هوش مصنوعی برای تشخیص الگو، موضوع بسیاری از عناوین بی‌نفس بوده است. به عنوان مثال می‌توان به تشخیص دقیق‌تر بیماری نسبت به پزشکان یا جلوگیری از تصادفات جاده‌ای از طریق رانندگی خودکار اشاره کرد. با این حال، بسیاری از سیستم های یادگیری عمیق غیرقابل اعتماد هستند و به راحتی می توان آنها را فریب داد.

محققان می گویند که به دلیل این پارادوکس، مواردی وجود دارد که شبکه های عصبی خوبی می توانند وجود داشته باشند، اما نمی توان شبکه ای ذاتا قابل اعتماد ساخت. دکتر وگارد آنتون از دانشگاه اسلو، یکی از نویسندگان این مقاله می‌گوید: «مهم نیست داده‌های شما چقدر دقیق باشد، هرگز نمی‌توانید اطلاعات کاملی برای ساخت شبکه عصبی مورد نیاز به دست آورید.

متیو کلبروک محقق جوان در کالج ترینیتی، کمبریج است. آندرس هنسن عضو پیترهاوس، کمبریج است. این تحقیق تا حدی توسط انجمن سلطنتی حمایت شد.



منبع عدم امکان محاسبه شبکه عصبی موجود نیز بدون توجه به میزان داده های آموزشی صادق است. مهم نیست که یک الگوریتم به چه مقدار داده می تواند دسترسی داشته باشد، شبکه مورد نظر را تولید نخواهد کرد. هانسن می گوید: «این شبیه استدلال تورینگ است: مشکلات محاسباتی وجود دارد که بدون توجه به قدرت محاسباتی و زمان اجرا قابل حل نیستند.

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]