محققان می گویند که تمام هوش مصنوعی ذاتاً ناقص نیستند، اما تنها در مناطق خاص و با استفاده از روش های خاص قابل اعتماد هستند. کولبروک می گوید: «مشکل مربوط به مناطقی است که شما نیاز به ضمانت دارید، زیرا بسیاری از سیستم های هوش مصنوعی جعبه سیاه هستند. “در برخی موقعیتها اشتباه کردن یک هوش مصنوعی کاملاً خوب است، اما باید در مورد آن صادق باشد. و این چیزی نیست که ما برای بسیاری از سیستمها میبینیم – هیچ راهی برای دانستن اینکه چه زمانی مطمئنتر یا کمتر هستند، وجود ندارد. درباره یک تصمیم».
دکتر متیو کولبروک، یکی از نویسندگان این مقاله از دپارتمان ریاضیات کاربردی و فیزیک نظری، گفت: «پارادوکسی که برای اولین بار توسط تورینگ و گودل شناسایی شد، اکنون توسط اسمیل و دیگران به دنیای هوش مصنوعی آورده شده است. محدودیتهای اساسی در ریاضیات وجود دارد و به طور مشابه، الگوریتمهای هوش مصنوعی نمیتوانند برای مسائل خاص وجود داشته باشند.
مرحله بعدی برای محققان ترکیب نظریه تقریب، تجزیه و تحلیل عددی و مبانی محاسبات برای تعیین اینکه کدام شبکه های عصبی را می توان توسط الگوریتم ها محاسبه کرد و کدام را می توان پایدار و قابل اعتماد ساخت. درست همانطور که پارادوکسهای مربوط به محدودیتهای ریاضیات و کامپیوتر که توسط گودل و تورینگ شناسایی شدند، منجر به نظریههای بنیادی غنی شدند – که هم محدودیتها و هم امکانات ریاضیات و محاسبات را توصیف میکردند – شاید نظریه مبانی مشابهی در هوش مصنوعی شکوفا شود.
محققان یک تئوری طبقه بندی را پیشنهاد می کنند که توصیف می کند چه زمانی می توان شبکه های عصبی را برای ارائه یک سیستم هوش مصنوعی قابل اعتماد تحت شرایط خاص آموزش داد. نتایج آنها در گزارش شده است مجموعه مقالات آکادمی ملی علوم.
انسانها معمولاً در تشخیص موارد اشتباه بسیار خوب هستند، اما سیستمهای هوش مصنوعی اینطور نیستند. طبق یک مطالعه جدید، هوش مصنوعی به طور کلی از محدودیتهای ذاتی به دلیل پارادوکس ریاضی صد ساله رنج میبرد.
هانسن گفت: «در حال حاضر، سیستمهای هوش مصنوعی گاهی اوقات میتوانند مقداری حدس و گمان برای آنها داشته باشند. به دست نیاوردن به آنچه می خواهید، و روش دیگری را امتحان خواهید کرد. درک محدودیت های رویکردهای مختلف مهم است. ما در مرحله ای هستیم که موفقیت های عملی هوش مصنوعی بسیار جلوتر از تئوری و درک است. برنامه ای برای درک پایه های محاسبات هوش مصنوعی برای پر کردن این شکاف مورد نیاز است.”
کولبروک میگوید: «وقتی ریاضیدانان قرن بیستم پارادوکسهای متفاوتی را شناسایی کردند، مطالعه ریاضیات را متوقف نکردند. آنها فقط باید مسیرهای جدیدی را پیدا میکردند، زیرا محدودیتها را درک میکردند». برای هوش مصنوعی، ممکن است تغییر مسیرها یا توسعه مسیرهای جدید برای ساختن سیستمهایی باشد که میتوانند مشکلات را به روشی قابل اعتماد و شفاف حل کنند و در عین حال محدودیتهای آنها را درک کنند.»
چند دهه بعد، استیو اسمیل، ریاضیدان، فهرستی از 18 مسئله حل نشده ریاضی را برای 21 مسئله پیشنهاد کرد.خیابان قرن. 18هفتم مشکل به محدودیت های هوش هم برای انسان و هم برای ماشین ها مربوط می شود.
مانند برخی افراد، سیستمهای هوش مصنوعی اغلب دارای درجهای از اطمینان هستند که بسیار فراتر از تواناییهای واقعی آنها است. و بسیاری از سیستمهای هوش مصنوعی مانند یک فرد بیش از حد اعتماد به نفس، نمیدانند چه زمانی اشتباه میکنند. گاهی اوقات برای یک سیستم هوش مصنوعی تشخیص اینکه چه زمانی مرتکب اشتباه می شود، دشوارتر از ایجاد یک نتیجه صحیح است.
محققان دانشگاه کمبریج و دانشگاه اسلو می گویند که بی ثباتی پاشنه آشیل هوش مصنوعی مدرن است و یک پارادوکس ریاضی محدودیت های هوش مصنوعی را نشان می دهد. شبکههای عصبی، ابزار پیشرفته در هوش مصنوعی، تقریباً پیوندهای بین نورونهای مغز را تقلید میکنند. محققان نشان میدهند که در جایی که شبکههای عصبی پایدار و دقیق وجود دارد، مشکلاتی وجود دارد، اما هیچ الگوریتمی نمیتواند چنین شبکهای را تولید کند. الگوریتمها فقط در موارد خاص میتوانند شبکههای عصبی پایدار و دقیق را محاسبه کنند.
پارادوکس شناسایی شده توسط محققان به دو غول ریاضی قرن بیستم باز می گردد: آلن تورینگ و کورت گودل. در آغاز قرن بیستم، ریاضیدانان تلاش کردند تا ریاضیات را به عنوان زبان ثابت نهایی علم توجیه کنند. با این حال، تورینگ و گودل پارادوکسی را در قلب ریاضیات نشان دادند: اثبات درست یا نادرست بودن برخی گزارههای ریاضی غیرممکن است و برخی از مشکلات محاسباتی را نمیتوان با الگوریتمها حل کرد. و هر زمان که یک سیستم ریاضی برای توصیف محاسباتی که در مدرسه می آموزیم به اندازه کافی غنی باشد، نمی تواند سازگاری خود را ثابت کند.
پروفسور آندرس هانسن از دپارتمان ریاضیات کاربردی و فیزیک نظری کمبریج گفت: «بسیاری از سیستمهای هوش مصنوعی ناپایدار هستند، و این در حال تبدیل شدن به یک مسئولیت بزرگ است، به خصوص که به طور فزایندهای در زمینههای پرخطر مانند تشخیص بیماری یا وسایل نقلیه خودران استفاده میشوند. . اگر سیستمهای هوش مصنوعی در مناطقی مورد استفاده قرار میگیرند که در صورت اشتباه میتوانند آسیب واقعی وارد کنند، اعتماد به آن سیستمها باید در اولویت باشد.»
یادگیری عمیق، فناوری پیشرو هوش مصنوعی برای تشخیص الگو، موضوع بسیاری از عناوین بینفس بوده است. به عنوان مثال میتوان به تشخیص دقیقتر بیماری نسبت به پزشکان یا جلوگیری از تصادفات جادهای از طریق رانندگی خودکار اشاره کرد. با این حال، بسیاری از سیستم های یادگیری عمیق غیرقابل اعتماد هستند و به راحتی می توان آنها را فریب داد.
محققان می گویند که به دلیل این پارادوکس، مواردی وجود دارد که شبکه های عصبی خوبی می توانند وجود داشته باشند، اما نمی توان شبکه ای ذاتا قابل اعتماد ساخت. دکتر وگارد آنتون از دانشگاه اسلو، یکی از نویسندگان این مقاله میگوید: «مهم نیست دادههای شما چقدر دقیق باشد، هرگز نمیتوانید اطلاعات کاملی برای ساخت شبکه عصبی مورد نیاز به دست آورید.
متیو کلبروک محقق جوان در کالج ترینیتی، کمبریج است. آندرس هنسن عضو پیترهاوس، کمبریج است. این تحقیق تا حدی توسط انجمن سلطنتی حمایت شد.
عدم امکان محاسبه شبکه عصبی موجود نیز بدون توجه به میزان داده های آموزشی صادق است. مهم نیست که یک الگوریتم به چه مقدار داده می تواند دسترسی داشته باشد، شبکه مورد نظر را تولید نخواهد کرد. هانسن می گوید: «این شبیه استدلال تورینگ است: مشکلات محاسباتی وجود دارد که بدون توجه به قدرت محاسباتی و زمان اجرا قابل حل نیستند.