آموزش خصمانه فریب شبکه ها را سخت تر می کند — ScienceDaily

مواد تهیه شده توسط DOE/آزمایشگاه ملی لوس آلاموس. توجه: محتوا ممکن است برای سبک و طول ویرایش شود.



منبع

هایدن جونز، محقق در تحقیقات پیشرفته در سایبر، گفت: «جامعه تحقیقاتی هوش مصنوعی لزوماً درک کاملی از آنچه شبکه‌های عصبی انجام می‌دهند ندارند؛ آنها نتایج خوبی به ما می‌دهند، اما ما نمی‌دانیم چگونه و چرا». گروه سیستم در لس آلاموس. روش جدید ما کار بهتری را در مقایسه شبکه‌های عصبی انجام می‌دهد که گامی مهم در جهت درک بهتر ریاضیات پشت هوش مصنوعی است.

منبع داستان:

شبکه های عصبی عملکرد بالایی دارند، اما شکننده هستند. به عنوان مثال، اتومبیل های خودران از شبکه های عصبی برای تشخیص علائم استفاده می کنند. وقتی شرایط ایده آل باشد، آنها این کار را به خوبی انجام می دهند. با این حال، کوچکترین انحراف – مانند برچسب روی علامت توقف – می تواند باعث شود شبکه عصبی علامت را اشتباه شناسایی کند و هرگز متوقف نشود.

برای بهبود شبکه های عصبی، محققان به دنبال راه هایی برای بهبود استحکام شبکه هستند. یک رویکرد پیشرفته شامل “حمله” به شبکه ها در طول فرآیند آموزش آنها است. محققان عمداً انحرافات را معرفی می کنند و هوش مصنوعی را آموزش می دهند تا آنها را نادیده بگیرد. این فرآیند آموزش خصمانه نامیده می شود و اساسا فریب شبکه ها را سخت تر می کند.

تیمی در آزمایشگاه ملی لوس آلاموس رویکرد جدیدی را برای مقایسه شبکه‌های عصبی که درون جعبه سیاه هوش مصنوعی است، توسعه داده‌اند تا به محققان در درک رفتار شبکه‌های عصبی کمک کند. شبکه های عصبی الگوهای موجود در مجموعه داده ها را تشخیص می دهند. آنها در همه جای جامعه، در برنامه هایی مانند دستیارهای مجازی، سیستم های تشخیص چهره و خودروهای خودران استفاده می شوند.

جونز نویسنده اصلی مقاله “اگر شما یک نفر را آموزش داده اید، همه آنها را آموزش داده اید: تشابه بین معماری با استحکام افزایش می یابد” است که اخیراً در کنفرانس عدم قطعیت در هوش مصنوعی ارائه شده است. این مقاله علاوه بر مطالعه شباهت شبکه، گامی مهم در جهت توصیف رفتار شبکه‌های عصبی قوی است.

جونز گفت: «ما متوجه شدیم که وقتی شبکه‌های عصبی را به گونه‌ای آموزش می‌دهیم که در برابر حملات متخاصم قوی باشند، آنها شروع به انجام کارهای مشابه می‌کنند.

جونز می‌گوید: “با یافتن شباهت‌های شبکه‌های عصبی قوی به یکدیگر، درک اینکه چگونه هوش مصنوعی قوی واقعاً ممکن است کار کند را آسان‌تر می‌کنیم. حتی ممکن است نکاتی را در مورد چگونگی ادراک در انسان و سایر حیوانات کشف کنیم.”

جونز، همکاران لس آلاموس، جاکوب اسپرینگر و گرت کنیون، و جاستون مور، مربی جونز، معیار جدید شباهت شبکه خود را در شبکه‌های عصبی آموزش‌دیده اعمال کردند و به‌طور شگفت‌انگیزی دریافتند که آموزش خصمانه باعث می‌شود شبکه‌های عصبی در حوزه بینایی رایانه به هم نزدیک شوند. نمایش داده های بسیار مشابه، صرف نظر از معماری شبکه، با افزایش بزرگی حمله.

تلاش‌های گسترده‌ای در صنعت و جامعه دانشگاهی برای جستجوی «معماری مناسب» برای شبکه‌های عصبی صورت گرفته است، اما یافته‌های تیم Los Alamos نشان می‌دهد که معرفی آموزش‌های خصمانه این فضای جستجو را به طور قابل‌توجهی محدود می‌کند. در نتیجه، جامعه تحقیقاتی هوش مصنوعی ممکن است نیازی به صرف زمان زیادی برای کاوش در معماری‌های جدید نداشته باشد، زیرا می‌دانند که آموزش رقیب باعث می‌شود معماری‌های متنوع به راه‌حل‌های مشابه همگرا شوند.

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]