
بروزرسانی: 23 تیر 1404
چگونه مدل های شبکه عمیق از میانبرهای بالقوه خطرناک در حل وظایف تشخیص پیچیده استفاده می کنند -- ScienceDaily
الدر می گوید: «فرانکنشتاین ها به سادگی اشیایی هستند که از هم جدا شده اند و به اشتباه کنار هم قرار گرفته اند. در نتیجه، آنها همه ویژگی های محلی مناسب را دارند، اما در مکان های اشتباه.»
الدر می گوید: «نتایج ما توضیح می دهد که چرا مدل های هوش مصنوعی عمیق تحت شرایط خاص شکست می خورند و به نیاز به در نظر گرفتن وظایف فراتر از تشخیص اشیا برای درک پردازش بصری در مغز اشاره می کنند. این مدل های عمیق معمولاً هنگام حل وظایف شناسایی پیچیده، «میان بر» می گیرند. در حالی که این میان برها ممکن است در بسیاری از موارد کار کنند، می توانند در برخی از برنامه های هوش مصنوعی دنیای واقعی که در حال حاضر با صنعت و شرکای دولتی خود روی آن کار می کنیم، خطرناک باشند. "الدر اشاره می کند.
یکی از این کاربردها، سیستم های ایمنی ویدئویی ترافیکی است: الدر توضیح می دهد: «اشیاء در صحنه های ترافیکی شلوغ - وسایل نقلیه، دوچرخه ها و عابران پیاده - مانع یکدیگر می شوند و به عنوان مجموعه ای از قطعات جدا شده به چشم راننده می رسند». مغز باید آن قطعات را به درستی گروه بندی کند تا دسته ها و مکان های صحیح اشیاء را شناسایی کند. یک سیستم هوش مصنوعی برای نظارت بر ایمنی ترافیک که فقط قادر به درک تکه ها به صورت جداگانه باشد، در این کار شکست می خورد و احتمالاً خطرات را برای کاربران آسیب پذیر جاده درک نمی کند. "
پروفسور جیمز الدر، یکی از نویسندگان مطالعه منتشر شده در دانشگاه یورک، می گوید که شبکه های عصبی کانولوشنال عمیق (DCNN) اشیاء را به روشی که انسان ها می بینند - با استفاده از ادراک شکل پیکربندی شده - نمی بینند و این می تواند در برنامه های کاربردی هوش مصنوعی در دنیای واقعی خطرناک باشد. امروز.
مواد تهیه شده توسط دانشگاه یورک. توجه: محتوا ممکن است برای سبک و طول ویرایش شود.
منبع
منبع داستان:
این مطالعه از محرک های بصری جدیدی به نام «فرانکنشتاین» استفاده کرد تا چگونگی پردازش مغز انسان و DCNN ها را با ویژگی های پیکربندی شده جسم کل نگر مورد بررسی قرار دهد.
منتشر شده در مجله Cell Press آی ساینسمدل های یادگیری عمیق نمی توانند ماهیت پیکربندی ادراک شکل انسان را به تصویر بکشند، یک مطالعه مشترک توسط الدر است که دارای کرسی تحقیقاتی یورک در بینایی انسان و کامپیوتر است و مدیر مشترک مرکز هوش مصنوعی و جامعه یورک و استادیار روان شناسی پروفسور نیکلاس است. بیکر در کالج لویولا در شیکاگو، عضو سابق فوق دکترای VISTA در یورک.
محققان دریافتند که در حالی که سیستم بینایی انسان توسط فرانکشتاین ها اشتباه گرفته می شود، DCNN ها اینطور نیستند - که نشان دهنده عدم حساسیت به ویژگی های پیکربندی جسم است.
به گفته محققان، اصلاحات در آموزش و معماری با هدف شبیه تر کردن شبکه ها به مغز منجر به پردازش پیکربندی نشده است و هیچ یک از شبکه ها قادر به پیش بینی دقیق قضاوت های آزمایشی در مورد شی انسان نیستند. الدر خاطرنشان می کند: «ما حدس می زنیم که برای مطابقت با حساسیت پیکربندی انسان، شبکه ها باید برای حل طیف وسیع تری از وظایف اشیاء فراتر از تشخیص دسته آموزش داده شوند.