
بروزرسانی: 23 تیر 1404
قضیه جدید No-Free-Lunch برای شبکه های عصبی کوانتومی امیدی به افزایش سرعت کوانتومی می دهد - ScienceDaily
زمینه یادگیری ماشین در رایانه های کوانتومی از تحقیقات جدید که موانع احتمالی برای اجرای عملی شبکه های عصبی کوانتومی را از بین می برد، تقویت شد. در حالی که نظریه پردازان قبلاً معتقد بودند که برای آموزش شبکه عصبی کوانتومی به یک مجموعه آموزشی بزرگ نمایی نیاز است، قضیه کوانتومی بدون ناهار بدون ناهار که توسط آزمایشگاه ملی لوس آلاموس ایجاد شده است نشان می دهد که درهم تنیدگی کوانتومی این سربار نمایی را حذف می کند.
کونال شارما، نویسنده اول مقاله، گفت: «ما بر روی سخت افزار کوانتومی نشان دادیم که می توانیم به طور مؤثر قضیه استاندارد بدون ناهار را با استفاده از درهم تنیدگی نقض کنیم، در حالی که فرمول جدید این قضیه تحت آزمایش تجربی باقی ماند.»
این تیم با استفاده از یک کامپیوتر کوانتومی Rigetti، مجموعه داده های کوانتومی را با یک سیستم مرجع درگیر کردند تا قضیه جدید را تأیید کنند.
منبع داستان:
اندرو سورنبورگر، یکی از محققان، گفت: "کار ما ثابت می کند که داده های بزرگ و درهم تنیدگی بزرگ در یادگیری ماشین کوانتومی ارزشمند هستند. حتی بهتر از آن، درهم تنیدگی منجر به مقیاس پذیری می شود، که مانع افزایش تصاعدی اندازه داده ها به منظور یادگیری آن ها را حل می کند." دانشمند کامپیوتر در لوس آلاموس و یکی از نویسندگان مقاله که در 18 فوریه منتشر شد نامه های بررسی فیزیکی این قضیه به ما امیدواری می دهد که شبکه های عصبی کوانتومی در مسیر رسیدن به هدف افزایش سرعت کوانتومی هستند، جایی که در نهایت از همتایان خود در رایانه های کلاسیک بهتر عمل خواهند کرد.»
مواد تهیه شده توسط DOE/آزمایشگاه ملی لوس آلاموس. توجه: محتوا ممکن است برای سبک و طول ویرایش شود.
منبع
درهم تنیدگی وضعیت سیستمی از ذرات در مقیاس اتمی را توصیف می کند که نمی توان آن ها را به طور مستقل یا جداگانه توصیف کرد. درهم تنیدگی جزء کلیدی محاسبات کوانتومی است.
قضیه کلاسیک No-Free-Lunch بیان می کند که هر الگوریتم یادگیری ماشینی زمانی که عملکرد آنها بر روی تمام توابع ممکن که داده ها را به برچسب هایشان متصل می کنند، میانگین داده شود، به خوبی، اما بهتر از هر الگوریتم دیگری نیست. پیامد مستقیم این قضیه که قدرت داده ها را در یادگیری ماشین کلاسیک نشان می دهد این است که هر چه داده های فرد بیشتر باشد، میانگین عملکرد بهتری دارد. بنابراین، داده واحد پولی در یادگیری ماشینی است که در نهایت عملکرد را محدود می کند.
پاتریک کولز، فیزیکدان در لوس آلاموس و نویسنده ارشد این مقاله، گفت: قضیه ما نشان می دهد که درهم تنیدگی باید به عنوان یک منبع ارزشمند در یادگیری ماشین کوانتومی، همراه با داده های بزرگ در نظر گرفته شود. شبکه های عصبی کلاسیک فقط به داده های بزرگ وابسته هستند.
قضیه جدید Los Alamos No-Free-Lunch نشان می دهد که در رژیم کوانتومی درهم تنیدگی نیز یک ارز است و ارزی است که می تواند برای کاهش نیازهای داده با داده مبادله شود.