قضیه جدید No-Free-Lunch برای شبکه های عصبی کوانتومی امیدی به افزایش سرعت کوانتومی می دهد – ScienceDaily


زمینه یادگیری ماشین در رایانه‌های کوانتومی از تحقیقات جدید که موانع احتمالی برای اجرای عملی شبکه‌های عصبی کوانتومی را از بین می‌برد، تقویت شد. در حالی که نظریه پردازان قبلاً معتقد بودند که برای آموزش شبکه عصبی کوانتومی به یک مجموعه آموزشی بزرگ نمایی نیاز است، قضیه کوانتومی بدون ناهار بدون ناهار که توسط آزمایشگاه ملی لوس آلاموس ایجاد شده است نشان می دهد که درهم تنیدگی کوانتومی این سربار نمایی را حذف می کند.

اندرو سورنبورگر، یکی از محققان، گفت: “کار ما ثابت می کند که داده های بزرگ و درهم تنیدگی بزرگ در یادگیری ماشین کوانتومی ارزشمند هستند. حتی بهتر از آن، درهم تنیدگی منجر به مقیاس پذیری می شود، که مانع افزایش تصاعدی اندازه داده ها به منظور یادگیری آن ها را حل می کند.” دانشمند کامپیوتر در لوس آلاموس و یکی از نویسندگان مقاله که در 18 فوریه منتشر شد نامه های بررسی فیزیکی این قضیه به ما امیدواری می‌دهد که شبکه‌های عصبی کوانتومی در مسیر رسیدن به هدف افزایش سرعت کوانتومی هستند، جایی که در نهایت از همتایان خود در رایانه‌های کلاسیک بهتر عمل خواهند کرد.»

قضیه کلاسیک No-Free-Lunch بیان می‌کند که هر الگوریتم یادگیری ماشینی زمانی که عملکرد آنها بر روی تمام توابع ممکن که داده‌ها را به برچسب‌هایشان متصل می‌کنند، میانگین داده شود، به خوبی، اما بهتر از هر الگوریتم دیگری نیست. پیامد مستقیم این قضیه که قدرت داده ها را در یادگیری ماشین کلاسیک نشان می دهد این است که هر چه داده های فرد بیشتر باشد، میانگین عملکرد بهتری دارد. بنابراین، داده واحد پولی در یادگیری ماشینی است که در نهایت عملکرد را محدود می کند.

قضیه جدید Los Alamos No-Free-Lunch نشان می دهد که در رژیم کوانتومی درهم تنیدگی نیز یک ارز است و ارزی است که می تواند برای کاهش نیازهای داده با داده مبادله شود.

این تیم با استفاده از یک کامپیوتر کوانتومی Rigetti، مجموعه داده‌های کوانتومی را با یک سیستم مرجع درگیر کردند تا قضیه جدید را تأیید کنند.

کونال شارما، نویسنده اول مقاله، گفت: «ما بر روی سخت‌افزار کوانتومی نشان دادیم که می‌توانیم به طور مؤثر قضیه استاندارد بدون ناهار را با استفاده از درهم‌تنیدگی نقض کنیم، در حالی که فرمول جدید این قضیه تحت آزمایش تجربی باقی ماند.»

پاتریک کولز، فیزیکدان در لوس آلاموس و نویسنده ارشد این مقاله، گفت: قضیه ما نشان می دهد که درهم تنیدگی باید به عنوان یک منبع ارزشمند در یادگیری ماشین کوانتومی، همراه با داده های بزرگ در نظر گرفته شود. شبکه های عصبی کلاسیک فقط به داده های بزرگ وابسته هستند.

درهم تنیدگی وضعیت سیستمی از ذرات در مقیاس اتمی را توصیف می‌کند که نمی‌توان آن‌ها را به‌طور مستقل یا جداگانه توصیف کرد. درهم تنیدگی جزء کلیدی محاسبات کوانتومی است.

منبع داستان:

مواد تهیه شده توسط DOE/آزمایشگاه ملی لوس آلاموس. توجه: محتوا ممکن است برای سبک و طول ویرایش شود.



منبع

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]