یک تراشه نورومورفیک جدید برای هوش مصنوعی در لبه، با کسری کوچک از انرژی و اندازه پلتفرم‌های محاسباتی امروزی – ScienceDaily

راجکومار کوبندران، استادیار دانشگاه پیتسبورگ، که کار بر روی این پروژه را در زمانی که دکترا بود، گفت: «ما می‌توانیم در سطح دستگاه بهتر عمل کنیم، طراحی مدار را برای پیاده‌سازی ویژگی‌های اضافی و پرداختن به برنامه‌های کاربردی متنوع با پلتفرم پویا NeuRRAM خود بهبود بخشیم». .D. دانشجوی گروه تحقیقاتی Cauwenberghs در UC San Diego.

تراشه NeuRRAM نه تنها دو برابر انرژی کارآمدتر از تراشه‌های پیشرفته «محاسبه در حافظه» است، یک کلاس خلاقانه از تراشه‌های ترکیبی که محاسبات را در حافظه اجرا می‌کند، بلکه نتایجی را نیز ارائه می‌دهد که دقیقاً به همان اندازه است. تراشه های دیجیتال معمولی پلتفرم‌های متعارف هوش مصنوعی بسیار حجیم‌تر هستند و معمولاً محدود به استفاده از سرورهای داده بزرگی هستند که در فضای ابری کار می‌کنند.

آرایه RRAM در دانشگاه Tsinghua ساخته و بر روی CMOS یکپارچه شد.

NeuroRRAM به عنوان یک تراشه هوش مصنوعی نورومورفیک، پردازش موازی توزیع شده را در 48 هسته عصبی سیناپسی انجام می دهد. برای دستیابی همزمان به تطبیق پذیری بالا و کارایی بالا، NeuRRAM از موازی سازی داده ها با نگاشت یک لایه در مدل شبکه عصبی بر روی چندین هسته برای استنتاج موازی روی داده های متعدد پشتیبانی می کند. همچنین، NeuRRAM موازی سازی مدل را با نگاشت لایه های مختلف یک مدل بر روی هسته های مختلف و انجام استنتاج به صورت خط لوله ارائه می دهد.

Cauwenberghs گفت: «محاسبات در حافظه از زمانی که بیش از 30 سال پیش معرفی شد، در مهندسی نورومورفیک رایج بوده است. نکته جدیدی که در NeuRRAM وجود دارد این است که کارایی فوق العاده در حال حاضر همراه با انعطاف پذیری عالی برای برنامه های کاربردی هوش مصنوعی مختلف است که تقریباً هیچ افتی در دقت نسبت به پلتفرم های محاسباتی همه منظوره دیجیتال استاندارد ندارد.

کلید بهره وری انرژی NeuRRAM یک روش ابتکاری برای حس کردن خروجی در حافظه است. رویکردهای مرسوم از ولتاژ به عنوان ورودی و اندازه گیری جریان به عنوان نتیجه استفاده می کنند. اما این منجر به نیاز به مدارهای پیچیده تر و انرژی بیشتر می شود. در NeuRRAM، تیم یک مدار نورونی را مهندسی کرد که ولتاژ را حس می‌کند و تبدیل آنالوگ به دیجیتال را به شیوه‌ای کارآمد از انرژی انجام می‌دهد. این حسگر حالت ولتاژ می‌تواند تمام ردیف‌ها و تمام ستون‌های یک آرایه RRAM را در یک چرخه محاسباتی فعال کند و به موازی‌سازی بیشتر اجازه دهد.

علاوه بر این، وان یکی از اعضای موسس استارتاپی است که روی تولید فناوری محاسباتی در حافظه کار می کند. وان گفت: “به عنوان یک محقق و یک مهندس، جاه طلبی من این است که نوآوری های تحقیقاتی را از آزمایشگاه ها به استفاده عملی ببرم.”

روشی که با دقت طراحی شده بود، کلید کار با سطوح مختلف «بهینه‌سازی مشترک» در لایه‌های انتزاعی سخت‌افزار و نرم‌افزار، از طراحی تراشه تا پیکربندی آن برای اجرای وظایف مختلف هوش مصنوعی بود. علاوه بر این، تیم مطمئن شد که محدودیت‌های مختلفی را که از فیزیک دستگاه حافظه گرفته تا مدارها و معماری شبکه را شامل می‌شود، در نظر گرفته است.

با کاهش مصرف انرژی مورد نیاز برای استنتاج هوش مصنوعی در لبه، این تراشه NeuRRAM می‌تواند به دستگاه‌های لبه قوی‌تر، هوشمندتر و در دسترس‌تر و تولید هوشمندتر منجر شود. همچنین می‌تواند منجر به حفظ حریم خصوصی داده‌ها شود، زیرا انتقال داده‌ها از دستگاه‌ها به فضای ابری با افزایش خطرات امنیتی همراه است.

سیدارت جوشی، استادیار علوم و مهندسی کامپیوتر در دانشگاه نوتردام، که کار بر روی این پروژه را آغاز کرد، گفت: «این تراشه اکنون بستری را برای ما فراهم می‌کند تا این مشکلات را در سراسر پشته از دستگاه‌ها و مدارها گرفته تا الگوریتم‌ها برطرف کنیم. دکتری دانشجو و محقق فوق دکترا در آزمایشگاه Cauwenberghs در UC San Diego.

یک تیم تحقیقاتی بین المللی

برای اطمینان از اینکه دقت محاسبات هوش مصنوعی می تواند در معماری های مختلف شبکه عصبی حفظ شود، محققان مجموعه ای از تکنیک های بهینه سازی مشترک الگوریتم سخت افزاری را توسعه دادند. این تکنیک‌ها در شبکه‌های عصبی مختلف از جمله شبکه‌های عصبی کانولوشن، حافظه کوتاه‌مدت و ماشین‌های محدود بولتزمن تأیید شدند.

در حال حاضر، محاسبات با هوش مصنوعی هم پرهزینه است و هم از نظر محاسباتی گران است. بیشتر برنامه‌های هوش مصنوعی در دستگاه‌های لبه شامل انتقال داده‌ها از دستگاه‌ها به فضای ابری است، جایی که هوش مصنوعی آن‌ها را پردازش و تجزیه و تحلیل می‌کند. سپس نتایج به دستگاه منتقل می شود. به این دلیل که اکثر دستگاه‌های لبه با باتری کار می‌کنند و در نتیجه فقط مقدار محدودی توان دارند که می‌توان آن را به محاسبات اختصاص داد.

این تحقیق به عنوان بخشی از پروژه اکتشافات محاسباتی توسط بنیاد ملی علوم بر روی قشر بصری روی سیلیکون در دانشگاه ایالت پن، با حمایت مالی ادامه‌دار از سوی دفتر علوم تحقیقات دریایی برنامه هوش مصنوعی، شرکت تحقیقاتی نیمه هادی و برنامه DARPA JUMP آغاز شد. شرکت وسترن دیجیتال



منبع

محققان وظایف مختلف هوش مصنوعی را روی تراشه انجام دادند. در یک کار تشخیص رقم دست نویس به دقت 99 درصد دست یافت. 85.7٪ در یک کار طبقه بندی تصویر. و 84.7٪ در کار تشخیص دستور گفتار Google. علاوه بر این، تراشه همچنین به کاهش 70 درصدی خطای بازسازی تصویر در یک کار بازیابی تصویر دست یافت. این نتایج با تراشه های دیجیتال موجود قابل مقایسه هستند که محاسبات را با دقت بیت یکسان انجام می دهند، اما با صرفه جویی شدید در انرژی.

وان گفت: “این معادل انجام یک رفت و آمد هشت ساعته برای یک روز کاری دو ساعته است.”

این کار نتیجه یک تیم بین المللی از محققان است.

یک تیم بین‌المللی از محققان تراشه‌ای را طراحی و ساخته‌اند که محاسبات را مستقیماً در حافظه اجرا می‌کند و می‌تواند طیف گسترده‌ای از برنامه‌های هوش مصنوعی را اجرا کند – همه با کسری از انرژی مصرف شده توسط پلتفرم‌های محاسباتی برای محاسبات هوش مصنوعی همه منظوره.

مراحل بعدی شامل بهبود معماری و مدارها و مقیاس‌بندی طراحی به گره‌های فناوری پیشرفته‌تر است. محققان همچنین قصد دارند با کاربردهای دیگری مانند شبکه های عصبی اسپکینگ مقابله کنند.

در تراشه های هوش مصنوعی، انتقال داده ها از حافظه به واحدهای محاسباتی یکی از گلوگاه های اصلی است.

عملکرد تراشه

تیم تحقیقاتی به رهبری مهندسان زیستی در دانشگاه کالیفرنیا سن دیگو، نتایج خود را در شماره 17 آگوست ارائه می کند. طبیعت.

تیم UC San Diego مدارهای CMOS را طراحی کرد که عملکردهای عصبی را با آرایه های RRAM برای پشتیبانی از عملکردهای سیناپسی در معماری تراشه، برای کارایی و تطبیق پذیری بالا، پیاده سازی می کند. وان، با همکاری نزدیک با کل تیم، طراحی را اجرا کرد. مشخصه تراشه. آموزش مدل های هوش مصنوعی؛ و آزمایش ها را انجام داد. وان همچنین یک زنجیره ابزار نرم افزاری توسعه داد که برنامه های کاربردی هوش مصنوعی را بر روی تراشه ترسیم می کند.

محققان کارایی انرژی تراشه را با معیاری به نام محصول تاخیر انرژی یا EDP اندازه‌گیری کردند. EDP ​​هم مقدار انرژی مصرف شده برای هر عملیات و هم مقدار زمان لازم برای تکمیل عملیات را ترکیب می کند. با این اندازه گیری، تراشه NeuRRAM 1.6 تا 2.3 برابر EDP کمتر (کمتر بهتر است) و 7 تا 13 برابر تراکم محاسباتی بالاتر از تراشه های پیشرفته به دست می آورد.

تراشه نورومورفیک NeuRRAM هوش مصنوعی را یک قدم به اجرای بر روی طیف وسیعی از دستگاه‌های لبه‌ای که از فضای ابری جدا شده‌اند، نزدیک‌تر می‌کند، جایی که آنها می‌توانند وظایف شناختی پیچیده‌ای را در هر کجا و هر زمان بدون تکیه بر اتصال شبکه به یک سرور متمرکز انجام دهند. برنامه‌های کاربردی در هر گوشه از جهان و هر جنبه از زندگی ما به وفور یافت می‌شود و از ساعت‌های هوشمند گرفته تا هدست‌های واقعیت مجازی، هدفون‌های هدفون هوشمند، حسگرهای هوشمند در کارخانه‌ها و مریخ نوردها برای اکتشاف فضایی را شامل می‌شود.

تیم نوتردام هم در طراحی و معماری تراشه و هم در طراحی و آموزش مدل یادگیری ماشینی کمک کرد.

در معماری NeuRRAM، مدارهای نورون CMOS به طور فیزیکی با وزن‌های RRAM در هم آمیخته می‌شوند. با طرح‌های معمولی که مدارهای CMOS معمولاً در حاشیه وزن‌های RRAM هستند متفاوت است. اتصالات نورون با آرایه RRAM می‌تواند به‌عنوان ورودی یا خروجی نورون پیکربندی شود. این امکان استنتاج شبکه عصبی را در جهت های مختلف جریان داده بدون ایجاد هزینه های سربار در منطقه یا مصرف برق فراهم می کند. این به نوبه خود پیکربندی مجدد معماری را آسان تر می کند.

وایر وان، اولین نویسنده مقاله و یک دکترای اخیر، گفت: «عقل متعارف این است که کارایی بالاتر محاسبات در حافظه به قیمت تطبیق پذیری است، اما تراشه NeuRRAM ما بازدهی را به دست می آورد در حالی که تطبیق پذیری را قربانی نمی کند. فارغ التحصیل دانشگاه استنفورد که در دانشگاه کالیفرنیا سن دیگو بر روی تراشه کار می کرد، جایی که گرت کاونبرگز در بخش مهندسی زیستی به او مشاوره می داد.

آرایه سیناپس RRAM و شرایط عملیاتی آن به طور گسترده در دانشگاه استنفورد مشخص و بهینه شد.

علاوه بر این، تراشه NeuRRAM بسیار تطبیق پذیر است و از مدل ها و معماری های مختلف شبکه عصبی پشتیبانی می کند. در نتیجه، تراشه را می توان برای بسیاری از برنامه های کاربردی مختلف، از جمله تشخیص و بازسازی تصویر و همچنین تشخیص صدا استفاده کرد.

محققان خاطرنشان می کنند که یک سهم کلیدی این مقاله این است که تمام نتایج مشخص شده مستقیماً روی سخت افزار به دست می آیند. در بسیاری از کارهای قبلی تراشه‌های محاسباتی در حافظه، نتایج معیار هوش مصنوعی اغلب تا حدی با شبیه‌سازی نرم‌افزار به‌دست می‌آمدند.

برای حل این مشکل انتقال داده، محققان از آنچه به عنوان حافظه با دسترسی تصادفی مقاومتی شناخته می شود، استفاده کردند، نوعی حافظه غیر فرار که امکان محاسبه مستقیم در حافظه را به جای واحدهای محاسباتی جداگانه فراهم می کند. RRAM و دیگر فناوری‌های نوظهور حافظه که به‌عنوان آرایه‌های سیناپس برای محاسبات نورومورفیک استفاده می‌شوند، در آزمایشگاه فیلیپ وانگ، مشاور وان در استنفورد و یکی از مشارکت‌کنندگان اصلی این کار، پیشگام شدند. محاسبات با تراشه های RRAM لزوماً جدید نیست، اما به طور کلی منجر به کاهش دقت محاسبات انجام شده بر روی تراشه و عدم انعطاف پذیری در معماری تراشه می شود.

معماری جدید

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]