پیشرفت جدید ارتباطات دیجیتالی کاملاً ایمن را امکان پذیر می کند – ScienceDaily

پروفسور Jakob Foerster (بخش علوم مهندسی، دانشگاه آکسفورد)، نویسنده مشارکت کننده در این زمینه گفت: “این مقاله یک نمونه عالی از تحقیقات در زمینه مبانی یادگیری ماشینی است که منجر به اکتشافات موفقیت آمیز در زمینه های کاربردی مهم می شود.” دیدن این که آکسفورد، و به ویژه آزمایشگاه جوان ما، در خط مقدم همه چیز قرار دارند، شگفت انگیز است.

نویسنده همکار ساموئل سوکوتا (گروه یادگیری ماشین، دانشگاه کارنگی ملون) گفت: مشارکت اصلی کار نشان دادن ارتباط عمیق بین مشکلی به نام جفت شدن حداقل آنتروپی و استگانوگرافی کاملاً ایمن است. با استفاده از این ارتباط، خانواده جدیدی از الگوریتم‌های استگانوگرافی را معرفی می‌کنیم که تضمین‌های امنیتی کاملی دارند.

در نتیجه، با الگوریتم جدید، هیچ تفاوت آماری بین توزیع محتوای بی ضرر و توزیع محتوایی که اطلاعات حساس را رمزگذاری می کند، وجود ندارد.

گروهی از محققان با توسعه الگوریتمی که اطلاعات حساس را چنان مؤثر پنهان می‌کند که تشخیص مخفی بودن چیزی غیرممکن است، به پیشرفتی در ارتباطات ایمن دست یافته‌اند.

این تیم به رهبری دانشگاه آکسفورد با همکاری نزدیک با دانشگاه کارنگی ملون، پیش‌بینی می‌کند که این روش به زودی به طور گسترده در ارتباطات دیجیتال انسانی، از جمله رسانه‌های اجتماعی و پیام‌های خصوصی مورد استفاده قرار گیرد. به ویژه، توانایی ارسال اطلاعات کاملاً ایمن ممکن است گروه‌های آسیب‌پذیر، مانند مخالفان، روزنامه‌نگاران تحقیقی، و امدادگران بشردوستانه را توانمند کند.

برای غلبه بر این مسئله، تیم تحقیقاتی از پیشرفت‌های اخیر در تئوری اطلاعات، به‌ویژه جفت‌گیری حداقل آنتروپی استفاده کرد، که به فرد اجازه می‌دهد دو توزیع داده را به هم بپیوندد تا اطلاعات متقابل آنها به حداکثر برسد، اما توزیع‌های فردی حفظ شوند.

علاوه بر دکتر کریستین شرودر دو ویت، ساموئل سوکوتا و پروفسور جاکوب فورستر، این مطالعه شامل پروفسور زیکو کولتر از دانشگاه کارنگی ملون، ایالات متحده آمریکا، و دکتر مارتین استروهمایر از آرماسوئیس Science+Technology، سوئیس بود. این کار تا حدی توسط یک صندوق EPSRC IAA Doctoral Impact به میزبانی پروفسور فیلیپ تور، گروه Torr Vision، در دانشگاه آکسفورد تامین شد.



منبع

تیم تحقیقاتی یک پتنت برای الگوریتم به ثبت رسانده است، اما قصد دارد آن را تحت یک مجوز رایگان برای اشخاص ثالث برای استفاده مسئولانه غیرتجاری صادر کند. این شامل استفاده آکادمیک و بشردوستانه و ممیزی های امنیتی شخص ثالث قابل اعتماد است. محققان این کار را به عنوان یک مقاله پیش‌چاپ در arXiv منتشر کرده‌اند و همچنین اجرای ناکارآمد روش خود را در Github به صورت منبع باز منتشر کرده‌اند. آنها همچنین الگوریتم جدید را در کنفرانس برتر هوش مصنوعی، کنفرانس بین المللی 2023 در مورد بازنمایی های یادگیری در ماه مه ارائه خواهند کرد.

دکتر کریستین شرودر دو ویت (بخش علوم مهندسی، دانشگاه آکسفورد) یکی از نویسندگان این مقاله گفت: «روش ما را می‌توان برای هر نرم‌افزاری که به‌طور خودکار محتوا تولید می‌کند، به‌عنوان مثال فیلترهای ویدیویی احتمالی یا تولیدکننده‌های میم، اعمال کرد. این می تواند بسیار ارزشمند باشد، به عنوان مثال، برای روزنامه نگاران و امدادگران در کشورهایی که عمل رمزگذاری غیرقانونی است. با این حال، کاربران همچنان باید احتیاط کنند زیرا هر تکنیک رمزگذاری ممکن است در برابر حملات کانال جانبی مانند شناسایی یک برنامه steganography در تلفن کاربر آسیب پذیر باشد.

این الگوریتم با استفاده از چندین نوع مدل که محتوای تولید شده خودکار را تولید می‌کنند، آزمایش شد، مانند GPT-2، یک مدل زبان منبع باز، و WAVE-RNN، یک مبدل متن به گفتار. علاوه بر امنیت کامل، الگوریتم جدید تا 40 درصد کارایی رمزگذاری بالاتری نسبت به روش‌های استگانوگرافی قبلی در برنامه‌های مختلف نشان داد، و این امکان را فراهم می‌آورد که اطلاعات بیشتری در یک مقدار معین داده پنهان شود. این ممکن است استگانوگرافی را به روشی جذاب تبدیل کند، حتی اگر به امنیت کامل نیاز نباشد، به دلیل مزایای فشرده سازی و ذخیره سازی داده ها.

علیرغم مطالعه بیش از 25 سال، رویکردهای استگانوگرافی موجود عموماً امنیت ناقصی دارند، به این معنی که افرادی که از این روش ها استفاده می کنند در معرض خطر شناسایی قرار می گیرند. این به این دلیل است که الگوریتم‌های استگانوگرافی قبلی به‌طور نامحسوسی توزیع محتوای بی‌ضرر را تغییر می‌دهند.

محتوای تولید شده با هوش مصنوعی به طور فزاینده ای در ارتباطات معمولی انسانی مورد استفاده قرار می گیرد که توسط محصولاتی مانند ChatGPT، برچسب های هوش مصنوعی اسنپ چت و فیلترهای ویدئویی TikTok تامین می شود. در نتیجه، استگانوگرافی ممکن است گسترده‌تر شود زیرا حضور صرف محتوای تولید شده توسط هوش مصنوعی باعث ایجاد سوء ظن نخواهد شد.

این الگوریتم برای تنظیمی به نام اعمال می شود استگانوگرافی: عمل پنهان کردن اطلاعات حساس در داخل محتوای بی ضرر. استگانوگرافی با رمزنگاری متفاوت است زیرا اطلاعات حساس به گونه ای پنهان می شوند که این حقیقت پنهان شدن چیزی را پنهان می کند. به عنوان مثال می توان یک شعر شکسپیر را در تصویری از یک گربه که توسط هوش مصنوعی ایجاد شده است، پنهان کرد.

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]