افزودن یک خط کد می‌تواند برخی از تجسم‌های تعاملی را برای کاربران صفحه‌خوان در دسترس قرار دهد — ScienceDaily

صفحه‌خوان‌ها می‌توانند کاربران را در مورد متن روی صفحه مطلع کنند، زیرا این چیزی است که محققان آن را «اطلاعات یک‌بعدی» می‌نامند.

کد در GitHub در دسترس است:



منبع

در حال حاضر، VoxLens فقط برای تجسم هایی کار می کند که با استفاده از کتابخانه های جاوا اسکریپت، مانند D3، chart.js یا Google Sheets ایجاد می شوند. اما این تیم در حال توسعه به دیگر پلتفرم های تجسم محبوب است. محققان همچنین اذعان کردند که استفاده از سیستم تشخیص صدا می تواند خسته کننده باشد.

شریف گفت: «ما نمی خواستیم مردم از تصویری به تصویر دیگر بپرند و اطلاعات متناقض را تجربه کنند. ما VoxLens را به یک کتابخانه عمومی تبدیل کردیم، به این معنی که شما می‌خواهید یک نوع خلاصه را برای همه تجسم‌ها بشنوید. طراحان فقط می‌توانند آن یک خط کد را اضافه کنند و سپس بقیه را انجام می‌دهیم.

Jacob O. Wobbrock، یکی از نویسندگان ارشد، استاد UW در مدرسه اطلاعات گفت: “یک شروع و پایان یک جمله وجود دارد و هر چیز دیگری در این بین قرار می گیرد.” “اما به محض اینکه چیزها را به فضاهای دو بعدی مانند تجسم ها منتقل می کنید، شروع و پایان واضحی وجود ندارد. ساختار آن به یک شکل نیست، به این معنی که هیچ نقطه ورود یا ترتیب مشخصی برای صفحه خوان ها وجود ندارد.”

شریف گفت: «ما می‌خواستیم مطمئن شویم که این اعداد دقت و زمان تعاملی که دیدیم در احساس شرکت‌کنندگان در مورد VoxLens منعکس می‌شود. “ما بازخوردهای بسیار مثبتی دریافت کردیم. شخصی به ما گفت که در 12 سال گذشته سعی کرده اند به تجسم ها دسترسی داشته باشند و این اولین باری بود که توانستند به راحتی این کار را انجام دهند.”

برای پیاده سازی VoxLens، طراحان تجسم فقط باید یک خط کد اضافه کنند.

شریف گفت: «ما از مردم می‌خواهیم که هر چقدر که می‌خواهند با یک نمودار تعامل داشته باشند، اما همچنین نمی‌خواهیم آنها یک ساعت برای یافتن حداکثر آن وقت صرف کنند». “در مطالعه ما، زمان تعامل به مدت زمان استخراج اطلاعات اشاره دارد و به همین دلیل کاهش آن چیز خوبی است.”

در مقایسه با شرکت کنندگان مطالعه قبلی که به این ابزار دسترسی نداشتند، کاربران VoxLens وظایف را با 122 درصد افزایش دقت و 36 درصد کاهش زمان تعامل انجام دادند.

نویسندگان دیگر این مقاله عبارتند از اولیویا وانگ، دانشجوی کارشناسی UW در مدرسه آلن، و آلیدا موونگچان، دانشجوی کارشناسی UW که در زمینه طراحی و مهندسی انسان محور مطالعه می کند. این تحقیق توسط بنیاد خیریه مانی، مرکز دانشگاه واشنگتن برای عموم آگاه، و مرکز تحقیقات و آموزش دانشگاه واشنگتن در زمینه فناوری و تجربیات قابل دسترس تامین شده است.

تجسم های تعاملی نحوه درک ما از زندگی خود را تغییر داده است. به عنوان مثال، آنها می توانند تعداد عفونت های کروناویروس را در هر ایالت به نمایش بگذارند.

تیم این پروژه را در 3 می در CHI 2022 در نیواورلئان ارائه کرد.

Katharina Reinecke، یکی از نویسندگان ارشد، استادیار UW در مدرسه آلن، گفت: “این کار بخشی از یک دستور کار بسیار بزرگتر برای ما است — حذف تعصب در طراحی.” “زمانی که ما فناوری می سازیم، تمایل داریم به افرادی فکر کنیم که شبیه ما هستند و توانایی های مشابه ما را دارند. به عنوان مثال، D3 واقعاً دسترسی به تجسم های آنلاین را متحول کرده است و نحوه درک افراد را بهبود بخشیده است. اما ارزش هایی وجود دارد که ریشه دوانده است. این واقعاً مهم است که ما بیشتر به این فکر کنیم که چگونه فناوری را برای همه مفید کنیم.”

آتر شریف، نویسنده اصلی، دانشجوی دکتری UW در مدرسه پل جی آلن، می‌گوید: «اگر به یک نمودار نگاه می‌کنم، می‌توانم هر اطلاعاتی را که به آن علاقه دارم بیرون بیاورم، شاید این روند کلی یا شاید حداکثر باشد. رشته علوم و مهندسی کامپیوتر “در حال حاضر، کاربران صفحه‌خوان یا اطلاعات بسیار کمی در مورد تجسم‌های آنلاین دریافت می‌کنند، که با توجه به همه‌گیری COVID-19، گاهی اوقات می‌تواند موضوع مرگ و زندگی باشد. هدف پروژه ما ارائه صفحه نمایش است. کاربران خواننده پلتفرمی هستند که در آن می‌توانند هر چقدر که می‌خواهند اطلاعات را استخراج کنند.”

اما این گرافیک‌ها اغلب برای افرادی که از صفحه‌خوان‌ها استفاده می‌کنند، برنامه‌های نرم‌افزاری که محتویات صفحه رایانه را اسکن می‌کنند و محتوا را از طریق صدای ترکیبی یا خط بریل در دسترس قرار می‌دهند، در دسترس نیستند. میلیون‌ها آمریکایی به دلایل مختلفی از جمله نابینایی کامل یا جزئی، ناتوانی‌های یادگیری یا حساسیت حرکتی از صفحه‌خوان استفاده می‌کنند.

این تیم همچنین با شش شرکت کننده در مورد تجربیاتشان مصاحبه کرد.

شریف گفت: «در زمینه دسترسی، واقعاً مهم است که از اصل «بدون ما درباره ما چیزی نیست» پیروی کنیم. “ما قرار نیست چیزی بسازیم و سپس ببینیم که چگونه کار می کند. ما آن را با در نظر گرفتن بازخورد کاربران می سازیم. ما می خواهیم آنچه را که آنها نیاز دارند بسازیم.”

محققان VoxLens را با استخدام 22 کاربر صفحه‌خوان که کاملاً یا تا حدی نابینا بودند، ارزیابی کردند. شرکت کنندگان یاد گرفتند که چگونه از VoxLens استفاده کنند و سپس 9 کار را انجام دادند که هر کدام شامل پاسخ دادن به سؤالاتی در مورد تجسم بود.

محققان دانشگاه واشنگتن با کاربران صفحه‌خوان کار کردند تا VoxLens را طراحی کنند، یک افزونه جاوا اسکریپت که – با یک خط کد اضافی – به افراد اجازه می‌دهد با تجسم‌ها تعامل داشته باشند. کاربران VoxLens می توانند خلاصه سطح بالایی از اطلاعات توصیف شده در یک نمودار را به دست آورند، به یک نمودار ترجمه شده به صدا گوش دهند یا از دستورات فعال صوتی برای پرسیدن سؤالات خاص در مورد داده ها، مانند میانگین یا حداقل مقدار استفاده کنند.

این تیم پروژه را با کار با پنج کاربر صفحه‌خوان با نابینایی جزئی یا کامل شروع کردند تا بفهمند یک ابزار بالقوه چگونه می‌تواند کار کند.

Matthew Newman

Matthew Newman Matthew has over 15 years of experience in database management and software development, with a strong focus on full-stack web applications. He specializes in Django and Vue.js with expertise deploying to both server and serverless environments on AWS. He also works with relational databases and large datasets
[ Back To Top ]