صفحهخوانها میتوانند کاربران را در مورد متن روی صفحه مطلع کنند، زیرا این چیزی است که محققان آن را «اطلاعات یکبعدی» مینامند.
افزودن یک خط کد میتواند برخی از تجسمهای تعاملی را برای کاربران صفحهخوان در دسترس قرار دهد — ScienceDaily
در حال حاضر، VoxLens فقط برای تجسم هایی کار می کند که با استفاده از کتابخانه های جاوا اسکریپت، مانند D3، chart.js یا Google Sheets ایجاد می شوند. اما این تیم در حال توسعه به دیگر پلتفرم های تجسم محبوب است. محققان همچنین اذعان کردند که استفاده از سیستم تشخیص صدا می تواند خسته کننده باشد.
شریف گفت: «ما نمی خواستیم مردم از تصویری به تصویر دیگر بپرند و اطلاعات متناقض را تجربه کنند. ما VoxLens را به یک کتابخانه عمومی تبدیل کردیم، به این معنی که شما میخواهید یک نوع خلاصه را برای همه تجسمها بشنوید. طراحان فقط میتوانند آن یک خط کد را اضافه کنند و سپس بقیه را انجام میدهیم.
Jacob O. Wobbrock، یکی از نویسندگان ارشد، استاد UW در مدرسه اطلاعات گفت: “یک شروع و پایان یک جمله وجود دارد و هر چیز دیگری در این بین قرار می گیرد.” “اما به محض اینکه چیزها را به فضاهای دو بعدی مانند تجسم ها منتقل می کنید، شروع و پایان واضحی وجود ندارد. ساختار آن به یک شکل نیست، به این معنی که هیچ نقطه ورود یا ترتیب مشخصی برای صفحه خوان ها وجود ندارد.”
شریف گفت: «ما میخواستیم مطمئن شویم که این اعداد دقت و زمان تعاملی که دیدیم در احساس شرکتکنندگان در مورد VoxLens منعکس میشود. “ما بازخوردهای بسیار مثبتی دریافت کردیم. شخصی به ما گفت که در 12 سال گذشته سعی کرده اند به تجسم ها دسترسی داشته باشند و این اولین باری بود که توانستند به راحتی این کار را انجام دهند.”
برای پیاده سازی VoxLens، طراحان تجسم فقط باید یک خط کد اضافه کنند.
شریف گفت: «ما از مردم میخواهیم که هر چقدر که میخواهند با یک نمودار تعامل داشته باشند، اما همچنین نمیخواهیم آنها یک ساعت برای یافتن حداکثر آن وقت صرف کنند». “در مطالعه ما، زمان تعامل به مدت زمان استخراج اطلاعات اشاره دارد و به همین دلیل کاهش آن چیز خوبی است.”
در مقایسه با شرکت کنندگان مطالعه قبلی که به این ابزار دسترسی نداشتند، کاربران VoxLens وظایف را با 122 درصد افزایش دقت و 36 درصد کاهش زمان تعامل انجام دادند.
نویسندگان دیگر این مقاله عبارتند از اولیویا وانگ، دانشجوی کارشناسی UW در مدرسه آلن، و آلیدا موونگچان، دانشجوی کارشناسی UW که در زمینه طراحی و مهندسی انسان محور مطالعه می کند. این تحقیق توسط بنیاد خیریه مانی، مرکز دانشگاه واشنگتن برای عموم آگاه، و مرکز تحقیقات و آموزش دانشگاه واشنگتن در زمینه فناوری و تجربیات قابل دسترس تامین شده است.
تجسم های تعاملی نحوه درک ما از زندگی خود را تغییر داده است. به عنوان مثال، آنها می توانند تعداد عفونت های کروناویروس را در هر ایالت به نمایش بگذارند.
تیم این پروژه را در 3 می در CHI 2022 در نیواورلئان ارائه کرد.
Katharina Reinecke، یکی از نویسندگان ارشد، استادیار UW در مدرسه آلن، گفت: “این کار بخشی از یک دستور کار بسیار بزرگتر برای ما است — حذف تعصب در طراحی.” “زمانی که ما فناوری می سازیم، تمایل داریم به افرادی فکر کنیم که شبیه ما هستند و توانایی های مشابه ما را دارند. به عنوان مثال، D3 واقعاً دسترسی به تجسم های آنلاین را متحول کرده است و نحوه درک افراد را بهبود بخشیده است. اما ارزش هایی وجود دارد که ریشه دوانده است. این واقعاً مهم است که ما بیشتر به این فکر کنیم که چگونه فناوری را برای همه مفید کنیم.”
آتر شریف، نویسنده اصلی، دانشجوی دکتری UW در مدرسه پل جی آلن، میگوید: «اگر به یک نمودار نگاه میکنم، میتوانم هر اطلاعاتی را که به آن علاقه دارم بیرون بیاورم، شاید این روند کلی یا شاید حداکثر باشد. رشته علوم و مهندسی کامپیوتر “در حال حاضر، کاربران صفحهخوان یا اطلاعات بسیار کمی در مورد تجسمهای آنلاین دریافت میکنند، که با توجه به همهگیری COVID-19، گاهی اوقات میتواند موضوع مرگ و زندگی باشد. هدف پروژه ما ارائه صفحه نمایش است. کاربران خواننده پلتفرمی هستند که در آن میتوانند هر چقدر که میخواهند اطلاعات را استخراج کنند.”
اما این گرافیکها اغلب برای افرادی که از صفحهخوانها استفاده میکنند، برنامههای نرمافزاری که محتویات صفحه رایانه را اسکن میکنند و محتوا را از طریق صدای ترکیبی یا خط بریل در دسترس قرار میدهند، در دسترس نیستند. میلیونها آمریکایی به دلایل مختلفی از جمله نابینایی کامل یا جزئی، ناتوانیهای یادگیری یا حساسیت حرکتی از صفحهخوان استفاده میکنند.
این تیم همچنین با شش شرکت کننده در مورد تجربیاتشان مصاحبه کرد.
شریف گفت: «در زمینه دسترسی، واقعاً مهم است که از اصل «بدون ما درباره ما چیزی نیست» پیروی کنیم. “ما قرار نیست چیزی بسازیم و سپس ببینیم که چگونه کار می کند. ما آن را با در نظر گرفتن بازخورد کاربران می سازیم. ما می خواهیم آنچه را که آنها نیاز دارند بسازیم.”
محققان VoxLens را با استخدام 22 کاربر صفحهخوان که کاملاً یا تا حدی نابینا بودند، ارزیابی کردند. شرکت کنندگان یاد گرفتند که چگونه از VoxLens استفاده کنند و سپس 9 کار را انجام دادند که هر کدام شامل پاسخ دادن به سؤالاتی در مورد تجسم بود.
محققان دانشگاه واشنگتن با کاربران صفحهخوان کار کردند تا VoxLens را طراحی کنند، یک افزونه جاوا اسکریپت که – با یک خط کد اضافی – به افراد اجازه میدهد با تجسمها تعامل داشته باشند. کاربران VoxLens می توانند خلاصه سطح بالایی از اطلاعات توصیف شده در یک نمودار را به دست آورند، به یک نمودار ترجمه شده به صدا گوش دهند یا از دستورات فعال صوتی برای پرسیدن سؤالات خاص در مورد داده ها، مانند میانگین یا حداقل مقدار استفاده کنند.
این تیم پروژه را با کار با پنج کاربر صفحهخوان با نابینایی جزئی یا کامل شروع کردند تا بفهمند یک ابزار بالقوه چگونه میتواند کار کند.