انویدیا با همکاری شرکای خود، پلتفرم هوش مصنوعی Signs را برای آموزش زبان اشاره آمریکایی (ASL) راهاندازی کرده است.
به گزارش تکناک، انویدیا با همکاری انجمن آمریکایی کودکان ناشنوا و آژانس خلاق Hello Monday از پلتفرم هوش مصنوعی جدید Signs پردهبرداری کرد. این سامانه هوش مصنوعی با هدف آموزش زبان اشاره آمریکایی (ASL) و کاهش موانع ارتباطی میان افراد ناشنوا و شنوا توسعه یافته است.
پلتفرم هوش مصنوعی Signs مجموعهای از دادههای معتبر را برای یادگیری زبان اشاره و توسعه فناوریهای مبتنیبر ASL ارائه میدهد. این سیستم تعاملی به کاربران کمک میکند تا به کتابخانهای گسترده از علائم زبان اشاره دسترسی داشته باشند و حرکات صحیح را ازطریق آواتار سهبعدی مشاهده کنند و با کمک ابزار هوش مصنوعی تحلیلکننده ویدئو، بازخورد آنی درباره اجرای علائم دریافت کنند.
علاوهبر این، پلتفرم Signs بستری برای مشارکت داوطلبانه کاربران فراهم کرده است. افراد میتوانند با ضبط و ارسال ویدئوهای خود، به توسعه مجموعه داده منبعباز برای زبان اشاره کمک کنند. با اینکه زبان اشاره آمریکایی سومین زبان پرکاربرد در ایالات متحده محسوب میشود، ابزارهای مبتنیبر هوش مصنوعی که از دادههای این زبان استفاده میکنند، بهمراتب کمتر از زبانهای رایجتر مانند انگلیسی و اسپانیایی هستند.
ونچربیت مینویسد که انویدیا قصد دارد این مجموعه داده را به ۴۰۰,۰۰۰ کلیپ ویدیویی شامل ۱,۰۰۰ کلمه اشارهای گسترش دهد. این دادهها را افراد مسلط به ASL و مترجمان تأیید میکنند تا دقت حرکات تضمین شود و فرهنگ لغت تصویری باکیفیت برای آموزش زبان اشاره در دسترس قرار گیرد.

انویدیا قصد دارد از این مجموعه داده برای توسعه برنامههای هوش مصنوعی دسترسپذیر استفاده و موانع ارتباطی میان افراد ناشنوا و شنوا را برطرف کند. این دادهها بهعنوان منبع عمومی منتشر خواهند شد و در توسعه فناوریهایی همچون عاملهای هوش مصنوعی و برنامههای انسان دیجیتال و ابزارهای ویدئوکنفرانس میتوانند استفاده شوند.
ادغام حرکات غیر دستی در آینده
پلتفرم هوش مصنوعی Signs درحالحاضر روی حرکات دست و موقعیت انگشتان متمرکز است؛ اما زبان اشاره آمریکایی شامل حالات چهره و حرکات سر نیز میشود که نقش مهمی در انتقال معانی دارند. تیم توسعهدهنده این پلتفرم در حال بررسی روشهایی برای ادغام این نشانههای غیرحرکتی در نسخههای آینده Signs است.
علاوهبر این، پژوهشگران در تلاشاند تا تفاوتهای منطقهای و اصطلاحات محاورهای را نیز در سیستم بگنجانند و با همکاری محققان مرکز پژوهشی دسترسپذیری و شمول در مؤسسه فناوری راچستر، تجربه کاربری این پلتفرم را برای ناشنوایان و کمشنوایان بهینهسازی کنند.

مجموعه داده پشت پلتفرم هوش مصنوعی Signs قرار است اواخر سال جاری منتشر شود. کاربران علاقهمند میتوانند با مراجعه به signs-ai.com یادگیری را آغاز یا در توسعه مجموعه داده آن مشارکت کنند. همچنین، شرکتکنندگان در Nvidia GTC، کنفرانس جهانی هوش مصنوعی که از ۱۷ تا ۲۱ مارس در سنخوزه برگزار میشود، میتوانند بهصورت زنده با این پلتفرم تعامل برقرار کنند.
دیدگاهها 1