اتکا به الگوریتم ها و واگذار کردن تصمیم گیری های مهم بوسیله آن ها، روز به روز در دنیای فناوری بیشتر می شود. درواقع انسان ها بیش از همیشه تصمیم گیری را برعهده ی الگوریتم ها می گذارند تا شاید مایه تسلی تر عمر کنند. ازطرفی این تصور وجود دارد که الگوریتم های کامپیوتری و فهمیدن بدلی به عارض کلی، به تعصب های متداول در میان انسان ها دچار نیستند. ازطرفی، الگوریتم ها براساس داده ها آموزش می بینند و داده ها با همان تعصب ذاتی انسانی جمع آوری شده اند. درنتیجه امروز شاهد الگوریتم های فهم جعلی هستیم که تعصب و بعضا نژادپرستی ترقی دهنده های خود را تکرار می کنند. تاکنون مثال های متعددی از تعصب تو غرض گیری الگوریتم های هوش مصنوعی دیده شده است. ظاهرا اکثر الگوریتم ها بوسیله تعصب دچار هستند.
محققان دانشگاه استنفورد در جدیدترین تحقیقات خود، حوزه ی جدیدی را کشف کرده اند که احتمالا از کار بزرگ تعصب و نژادپرستی الگوریتمی در امان زدودن. الگوریتم های تشخیص صدا که کاربردهای متنوعی از تغییر ساده ی صوت به متن تا دریافت دستورهای صوتی در گوشی های هوشمند را ادا می دهند، دچار تعصب ذاتی هستند. ظاهرا این الگوریتم ها در نمره صدای افرادی با نژاد آفریقایی آمریکایی مشکلات عملکردی پیدا می کنند. البته فداکار شواهد نشان می دهد که مختصات جغرافیایی بی آرامی درون عملکرد آن ها تأثیر دارد.مقاله های مرتبط:ادراک مصنوعی چیست؟ هر آنچه باید درباره فناوری مرموز و جذاب امروز بدانیمسوگیری عمدی در هوش تقلبی چگونه به ما آسیب می رساند
سیستم های امتیاز نوا امروز بوسیله کمی بنیادی و خطیر تو دنیای فناوری تبدیل شده اند. تقریبا هر شرکت ارشد دنیای فناوری، سیستم تشخیص صدای اختصاصی خود را دارد. گروه تحقیقات بخاطر آزمایش خود سیستم نمره صدای شرکت های آمازون، اپل، گوگل، مایکروسافت و IBM را مورد تجسس قرار داد. اگرچه برخی از سرویس ها به نشانی سرویس فروشی به کسب وکارهای دیگر ارائه می شوند، الگوریتم های اپل و گوگل به رخساره مستقیم در گوشی هوشمند مصرف کننده ها کاربرد دارند. نقش روزافزون الگوریتم ها در زندگی مردم، خطا داخل عملکرد آن ها را برای بسیاری ناراحت کننده و آزاردهنده می کند. محققان در تحقیقات خود تلاش کردند تا هرگونه تعصب یا نژادپرستی را داخل اختلال های عملکردی الگوریتم ها امتیاز دهند.
قسمت قسمت کردن تحقیقاتی برای آزمایش الگوریتم ها، مجموعه ای عظیم از معیار های صوتی را جمع آوری کرد. دو مجموعه ی آزمایشی، اکثرا دربرگیرنده صداهای یک گروه خاص بودند. یک مجموعه، بیشتر شامل صدای آفریقایی-آمریکایی های مقیم کارولینای شمالی و دیگر اکثرا شامل صدای سفیدپوستان آن منطقه حیات. نمونه های دیگر، شامل صداهای گوناگون و ترکیبی از نژادهای دیگر بودند. نمونه های از مناطقی همچون راچستر نینیورک، ساکرامنتو کالیفرنیا و واشینگتن دی سی جمع آوری شدند. تمامی مجموعه های صوتی در همه ی پنج الگوریتم مبصر نمره لحن آزمایش شدند. مداقه الگوریتم ها ازطریق مقایسه با نمره ندا توسط کاربر انسانی، اندازه گیری شد.
محققان برای آزمایش خویشتن معیاری به معروفیت «قیمت خطای زبان ای» تعیین کردند. خطا محتوی کلمات تشخیص داده نشده و کلماتی می شد که به اشتباه توسط الگوریتم تفسیر می شدند. همه ی جهیز های تشخیص ندا عملکردی مناسب را در آزمایش علامت دادند و همه نرخی کم از ۰/۵ داشتند. داخل آزمایش مذکور، سیستم اپل بدترین و سیستم مایکروسافت، بهترین امتیازها را شهود کردند. در همگی ی آزمایش ها، نرخ خطا در صداهای گروه آفریقایی-آمریکایی، بیشتر از ارج خطا در گروه سفیدپوست بود. درواقع به رخساره طاسی ارج خطای دوبرابری در تشخیص صدای یک نژاد دیده می شد.
نرخ خطای جهیز های نمره ندا در تفسیر صدای مردان از نژاد آفریقایی-آمریکایی بیش از همگی بود. مردان و زنان سفیدپوست ارزش خطای میانگین ۰/۲۱ و ۰/۱۷ داشتند، درحالیکه قیمت خطای زنان آفریقایی-آمریکایی مقابل با ۰/۳ و بخاطر مردان آن نژاد برابر با ۰/۴۱ حیات.
نفاق در ارج خطای سیستم های امتیاز صدا در تفسیر صدا از نژادهای گوناگون چه اهمیتی دارد؟ محققان دعوی می کنند که بسته به کارایی جهیز ها، تفاوت تو مقدار خطا شکوه بالایی مشهود می کند. وقتی قیمت منکر از حدی اعلی برود، اصلاح تبدیل صوت بوسیله متن کامپیوتری زمان بیشتری نسبت به نوشتن دستی توسط خویشتن فرد نیاز خواهد داشت. بوسیله علاوه، با مقدار خطای بالا، گوشی هوشمند شما اکثر فرمان های صوتی را سهو عمل می دهد.
شاید نتایج بالا، به منطقه ی جغرافیایی وابسته باشند. از نظر آمریکایی ها، شهروندان کالیفرنیا عموما بوسیله نشانی افرادی بدون لهجه شناخته می شوند. نمونه های صوتی آن منطقه، قیمت خطای پایینی داشتند. منطقه ی راچستر اندوه نتایجی نزدیک بوسیله کالیفرنیا داشت و نتایج منطقه ی کلمبیا، بوسیله منطقه ی روستایی داخل کارولینای شمالی نزدیک زیرفون بود. اگر تخیل کنیم موقعیت جغرافیایی، در مقدار خطای الگوریتم ها تأثیر داشته باشد، باید نمونه های بزرگ تری برای آزمایش جرم به کار اندوهناک شود.
محققان داخل مرحله ی بعدی، ساختاربندی زبان را انتزاع کردند. از آنجایی که آن ها بوسیله الگوریتم های پایه ی پنج جهیز مقدم دسترسی نداشتد، از پکیج متن ورزش مصرف کردند که کارایی های متشابه دارد. آن ها درک نرم ادوات از زبان را با فاکتوری به نام perplexity بررسی کردند. این فاکتور، غلبه پیش بینی زبان ی اتیه در یک جمله را در سیستم امتیاز لحن مطالعه می نرم. با وارسی فاکتور سابق الذکر مشخص شد که سیستم ها اقتدار بهتری تو امتیاز ساختاربندی اصطلاح آفریقایی-آمریکایی ها دارند. چرا نتایج به اینگونه شکل گرفتند؟
سیستم ها درون تشخیص صدای فدایی نژادها و گروه های خاص، خطای عملکردی بیشتری دارند
محققان با معاینه دو نوع خروجی تحقیقاتی بوسیله این حاصل رسیدند که دو تمایل نژادی در گپ کردن وجود دارد. آفریقایی-آمریکایی ها نسبت بوسیله همشهری های سفیدپوست خود، از تعداد کلمات کمتری استعمال می کنند. ازطرفی جمله بندی آن ها ساختار پیچیده تری دارد. آن ها در بسیاری از موارد، کلمات را از میان جمله ها حذف می کنند، ولی مخاطب بوسیله قرار منظورشان را هوشیار می شود.
در مجموع یافته های دانشمندان این سؤال مطرح می شود که سیستم های تجاری چقدر برای واکنش بهتر به صداهای یک نژاد خاص بهینه سازی شده اند. محققان برای جلوه گر کردن پاسخ، نمونه های موجود را جست وجو گردند تا عبارت های قرین و موافق بین دو نژاد را محسوس کنند. وقتی این عبارت های مشابه در جهیز ها آزمایش شدند، باز تیمار ارج خطای آفریقایی-آمریکایی ها بیشتر از سفیدپوستان بود.
جهیز های تشخص نوا باید فاکتورهای متعددی را تو تعبیر کردن گپ کاربران در نظر بگیرند. تشخیص کلمه ها، ساختاربندی جمله ها و معنای مورد دیدن مخاطب، برخی از فاکتورها هستند. با مطالعه تجمیعی همه ی فاکتورها می قابلیت کلمات را به نواخت پیش بینی کرد. سیستم های تجاری کنونی ظاهرا داخل تفسیر کلمات فدایی از جوامع با چالش روبه رو هستند. این سیستم ها در ریشه خود سمت گرا طراحی نشده اند. ظاهرا زیرمجموعه ای از همگی ی صداهای موجود در ایالات متحده بخاطر آموزش سیستم ها استفاده شده است. درنتیجه آن ها برای تشخیص برخی صداها، آموزش کافی را ندیده اند. درنهایت این وظیفه برعهده ی همدستی های توسعه دهنده خواهد وجود تا مجموعه ی آموزشی جهیز ها را برای درک بهتر گفتار همگی ی گروه های جامعه، بهینه سازی کنند. بیشتر بخوانید:مایکروسافت درون حفاظت از داده های صوتی کاربران کوتاهی کرده استسیستم تشخیص گفتار جدید گوگل به صورت آفلاین نیز حکم می کندبه روزرسانی جدید GBoard با تایپ صوتی شعور تقلبی در حالت آفلاینالگوریتم امتیاز گفتار علی پدر می تواند صدا را درون فضا های اشفته نمره دهدسرویس تبدیل متن به کلام ابری گوگل، بروزرسانی های جدیدی را دریافت می یواش
محققان دانشگاه استنفورد در جدیدترین تحقیقات خود، حوزه ی جدیدی را کشف کرده اند که احتمالا از کار بزرگ تعصب و نژادپرستی الگوریتمی در امان زدودن. الگوریتم های تشخیص صدا که کاربردهای متنوعی از تغییر ساده ی صوت به متن تا دریافت دستورهای صوتی در گوشی های هوشمند را ادا می دهند، دچار تعصب ذاتی هستند. ظاهرا این الگوریتم ها در نمره صدای افرادی با نژاد آفریقایی آمریکایی مشکلات عملکردی پیدا می کنند. البته فداکار شواهد نشان می دهد که مختصات جغرافیایی بی آرامی درون عملکرد آن ها تأثیر دارد.مقاله های مرتبط:ادراک مصنوعی چیست؟ هر آنچه باید درباره فناوری مرموز و جذاب امروز بدانیمسوگیری عمدی در هوش تقلبی چگونه به ما آسیب می رساند
سیستم های امتیاز نوا امروز بوسیله کمی بنیادی و خطیر تو دنیای فناوری تبدیل شده اند. تقریبا هر شرکت ارشد دنیای فناوری، سیستم تشخیص صدای اختصاصی خود را دارد. گروه تحقیقات بخاطر آزمایش خود سیستم نمره صدای شرکت های آمازون، اپل، گوگل، مایکروسافت و IBM را مورد تجسس قرار داد. اگرچه برخی از سرویس ها به نشانی سرویس فروشی به کسب وکارهای دیگر ارائه می شوند، الگوریتم های اپل و گوگل به رخساره مستقیم در گوشی هوشمند مصرف کننده ها کاربرد دارند. نقش روزافزون الگوریتم ها در زندگی مردم، خطا داخل عملکرد آن ها را برای بسیاری ناراحت کننده و آزاردهنده می کند. محققان در تحقیقات خود تلاش کردند تا هرگونه تعصب یا نژادپرستی را داخل اختلال های عملکردی الگوریتم ها امتیاز دهند.
قسمت قسمت کردن تحقیقاتی برای آزمایش الگوریتم ها، مجموعه ای عظیم از معیار های صوتی را جمع آوری کرد. دو مجموعه ی آزمایشی، اکثرا دربرگیرنده صداهای یک گروه خاص بودند. یک مجموعه، بیشتر شامل صدای آفریقایی-آمریکایی های مقیم کارولینای شمالی و دیگر اکثرا شامل صدای سفیدپوستان آن منطقه حیات. نمونه های دیگر، شامل صداهای گوناگون و ترکیبی از نژادهای دیگر بودند. نمونه های از مناطقی همچون راچستر نینیورک، ساکرامنتو کالیفرنیا و واشینگتن دی سی جمع آوری شدند. تمامی مجموعه های صوتی در همه ی پنج الگوریتم مبصر نمره لحن آزمایش شدند. مداقه الگوریتم ها ازطریق مقایسه با نمره ندا توسط کاربر انسانی، اندازه گیری شد.
محققان برای آزمایش خویشتن معیاری به معروفیت «قیمت خطای زبان ای» تعیین کردند. خطا محتوی کلمات تشخیص داده نشده و کلماتی می شد که به اشتباه توسط الگوریتم تفسیر می شدند. همه ی جهیز های تشخیص ندا عملکردی مناسب را در آزمایش علامت دادند و همه نرخی کم از ۰/۵ داشتند. داخل آزمایش مذکور، سیستم اپل بدترین و سیستم مایکروسافت، بهترین امتیازها را شهود کردند. در همگی ی آزمایش ها، نرخ خطا در صداهای گروه آفریقایی-آمریکایی، بیشتر از ارج خطا در گروه سفیدپوست بود. درواقع به رخساره طاسی ارج خطای دوبرابری در تشخیص صدای یک نژاد دیده می شد.
نرخ خطای جهیز های نمره ندا در تفسیر صدای مردان از نژاد آفریقایی-آمریکایی بیش از همگی بود. مردان و زنان سفیدپوست ارزش خطای میانگین ۰/۲۱ و ۰/۱۷ داشتند، درحالیکه قیمت خطای زنان آفریقایی-آمریکایی مقابل با ۰/۳ و بخاطر مردان آن نژاد برابر با ۰/۴۱ حیات.
نفاق در ارج خطای سیستم های امتیاز صدا در تفسیر صدا از نژادهای گوناگون چه اهمیتی دارد؟ محققان دعوی می کنند که بسته به کارایی جهیز ها، تفاوت تو مقدار خطا شکوه بالایی مشهود می کند. وقتی قیمت منکر از حدی اعلی برود، اصلاح تبدیل صوت بوسیله متن کامپیوتری زمان بیشتری نسبت به نوشتن دستی توسط خویشتن فرد نیاز خواهد داشت. بوسیله علاوه، با مقدار خطای بالا، گوشی هوشمند شما اکثر فرمان های صوتی را سهو عمل می دهد.
شاید نتایج بالا، به منطقه ی جغرافیایی وابسته باشند. از نظر آمریکایی ها، شهروندان کالیفرنیا عموما بوسیله نشانی افرادی بدون لهجه شناخته می شوند. نمونه های صوتی آن منطقه، قیمت خطای پایینی داشتند. منطقه ی راچستر اندوه نتایجی نزدیک بوسیله کالیفرنیا داشت و نتایج منطقه ی کلمبیا، بوسیله منطقه ی روستایی داخل کارولینای شمالی نزدیک زیرفون بود. اگر تخیل کنیم موقعیت جغرافیایی، در مقدار خطای الگوریتم ها تأثیر داشته باشد، باید نمونه های بزرگ تری برای آزمایش جرم به کار اندوهناک شود.
محققان داخل مرحله ی بعدی، ساختاربندی زبان را انتزاع کردند. از آنجایی که آن ها بوسیله الگوریتم های پایه ی پنج جهیز مقدم دسترسی نداشتد، از پکیج متن ورزش مصرف کردند که کارایی های متشابه دارد. آن ها درک نرم ادوات از زبان را با فاکتوری به نام perplexity بررسی کردند. این فاکتور، غلبه پیش بینی زبان ی اتیه در یک جمله را در سیستم امتیاز لحن مطالعه می نرم. با وارسی فاکتور سابق الذکر مشخص شد که سیستم ها اقتدار بهتری تو امتیاز ساختاربندی اصطلاح آفریقایی-آمریکایی ها دارند. چرا نتایج به اینگونه شکل گرفتند؟
سیستم ها درون تشخیص صدای فدایی نژادها و گروه های خاص، خطای عملکردی بیشتری دارند
محققان با معاینه دو نوع خروجی تحقیقاتی بوسیله این حاصل رسیدند که دو تمایل نژادی در گپ کردن وجود دارد. آفریقایی-آمریکایی ها نسبت بوسیله همشهری های سفیدپوست خود، از تعداد کلمات کمتری استعمال می کنند. ازطرفی جمله بندی آن ها ساختار پیچیده تری دارد. آن ها در بسیاری از موارد، کلمات را از میان جمله ها حذف می کنند، ولی مخاطب بوسیله قرار منظورشان را هوشیار می شود.
در مجموع یافته های دانشمندان این سؤال مطرح می شود که سیستم های تجاری چقدر برای واکنش بهتر به صداهای یک نژاد خاص بهینه سازی شده اند. محققان برای جلوه گر کردن پاسخ، نمونه های موجود را جست وجو گردند تا عبارت های قرین و موافق بین دو نژاد را محسوس کنند. وقتی این عبارت های مشابه در جهیز ها آزمایش شدند، باز تیمار ارج خطای آفریقایی-آمریکایی ها بیشتر از سفیدپوستان بود.
جهیز های تشخص نوا باید فاکتورهای متعددی را تو تعبیر کردن گپ کاربران در نظر بگیرند. تشخیص کلمه ها، ساختاربندی جمله ها و معنای مورد دیدن مخاطب، برخی از فاکتورها هستند. با مطالعه تجمیعی همه ی فاکتورها می قابلیت کلمات را به نواخت پیش بینی کرد. سیستم های تجاری کنونی ظاهرا داخل تفسیر کلمات فدایی از جوامع با چالش روبه رو هستند. این سیستم ها در ریشه خود سمت گرا طراحی نشده اند. ظاهرا زیرمجموعه ای از همگی ی صداهای موجود در ایالات متحده بخاطر آموزش سیستم ها استفاده شده است. درنتیجه آن ها برای تشخیص برخی صداها، آموزش کافی را ندیده اند. درنهایت این وظیفه برعهده ی همدستی های توسعه دهنده خواهد وجود تا مجموعه ی آموزشی جهیز ها را برای درک بهتر گفتار همگی ی گروه های جامعه، بهینه سازی کنند. بیشتر بخوانید:مایکروسافت درون حفاظت از داده های صوتی کاربران کوتاهی کرده استسیستم تشخیص گفتار جدید گوگل به صورت آفلاین نیز حکم می کندبه روزرسانی جدید GBoard با تایپ صوتی شعور تقلبی در حالت آفلاینالگوریتم امتیاز گفتار علی پدر می تواند صدا را درون فضا های اشفته نمره دهدسرویس تبدیل متن به کلام ابری گوگل، بروزرسانی های جدیدی را دریافت می یواش
- ۹۹/۰۱/۰۸