هشدار درباره تعصبات نژادی در هوش مصنوعی؛ نام‌ها چگونه زمینه‌ساز کلیشه‌ها می‌شوند

هشدار درباره تعصبات نژادی در هوش مصنوعی؛ نام‌ها چگونه زمینه‌ساز کلیشه‌ها می‌شوند
0

هشدار درباره تعصبات نژادی در هوش مصنوعی؛ نام‌ها چگونه زمینه‌ساز کلیشه‌ها می‌شوند

به گزارش مالی3، نام‌هایی مانند لورا پاتل، لورا ویلیامز یا لورا نگوین، در برخی مدل‌های پیشرفته هوش مصنوعی امروزی به سرعت تصویری ذهنی از پس‌زمینه فرهنگی و جغرافیایی افراد ایجاد می‌کنند. این مدل‌ها که بر اساس تشخیص الگوهای زبانی آموزش دیده‌اند، اغلب نام‌های خاص را به صفات فرهنگی یا گروه‌های جمعیتی خاص مرتبط می‌سازند و به همین دلیل می‌توانند تعصبات و کلیشه‌های نژادپرستانه را بازتولید کنند.

توسعه‌دهندگان هوش مصنوعی هنگام آموزش این مدل‌ها، با داده‌هایی سروکار دارند که ممکن است شامل پیش‌فرض‌ها و تعصبات فرهنگی باشند. به‌عنوان مثال، نام لورا پاتل بیشتر در جوامع هندی و آمریکایی هند دیده می‌شود، در حالی که لورا اسمیت ممکن است در مناطق مرفه‌نشین بدون وابستگی قومی خاصی رایج باشد.

شان رن، استاد علوم کامپیوتر دانشگاه USC و بنیان‌گذار پروژه صحرا هوش مصنوعی، توضیح می‌دهد که دلیل این تعصبات به داده‌های آموزشی مدل‌ها بازمی‌گردد: «مدل‌ها بارها و بارها این نام‌ها را در داده‌های آموزشی خود مشاهده کرده‌اند و آنها را با گروه‌های خاصی مانند «آمریکایی هندی» مرتبط می‌کنند. در نتیجه این مدل‌ها کلیشه‌هایی شکل می‌دهند که ممکن است مغرضانه باشند.»

این موضوع هشدار می‌دهد که بدون توجه کافی به منبع داده‌ها و نحوه آموزش مدل‌های هوش مصنوعی، ممکن است تعصبات و تبعیض‌های فرهنگی و نژادی در سیستم‌های فناوری بازتولید و تقویت شود، که تأثیرات منفی گسترده‌ای در سیاست، استخدام، پلیس و تحلیل داده‌ها خواهد داشت.

اشتراک گذاری

Profile Picture
نوشته شده توسط:

نازنین راد

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *