هشدار درباره تعصبات نژادی در هوش مصنوعی؛ نامها چگونه زمینهساز کلیشهها میشوند
به گزارش مالی3، نامهایی مانند لورا پاتل، لورا ویلیامز یا لورا نگوین، در برخی مدلهای پیشرفته هوش مصنوعی امروزی به سرعت تصویری ذهنی از پسزمینه فرهنگی و جغرافیایی افراد ایجاد میکنند. این مدلها که بر اساس تشخیص الگوهای زبانی آموزش دیدهاند، اغلب نامهای خاص را به صفات فرهنگی یا گروههای جمعیتی خاص مرتبط میسازند و به همین دلیل میتوانند تعصبات و کلیشههای نژادپرستانه را بازتولید کنند.
توسعهدهندگان هوش مصنوعی هنگام آموزش این مدلها، با دادههایی سروکار دارند که ممکن است شامل پیشفرضها و تعصبات فرهنگی باشند. بهعنوان مثال، نام لورا پاتل بیشتر در جوامع هندی و آمریکایی هند دیده میشود، در حالی که لورا اسمیت ممکن است در مناطق مرفهنشین بدون وابستگی قومی خاصی رایج باشد.
شان رن، استاد علوم کامپیوتر دانشگاه USC و بنیانگذار پروژه صحرا هوش مصنوعی، توضیح میدهد که دلیل این تعصبات به دادههای آموزشی مدلها بازمیگردد: «مدلها بارها و بارها این نامها را در دادههای آموزشی خود مشاهده کردهاند و آنها را با گروههای خاصی مانند «آمریکایی هندی» مرتبط میکنند. در نتیجه این مدلها کلیشههایی شکل میدهند که ممکن است مغرضانه باشند.»
این موضوع هشدار میدهد که بدون توجه کافی به منبع دادهها و نحوه آموزش مدلهای هوش مصنوعی، ممکن است تعصبات و تبعیضهای فرهنگی و نژادی در سیستمهای فناوری بازتولید و تقویت شود، که تأثیرات منفی گستردهای در سیاست، استخدام، پلیس و تحلیل دادهها خواهد داشت.
نظرات کاربران