هوش مصنوعی و اخلاق: آیا شبیه‌سازی گفتگو با متوفیان مرزهای اخلاقی را نقض می‌کند؟

هوش مصنوعی و اخلاق: آیا شبیه‌سازی گفتگو با متوفیان مرزهای اخلاقی را نقض می‌کند؟
0

هوش مصنوعی و اخلاق: آیا شبیه‌سازی گفتگو با متوفیان مرزهای اخلاقی را نقض می‌کند؟

به گزارش مالی3، آواتار هوش مصنوعی خواکین الیور، یکی از قربانیان تیراندازی مدرسه پارکلند در سال ۲۰۱۸، در مصاحبه‌ای که جیم آکوستا، خبرنگار سابق سی‌ان‌ان، به‌عنوان بخشی از یک کمپین دیجیتال برای اصلاح قوانین اسلحه منتشر کرد، ظاهر شد. این مصاحبه که با همکاری والدین الیور و گروه مدافع «تغییر مرجع» ساخته شده بود، به شدت مورد انتقاد قرار گرفت.

آکوستا در روز دوشنبه و هم‌زمان با بیست و پنجمین سالگرد تولد خواکین، با آواتار هوش مصنوعی مصاحبه کرد که به سوالات پاسخ‌هایی برگرفته از نوشته‌های گذشته خواکین می‌داد. پدر خواکین، مانوئل الیور، از استفاده از این فناوری دفاع کرد و گفت که هدفش احیای پسرش نیست، بلکه فقط قصد دارد از یاد او محافظت کند.

این آواتار برای مقابله با خشونت‌های اسلحه و برای گسترش مباحثات در مورد قوانین کنترل اسلحه طراحی شده بود، اما استفاده از آن واکنش‌های متفاوتی برانگیخت. برخی از افراد این اقدام را «دیوانه‌وار» و «نگران‌کننده» دانستند و نگرانی‌هایی را درباره تأثیر عاطفی و اخلاقی آن مطرح کردند. در حالی که دیگران از تلاش‌های خانواده برای حفظ یاد پسرشان حمایت کردند.

کمپین قبلی «تغییر مرجع» نیز از هوش مصنوعی برای ارسال پیام‌هایی از قربانیان خشونت با اسلحه به قانونگذاران استفاده کرده بود. محققان دانشگاه کمبریج نیز در سال ۲۰۲۴ هشدار داده‌اند که استفاده از هوش مصنوعی برای بازآفرینی مردگان ممکن است نگرانی‌های اخلاقی جدی به همراه داشته باشد.

اشتراک گذاری

Profile Picture
نوشته شده توسط:

لیلا تاجیک

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *