ملانیا ترامپ از هوش مصنوعی برای نوشتن خاطرات جدید خود استفاده می‌کند

ملانیا ترامپ از هوش مصنوعی برای نوشتن خاطرات جدید خود استفاده می‌کند
0

ملانیا ترامپ از هوش مصنوعی برای نوشتن خاطرات جدید خود استفاده می‌کند

به گزارش مالی3 ،بانوی اول ایالات متحده، ملانیا ترامپ، کتاب صوتی خاطرات خود را با عنوان “ملانیا” منتشر کرده است. جالب اینجاست که او از یک ماکت تولید شده با هوش مصنوعی از صدای خود استفاده کرده است. این اولین بار است که یک بانوی اول ایالات متحده از اطلاعات مصنوعی برای روایت یک کتاب صوتی استفاده کرده است.

یک مدل صوتی جدید با همکاری شرکت Elevenlabs، استارتاپی فعال در زمینه هوش مصنوعی، زیر نظر و هدایت خود، بر اساس اطلاعات موجود در وب‌سایت رسمی وی، به وجود آمده است.

یک پلتفرم صوتی با نام ElevenReader که توسط شرکت Elevellabs توسعه داده شده است، کتاب‌های صوتی را از طریق این برنامه به کاربران ارائه می‌دهد. این برنامه با قدرت هوش مصنوعی عمل می‌کند و قابلیت‌های منحصر به فردی برای تجربه بهتر خواندن کتاب های صوتی فراهم می کند. کتاب صوتی جدیدی که اخیراً جهت عرضه انتخاب شده است، با قیمت 25 دلار از طریق این پلتفرم در دسترس قرار گرفته است و توسط مشتریان مورد استفاده قرار می گیرد، این برنامه ها را می توان از روز پنج شنبه معرفی کرد.

ترامپ روز پنجشنبه توئیت کرد: “من افتخار می کنم که ملانیا – کتاب صوتی AI – کاملاً با استفاده از هوش مصنوعی روایت شده است.” “بگذارید آینده انتشار آغاز شود.”

این کتاب داستان زندگی یک زن اسلوونیایی را شرح می‌دهد، از دوران کودکی او تا ورود به دنیای مد در اروپا و نیویورک. کتاب به رویدادهای مهمی از زندگی او می‌پردازد، از جمله جلسه ای که با دونالد ترامپ داشت و به بهبود سرنوشت و روند زندگی‌اش کمک کرد.

“منطقه خاکستری قانونی” آموزش کلونینگ صوتی

استفاده از هوش مصنوعی برای تقلید از صدای ملانیا ترامپ، مسائل فنی و حقوقی مرتبط با کلونینگ صوتی را برجسته می کند. Dhrupad DAS، وکیل Web3 و همچنین شریک بنیانگذار در شرکت Panda Law، این موضوع را شرح می‌دهد.

در این فرآیند، هوش مصنوعی به عنوان یک ابزار قدرتمند به کمک انسان‌ها در تقلید از صداها و نقش‌های مختلف استفاده می‌شود. این فناوری می‌تواند به شکل‌های مختلفی در زمینه‌های مختلف مورد استفاده قرار بگیرد، اما در عین حال مسائل حقوقی نیز پیش می‌آید.

تعدادی از مسائل حقوقی کلونینگ صوتی شامل حریم خصوصی، سوء استفاده از اطلاعات شخصی، تقلب و تقلید غیرمجاز صداها است. بنابراین، لازم است این مسائل در نظر گرفته شود و استفاده از هوش مصنوعی برای تقلید از صدای افراد به‌صورت قانونی و با رعایت اصول اخلاقی صورت گیرد.

در نهایت، این فناوری به نوعی می‌تواند کاربردهای مفیدی در زمینه‌های مختلف داشته باشد، ولی نگرانی‌های حقوقی و اخلاقی نیز وجود دارد که بیشتر توسعه و مطالعه در این زمینه ها می‌تواند به حل آن‌ها کمک کند.

شرکت خدمات حرفه‌ای وکالت DAS اعلام کرده است که استفاده گسترده از فناوری تبدیل متن به گفتار (Text-to-Speech یا TTS) قانونی است، اما کلون کردن یا کپی کردن صدای یک شخصیت عمومی برای استفاده روایت عمومی پتانسیل ایجاد مخاطره قانونی دارد.

همزمان با اعطای مجوز ترامپ برای استفاده از صدایش توسط یازدهلابها، داس به یک نکته حائز اهمیت اشاره کرده است. او گفته که وضعیت قانونی وجود دارد که هوش مصنوعی ممکن است از صدای افراد مشهور یا رهبران سیاسی استفاده کند، به خصوص اگر اجازه رسمی از آنها دریافت نشده باشد.

وقتی از یک فایل صوتی قابل شناسایی استفاده می‌کنید، به ناحیه قانونی و حقوقی وارد می‌شوید، حتی اگر این فایل از منابع عمومی استخراج شده باشد.

وکیل تاکید دارد که فناوری هوش مصنوعی می‌تواند در زمینه‌های مختلف مانند آموزش، دسترسی به خدمات، و خدمات دولتی مورد استفاده قرار گیرد. این فناوری می‌تواند بهبود و تسهیل بخشیدن به این عرصه‌ها منجر شود و در پشت روایات مشهور نیز به کمک ما بیاید.

کتاب صوتی “ملانیا ترامپ” که بیش از هفت ساعت طول می‌کشد، در حال حاضر در کاتالوگ آثار Ai-Neevenreader قرار دارد. این کاتالوگ شامل اثار انتشارات معروفی مانند مایا آنجلو، دیپاک چوپرا و آریانا هافینگتون می‌باشد.

بازآموزی عمومی ترامپ تنها چند روز پس از حضور او در کاخ سفید برای امضای قانون “Take It Down” اتفاق می‌افتد. این قانون جدید انتشار تصاویر صمیمی غیر مجاز، از جمله Deepfakes تولید شده توسط هوش مصنوعی، را ممنوع و مجازات پذیر می‌کند. قانون پس از تصویب در کمتر از دو روز توسط سنا تصویب شده است.

این قانون یک گام قدرتمند در تلاش ما برای اطمینان از این است که هر آمریکایی، به ویژه جوانان، می‌تواند از آزار و اذیت ناشی از تصویر یا هویت خود، محافظت بهتری داشته باشد.

اشتراک گذاری

Profile Picture
نوشته شده توسط:

امیر علی سامانی فر

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *