هوش مصنوعی اسپانیایی 215 میلیون دلار جذب کرد؛ وعده کاهش 95٪ هزینه مدل‌های زبانی”

هوش مصنوعی اسپانیایی 215 میلیون دلار جذب کرد؛ وعده کاهش 95٪ هزینه مدل‌های زبانی"
0

هوش مصنوعی اسپانیایی 215 میلیون دلار جذب کرد؛ وعده کاهش 95٪ هزینه مدل‌های زبانی”

به گزارش مالی3، یک شرکت هوش مصنوعی اسپانیایی به تازگی توانسته است با موفقیت سرمایه گذاران را متقاعد کند که مبلغ 215 میلیون دلار را برای راه اندازی پروژه‌ای جدید پرداخت کنند. این پروژه ادعای جسورانه این شرکت را دارد که می‌تواند با استفاده از هوش مصنوعی، انجام مدل‌های بزرگ زبانی را با 95٪ کاهش دهد بدون این که عملکرد آن‌ها را به خطر بیندازد.

تکنولوژی Compactifai به محاسبات Multiverse مرتبط است. این تکنولوژی یک روش فشرده‌سازی است که از مفاهیم ریاضی مشتق شده از فیزیک کوانتومی بهره می‌برد تا مدل‌های هوش مصنوعی را به اندازه تلفن‌های هوشمند کوچک‌تر کند.

شرکت سان سباستین اعلام کرده است که مدل فشرده LLAMA-2 7B آنها، در فرآیند استنتاج از داده‌ها، 25٪ سریع‌تر از مدل‌های قبلی عمل می‌کند. این مدل همچنین تنها از 70٪ از پارامترهای مدل‌های قبلی استفاده می‌کند، اما دقت آن تنها 2-3٪ کاهش پیدا می‌کند.

اگر این تأیید شود، می‌تواند مشکل اندازه فیل AI را حل کند. مدل‌های بزرگی که برای کار کردن به مراکز داده تخصصی نیاز دارند، ممکن است با اعتماد به شبکه‌های تأییدی، که به آن‌ها اجازه محاسبه بدون ارسال اطلاعات محرمانه به مراکز داده به عنوان یک فرآیند از تأیید استفاده می‌کنند، حل شوند.

برای نخستین بار، ما قادر هستیم عملکرد داخلی یک شبکه عصبی را بهبود بخشیم تا بیلیون‌ها ارتباط پیچیده را برای بهبود کارایی مدل‌های هوش مصنوعی مختلف حذف کنیم.

شرکت سرمایه گذاری Bullhound به همراه حمایت از HP Tech Ventures و Toshiba، در معامله سری B به ارزش 215 میلیون دلار سرمایه گذاری کرد.

فشرده‌سازی فایل‌های فیزیکی یک فرایند است که اندازه فایل‌ها را کاهش می‌دهد به طوری که حجم آن‌ها کمتر شود. این کار به منظور صرفه‌جویی در فضای ذخیره‌سازی، انتقال سریع‌تر اطلاعات، و بهبود عملکرد و عمر فایل‌ها انجام می‌شود. با این فرایند، اطلاعات فایل‌ها حذف یا تغییر می‌کند اما فایل با ظاهر و عملکرد مشابه ادامه می‌دهد.

استفاده از ایده‌های نسبتاً پیچیده و پیشرفته الهام گرفته از فیزیک کوانتومی برای حل یکی از چالش‌های مهم هوش مصنوعی به نظر ممکن نیست، اما با ادامه پژوهش‌ها و تلاش‌ها، این موضوع ممکن است در آینده به واقعیت تبدیل شود.

به عکس فشرده‌سازی سنتی که به سادگی نورون‌ها یا دقت عددی را کاهش می‌دهد، Compactifai از شبکه‌های تانسور استفاده می‌کند. این شبکه‌ها ساختارهای مهمی‌اند که فیزیکدانان برای ردیابی تعامل ذرات بدون از دست دادن جزئیات در داده‌ها ایجاد کرده‌اند.

این فرآیند مشابه تجزیه ماتریس به ساختارهای کوچکتر و به ترکیب آن‌ها با نام اپراتورهای ماتریس تاشو، برای مدل‌های هوش مصنوعی کاربرد دارد.

سیستم مغزی به جای ذخیره تمامی ارتباطات بین نورون‌ها، فقط الگوهای معنی‌دار و مفید را نگهداری می‌کند و الگوهای زائد یا تکراری را حذف می‌کند. این عمل باعث بهبود کارایی و سرعت پردازش اطلاعات در مغز می‌شود، زیرا فقط اطلاعات مهم و مرتبط با یکدیگر نگهداری می‌شوند و اطلاعات اضافی حذف می‌شوند.

تحقیقات نشان داده است که مدل‌های هوش مصنوعی قابلیت فشرده‌سازی یکنواخت ندارند. بر اساس این تحقیقات، لایه‌های ابتدایی معمولاً به راحتی فشرده می‌شوند، اما لایه‌های عمیق‌تر که به کارایی مدل بسیار حائز اهمیت هستند، مقاومت بیشتری در برابر فشرده‌سازی شدید از خود نشان می‌دهند.

این روش به آنها این امکان را می‌دهد که به‌صورت قابل‌ملاحظه‌ای اندازه را کاهش دهند، حتی در مواردی که روش‌های دیگر نتوانند موفقیت آمیز باشند.

بعد از فشرده کردن، مدل‌ها با عنوان “بهسازی” کوتاه‌شده و به خاطر کاهش تعداد پارامترها به طور معمول کمتر از یک دوره آموزش نیاز دارند. شرکت ادعا می‌کند که فرآیند بهسازی مدل‌ها ۵۰ درصد سریع‌تر از آموزش مدل‌های اصلی است، به دلیل کاهش بارهای انتقالی بین GPU و CPU.

یکبار یک مهندس به نام ماریا به دنبال راهی برای بهبود عملکرد مدل های ابتکاری خود بود. او به ایده ای نوآورانه به نام “Magic Compactify” رسید. این ابزار امکان فشرده سازی مدل ها به طوری که اندازه آنها به 50٪ کاهش یابد و همزمان سرعت استنتاج آنها دو برابر افزایش پیدا کند را فراهم می کرد.

با استفاده از این ابزار، ماریا توانست مدل های خود را بهبود بخشد و هزینه های خود را نیز کاهش دهد. او دیگر نیازی به استفاده از مدل های بزرگ و پرهزینه نداشت و با استفاده از نسخه فشرده شده ای از مدل، توانایی پردازش داده ها را بهبود بخشید.

به این ترتیب، ماریا با ابداع “Magic Compactify” توانست مدل های خود را بهبود دهد، هزینه ها را کاهش دهد و همچنین سرعت استنتاج را بهبود بخشد، و در نتیجه به یک مدل کوچکتر و کارآمدتر دست یافت.

در تحقیقات خود ، تیم نشان می دهد که شما می توانید نیازهای حافظه مدل LLAMA-2 7B را 93 ٪ کاهش دهید ، تعداد پارامترها را 70 ٪ کاهش دهید ، 50 ٪ تمرین را سرعت بخشید و پاسخگویی (استنباط) را 25 ٪ افزایش دهید-در عین حال فقط 2-3 ٪ دقت را از دست می دهید.

روش‌های مورد بحث از کوچک‌سازی سنتی، از قبیل کاهش دقت و استفاده از مکان‌های اعشاری کمتر، هرس و تکنیک‌های تقطیر، حتی به تنهایی کافی نیستند برای کوچک‌سازی اطلاعات. این روش‌ها مشکلاتی مانند از دست دادن اطلاعات مهم و کاستی از دقت را به همراه دارند. برای دستیابی به اندازه‌های معقول باید تکنیک‌های پیشرفته‌تری را مورد استفاده قرار داد.

شرکت Multiverse در حال حاضر بیش از 100 مشتری برجسته از جمله شرکت‌های Bosch و Bank of Canada را خدمات الگوریتم‌های الهام گرفته از کوانتومی خود ارائه می‌دهد. این الگوریتم‌ها از هوش مصنوعی فراتر رفته و برای بهینه‌سازی مصارف انرژی و مدل‌سازی مالی استفاده می‌شوند.

در ماه مارس، دولت اسپانیا حدود 67 میلیون یورو سرمایه‌گذاری کرد. این میزان سرمایه‌گذاری باعث رسیدن کل بودجه دولت اسپانیا به بیش از 250 میلیون دلار شد.

در حال حاضر، شرکت ارائه دهنده نسخه های فشرده از مدل‌های منبع باز مانند Llama و Mistral از طریق سرویس AWS است. این شرکت قصد دارد تا مدل Deepseek R1 و سایر مدل‌های استدلال را نیز به ارائه برساند و این خدمات را گسترش دهد.

سیستم‌های اختصاصی OpenAI یا Claude به طور واضح خارج از دسترس نیستند زیرا برای بررسی، انتقال، یا مطالعه آنها در دسترس قرار ندارند.

تکنولوژی فراتر از صرفه‌جویی در هزینه است و امکانات بسیار بیشتری را فراهم می کند. شرکت HP Tech Ventures نیز تمایل دارد در توسعه هوش مصنوعی حافظه‌کرانه‌ای (Edge AI) و استفاده از مدل‌های پیشرفته و محلی به جای استفاده از سرورهای ابری مشارکت داشته باشد.

رویکرد نوآورانه Multiverse توانایی ارائه مزایای متعددی برای شرکت‌ها دارد. این رویکرد باعث پیشرفت هوش مصنوعی، افزایش عملکرد، شخصی سازی خدمات، حفظ حریم خصوصی و بهبود راندمان هزینه در زندگی شرکت‌ها می‌شود.

بنابراین، اگر شما روزی با استفاده از Deepseek R1 در تلفن هوشمند خود آدمک‌ها را شناسایی می‌کنید، احتمالاً افرادی هستند که برای شناسایی آنها از شما تشکر می‌کنند.

ویرایش شده توسط جاش کویتنر و سباستین سینکلر نشان می‌دهد که این خبر توسط دو نفر به نام‌های جاش کویتنر و سباستین سینکلر تغییر داده شده است.

اشتراک گذاری

Profile Picture
نوشته شده توسط:

نازنین راد

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *