هوش مصنوعی اسپانیایی 215 میلیون دلار جذب کرد؛ وعده کاهش 95٪ هزینه مدلهای زبانی”
به گزارش مالی3، یک شرکت هوش مصنوعی اسپانیایی به تازگی توانسته است با موفقیت سرمایه گذاران را متقاعد کند که مبلغ 215 میلیون دلار را برای راه اندازی پروژهای جدید پرداخت کنند. این پروژه ادعای جسورانه این شرکت را دارد که میتواند با استفاده از هوش مصنوعی، انجام مدلهای بزرگ زبانی را با 95٪ کاهش دهد بدون این که عملکرد آنها را به خطر بیندازد.
تکنولوژی Compactifai به محاسبات Multiverse مرتبط است. این تکنولوژی یک روش فشردهسازی است که از مفاهیم ریاضی مشتق شده از فیزیک کوانتومی بهره میبرد تا مدلهای هوش مصنوعی را به اندازه تلفنهای هوشمند کوچکتر کند.
شرکت سان سباستین اعلام کرده است که مدل فشرده LLAMA-2 7B آنها، در فرآیند استنتاج از دادهها، 25٪ سریعتر از مدلهای قبلی عمل میکند. این مدل همچنین تنها از 70٪ از پارامترهای مدلهای قبلی استفاده میکند، اما دقت آن تنها 2-3٪ کاهش پیدا میکند.
اگر این تأیید شود، میتواند مشکل اندازه فیل AI را حل کند. مدلهای بزرگی که برای کار کردن به مراکز داده تخصصی نیاز دارند، ممکن است با اعتماد به شبکههای تأییدی، که به آنها اجازه محاسبه بدون ارسال اطلاعات محرمانه به مراکز داده به عنوان یک فرآیند از تأیید استفاده میکنند، حل شوند.
برای نخستین بار، ما قادر هستیم عملکرد داخلی یک شبکه عصبی را بهبود بخشیم تا بیلیونها ارتباط پیچیده را برای بهبود کارایی مدلهای هوش مصنوعی مختلف حذف کنیم.
شرکت سرمایه گذاری Bullhound به همراه حمایت از HP Tech Ventures و Toshiba، در معامله سری B به ارزش 215 میلیون دلار سرمایه گذاری کرد.
فشردهسازی فایلهای فیزیکی یک فرایند است که اندازه فایلها را کاهش میدهد به طوری که حجم آنها کمتر شود. این کار به منظور صرفهجویی در فضای ذخیرهسازی، انتقال سریعتر اطلاعات، و بهبود عملکرد و عمر فایلها انجام میشود. با این فرایند، اطلاعات فایلها حذف یا تغییر میکند اما فایل با ظاهر و عملکرد مشابه ادامه میدهد.
استفاده از ایدههای نسبتاً پیچیده و پیشرفته الهام گرفته از فیزیک کوانتومی برای حل یکی از چالشهای مهم هوش مصنوعی به نظر ممکن نیست، اما با ادامه پژوهشها و تلاشها، این موضوع ممکن است در آینده به واقعیت تبدیل شود.
به عکس فشردهسازی سنتی که به سادگی نورونها یا دقت عددی را کاهش میدهد، Compactifai از شبکههای تانسور استفاده میکند. این شبکهها ساختارهای مهمیاند که فیزیکدانان برای ردیابی تعامل ذرات بدون از دست دادن جزئیات در دادهها ایجاد کردهاند.
این فرآیند مشابه تجزیه ماتریس به ساختارهای کوچکتر و به ترکیب آنها با نام اپراتورهای ماتریس تاشو، برای مدلهای هوش مصنوعی کاربرد دارد.
سیستم مغزی به جای ذخیره تمامی ارتباطات بین نورونها، فقط الگوهای معنیدار و مفید را نگهداری میکند و الگوهای زائد یا تکراری را حذف میکند. این عمل باعث بهبود کارایی و سرعت پردازش اطلاعات در مغز میشود، زیرا فقط اطلاعات مهم و مرتبط با یکدیگر نگهداری میشوند و اطلاعات اضافی حذف میشوند.
تحقیقات نشان داده است که مدلهای هوش مصنوعی قابلیت فشردهسازی یکنواخت ندارند. بر اساس این تحقیقات، لایههای ابتدایی معمولاً به راحتی فشرده میشوند، اما لایههای عمیقتر که به کارایی مدل بسیار حائز اهمیت هستند، مقاومت بیشتری در برابر فشردهسازی شدید از خود نشان میدهند.
این روش به آنها این امکان را میدهد که بهصورت قابلملاحظهای اندازه را کاهش دهند، حتی در مواردی که روشهای دیگر نتوانند موفقیت آمیز باشند.
بعد از فشرده کردن، مدلها با عنوان “بهسازی” کوتاهشده و به خاطر کاهش تعداد پارامترها به طور معمول کمتر از یک دوره آموزش نیاز دارند. شرکت ادعا میکند که فرآیند بهسازی مدلها ۵۰ درصد سریعتر از آموزش مدلهای اصلی است، به دلیل کاهش بارهای انتقالی بین GPU و CPU.
یکبار یک مهندس به نام ماریا به دنبال راهی برای بهبود عملکرد مدل های ابتکاری خود بود. او به ایده ای نوآورانه به نام “Magic Compactify” رسید. این ابزار امکان فشرده سازی مدل ها به طوری که اندازه آنها به 50٪ کاهش یابد و همزمان سرعت استنتاج آنها دو برابر افزایش پیدا کند را فراهم می کرد.
با استفاده از این ابزار، ماریا توانست مدل های خود را بهبود بخشد و هزینه های خود را نیز کاهش دهد. او دیگر نیازی به استفاده از مدل های بزرگ و پرهزینه نداشت و با استفاده از نسخه فشرده شده ای از مدل، توانایی پردازش داده ها را بهبود بخشید.
به این ترتیب، ماریا با ابداع “Magic Compactify” توانست مدل های خود را بهبود دهد، هزینه ها را کاهش دهد و همچنین سرعت استنتاج را بهبود بخشد، و در نتیجه به یک مدل کوچکتر و کارآمدتر دست یافت.
در تحقیقات خود ، تیم نشان می دهد که شما می توانید نیازهای حافظه مدل LLAMA-2 7B را 93 ٪ کاهش دهید ، تعداد پارامترها را 70 ٪ کاهش دهید ، 50 ٪ تمرین را سرعت بخشید و پاسخگویی (استنباط) را 25 ٪ افزایش دهید-در عین حال فقط 2-3 ٪ دقت را از دست می دهید.
روشهای مورد بحث از کوچکسازی سنتی، از قبیل کاهش دقت و استفاده از مکانهای اعشاری کمتر، هرس و تکنیکهای تقطیر، حتی به تنهایی کافی نیستند برای کوچکسازی اطلاعات. این روشها مشکلاتی مانند از دست دادن اطلاعات مهم و کاستی از دقت را به همراه دارند. برای دستیابی به اندازههای معقول باید تکنیکهای پیشرفتهتری را مورد استفاده قرار داد.
شرکت Multiverse در حال حاضر بیش از 100 مشتری برجسته از جمله شرکتهای Bosch و Bank of Canada را خدمات الگوریتمهای الهام گرفته از کوانتومی خود ارائه میدهد. این الگوریتمها از هوش مصنوعی فراتر رفته و برای بهینهسازی مصارف انرژی و مدلسازی مالی استفاده میشوند.
در ماه مارس، دولت اسپانیا حدود 67 میلیون یورو سرمایهگذاری کرد. این میزان سرمایهگذاری باعث رسیدن کل بودجه دولت اسپانیا به بیش از 250 میلیون دلار شد.
در حال حاضر، شرکت ارائه دهنده نسخه های فشرده از مدلهای منبع باز مانند Llama و Mistral از طریق سرویس AWS است. این شرکت قصد دارد تا مدل Deepseek R1 و سایر مدلهای استدلال را نیز به ارائه برساند و این خدمات را گسترش دهد.
سیستمهای اختصاصی OpenAI یا Claude به طور واضح خارج از دسترس نیستند زیرا برای بررسی، انتقال، یا مطالعه آنها در دسترس قرار ندارند.
تکنولوژی فراتر از صرفهجویی در هزینه است و امکانات بسیار بیشتری را فراهم می کند. شرکت HP Tech Ventures نیز تمایل دارد در توسعه هوش مصنوعی حافظهکرانهای (Edge AI) و استفاده از مدلهای پیشرفته و محلی به جای استفاده از سرورهای ابری مشارکت داشته باشد.
رویکرد نوآورانه Multiverse توانایی ارائه مزایای متعددی برای شرکتها دارد. این رویکرد باعث پیشرفت هوش مصنوعی، افزایش عملکرد، شخصی سازی خدمات، حفظ حریم خصوصی و بهبود راندمان هزینه در زندگی شرکتها میشود.
بنابراین، اگر شما روزی با استفاده از Deepseek R1 در تلفن هوشمند خود آدمکها را شناسایی میکنید، احتمالاً افرادی هستند که برای شناسایی آنها از شما تشکر میکنند.
ویرایش شده توسط جاش کویتنر و سباستین سینکلر نشان میدهد که این خبر توسط دو نفر به نامهای جاش کویتنر و سباستین سینکلر تغییر داده شده است.
نظرات کاربران