OpenAi در رویدادی در سان فرانسیسکو، اعلام کرد که آپدیتهای جدیدی برای خدمات API خود عرضه میکند. این آپدیت به توسعهدهندگان این امکان را میدهد که مدلها را سفارشیسازی کنند. توسعه برنامههای جدید مبتنی بر گفتار (speech-based)، قیمتها را برای درخواستهای تکراری کاهش میدهد و باعث میشود عملکرد بهتری از مدلهای کوچکتر بگیرند.
شرکت OpenAi در این رویداد چهار آپدیت مهم را اعلام کرد: مدل تقطیر (model distillation)، کش پرامپت (prompt caching)، فاینتیونینگ (vision fine-tuning) و معرفی سرویس جدیدی به نام Realtime، که به توسعهدهندگان نرمافزار امکان اضافه کردن ویژگیهایی از یک برنامه خارجی را میدهد. بیایید این 4 قابلیت را بررسی کنیم.
بیشتر بدانید: ابزار مدیریت رسانه Open AI سال 2025 عرضه میشود!
بیشتر بخوانید: راهاندازی ربات انسان نما با الهام از فناوری OpenAI!
مدل تقطیر (Model Distillation)
OpenAi یک روش جدید برای بهبود تواناییهای مدلهای کوچکتر، مانند GPT-4o مینی معرفی کرد که شامل تنظیم دقیق آنها با خروجیهای مدلهای بزرگتر است و به آن مدل تقطیر گفته میشود.
این شرکت مجموعهی اَشکالسازی مدل را داخل پلتفُرم API خودش ساخت. این پلتفرم به توسعهدهندهها این امکان را میدهد که مجموعه دادههای خود را، با استفاده از مدلهای پیشرفتهای مانند GPT-4 و O1-preview بسازند و پاسخهای باکیفیتی تولید کنند.
پرامپت کچینگ در OpenAi
این شرکت، به شدت بر کاهش قیمت خدمات API خود تمرکز و با معرفی ویژگی جدیدی به نام کش پرامپت، یک قدم دیگر در این راستا برداشته است. این ویژگی به توسعهدهندگان کمک میکند که پرامپتهای رایج را بدون پرداخت هزینه کامل هر بار دوباره استفاده کنند.
در این قابلیت، OpenAI به طور خودکار پیشوندهای طولانی را تا یک ساعت ذخیره یا به اصطلاح “کش” میکند. اگه API یک درخواست جدید با همان پیشوند را شناسایی کند، به طور خودکار ۵۰ درصد تخفیف روی هزینه ورودی اعمال میشود. این ویژگی میتواند هزینهی زیادی را برای توسعهدهندگان با اپلیکیشنهای AI، صرفهجویی کند.
Vision Fine-Tuning
توسعهدهندگان با این قابلیت، میتوانند GPT-4o را نهتنها با متن، بلکه با تصاویر نیز تنظیم کنند. به گفته OpenAI، این کار باعث بهبود توانایی مدل در درک و شناسایی تصاویر میشود. همچنین امکان استفاده در جستجوی بصری، تشخیص بهتر اشیاء برای وسایل نقلیه خودران و تحلیل دقیقتر تصاویر پزشکی را فراهم میکند.
قابلیت RealTime در OpenAi
آخر هفته گذشته، OpenAI حالت صدای پیشرفتهای که صدای انسانی دارد را برای تمام مشترکین چتجیپیتی در دسترس قرار داد. حالا این شرکت به توسعهدهندگان اجازه میدهد تا اپلیکیشنهای گفتار به گفتار را با استفاده از تکنولوژی خود بسازند.
در گذشته، اگر توسعهدهندهای میخواست اپلیکیشنی مبتنی بر هوش مصنوعی، با قابلیت صحبت با کاربران بسازد، اول باید صدای ورودی را به متن تبدیل سپس متن را پردازش و در نهایت خروجی را به یک مدل متن به گفتار میفرستاد! OpenAI میگوید این روش “عموماً باعث از بین رفتن احساس، تأکید و لهجهها، همچنین تأخیر قابل توجهی میشد.”
با این قابلیت، صدا بلافاصله توسط API پردازش میشود. این API همچنین از فراخوانی توابع پشتیبانی میکند، این یعنی برنامههای مبتنی بر RealTime قادر به انجام اقداماتی، مانند سفارش پیتزا یا تعیین وقت هستند.
بیشتر بدانید: شرکت Open AI دسترسی چین، ایران و روسیه را قطع میکند