4 قابلیت جدید OpenAi اکنون در دسترس است!

فهرست مطالب

OpenAi و قابلیت‌های جدید آن

OpenAi در رویدادی در سان فرانسیسکو، اعلام کرد که آپدیت‌های جدیدی برای خدمات API خود عرضه می‌کند. این آپدیت به توسعه‌دهندگان این امکان را می‌دهد که مدل‌ها را سفارشی‌سازی کنند. توسعه برنامه‌های جدید مبتنی بر گفتار (speech-based)، قیمت‌ها را برای درخواست‌های تکراری کاهش می‌دهد و باعث می‌شود عملکرد بهتری از مدل‌های کوچک‌تر بگیرند.

شرکت OpenAi در این رویداد چهار آپدیت مهم را اعلام کرد: مدل تقطیر (model distillation)، کش پرامپت (prompt caching)، فاین‌تیونینگ (vision fine-tuning) و معرفی سرویس جدیدی به نام  Realtime، که به توسعه‌دهندگان نرم‌افزار امکان اضافه کردن ویژگی‌هایی از یک برنامه خارجی را می‌دهد. بیایید این 4 قابلیت را بررسی کنیم.

بیشتر بدانید: ابزار مدیریت رسانه Open AI سال 2025 عرضه می‌شود!

OpenAi یک روش جدید برای بهبود توانایی‌های مدل‌های کوچکتر، مانند GPT-4o مینی معرفی کرد که شامل تنظیم دقیق آن‌ها با خروجی‌های مدل‌های بزرگ‌تر است و به آن مدل تقطیر گفته می‌شود.

بیشتر بخوانید: راه‌اندازی ربات انسان نما با الهام از فناوری OpenAI!

مدل تقطیر (Model Distillation)

OpenAi یک روش جدید برای بهبود توانایی‌های مدل‌های کوچکتر، مانند GPT-4o مینی معرفی کرد که شامل تنظیم دقیق آن‌ها با خروجی‌های مدل‌های بزرگ‌تر است و به آن مدل تقطیر گفته می‌شود.

این شرکت مجموعه‌ی اَشکال‌سازی مدل را داخل پلتفُرم API خودش ساخت. این پلتفرم به توسعه‌دهنده‌ها این امکان را می‌دهد که مجموعه داده‌های خود را، با استفاده از مدل‌های پیشرفته‌ای مانند GPT-4 و O1-preview بسازند و پاسخ‌های باکیفیتی تولید کنند.

پرامپت کچینگ در OpenAi

این شرکت، به شدت بر کاهش قیمت خدمات API خود تمرکز و با معرفی ویژگی جدیدی به نام کش پرامپت، یک قدم دیگر در این راستا برداشته است. این ویژگی به توسعه‌دهندگان کمک می‌کند که پرامپت‌های رایج را بدون پرداخت هزینه کامل هر بار دوباره استفاده کنند.

در این قابلیت، OpenAI به طور خودکار پیشوندهای طولانی را تا یک ساعت ذخیره یا به اصطلاح “کش” می‌کند. اگه API یک درخواست جدید با همان پیشوند را شناسایی کند، به طور خودکار ۵۰ درصد تخفیف روی هزینه ورودی اعمال می‌شود. این ویژگی می‌تواند هزینه‌ی زیادی را برای توسعه‌دهندگان با اپلیکیشن‌های AI، صرفه‌جویی کند.

Vision Fine-Tuning

توسعه‌دهندگان با این قابلیت، می‌توانند GPT-4o را نه‌تنها با متن، بلکه با تصاویر نیز تنظیم کنند. به گفته OpenAI، این کار باعث بهبود توانایی مدل در درک و شناسایی تصاویر می‌شود. همچنین امکان استفاده در جستجوی بصری، تشخیص بهتر اشیاء برای وسایل نقلیه خودران و تحلیل دقیق‌تر تصاویر پزشکی را فراهم می‌کند.

قابلیت RealTime در OpenAi

آخر هفته گذشته، OpenAI حالت صدای پیشرفته‌ای که صدای انسانی دارد را برای تمام مشترکین چت‌جی‌پی‌تی در دسترس قرار داد. حالا این شرکت به توسعه‌دهندگان اجازه می‌دهد تا اپلیکیشن‌های گفتار به گفتار را با استفاده از تکنولوژی خود بسازند.

در گذشته، اگر توسعه‌دهنده‌ای می‌خواست اپلیکیشنی مبتنی بر هوش مصنوعی، با قابلیت صحبت با کاربران بسازد، اول باید صدای ورودی را به متن تبدیل سپس متن را پردازش و در نهایت خروجی را به یک مدل متن به گفتار می‌فرستاد! OpenAI می‌گوید این روش “عموماً باعث از بین رفتن احساس، تأکید و لهجه‌ها، همچنین تأخیر قابل توجهی می‌شد.”

با این قابلیت، صدا بلافاصله توسط API پردازش می‌شود. این API همچنین از فراخوانی توابع پشتیبانی می‌کند، این یعنی برنامه‌های مبتنی بر RealTime قادر به انجام اقداماتی، مانند سفارش پیتزا یا تعیین وقت هستند.

بیشتر بدانید: شرکت Open AI دسترسی چین، ایران و روسیه را قطع می‌کند

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *