پس از ساخت تصاویر توهین آمیز تاریخی با هوش مصنوعی و انتشار آن، کارشناسان اعلام کردند که مدل Gemini به طور کامل مورد آزمایش قرار نگرفته است. انتشار این خبر در رسانه ها نشان می دهد که ابزار تولید تصویر Gemini شخصیت های تاریخی مختلفی را به تصویر میکشد. از جمله پاپ ها، پدران بنیانگذار ایالات متحده و از همه دردناکدتر، جنگ جهانی دوم آلمان. این تصاویر و همچنین پاسخهای ربات چت جمینی در مورد اینکه آیا آزادیخواهان در جنگ ها آسیب بیشتری به بار آوردند، منجر به بروز نظرات منفی شد.
تلاش گوگل برای برتری از مدل های دیگر با جیمینی
انتقادهایی از سوی منابع دیگر از جمله ساندار پیچای، مدیر اجرایی گوگل نیز وارد شد که برخی از پاسخ های ارائه شده توسط جمینی را کاملاً غیرقابل قبول توصیف کرد. گوگل میخواست مدلی تولید کند که خروجیهای آن از برخی سوگیریها جلوگیری کند. تولیدکننده تصویر Stable Diffusion یکی ابزارهای هوش مصنوعی پایدار مستقر در بریتانیا، تصاویری از افراد رنگین پوست یا افرادی که پوست تیرهتری داشتند، بهطور عمده تولید میکرد. هدف جیمینی مقابله با انتشار این نوع تصاویر بود.
Gemini، مانند سیستمهای مشابه رقبایی مانند OpenAI، با جفت کردن یک مدل زبان بزرگ با یک سیستم تولید تصویر کار میکند تا درخواستهای کوتاه کاربر را به درخواستهای دقیق برای تولیدکننده تصویر تبدیل کند. دستور جیمینی این است که هنگام تولید تصاویر، از برخی دستورالعملها پیروی کند. به عنوان مثال هنگام تولید تصاویر، از بچهها یا خردسالان استفاده نکند. برای هر تصویری که شامل افراد میشود، صراحتاً عبارات جنسیت و قومیتهای مختلف را مشخص و سپس تصویر را تولید کند.
سازندگان در رابطه با تولید تصاویر توهین آمیز جیمینی چه می گویند؟
دیم وندی هال، استاد علوم کامپیوتر در دانشگاه ساوتهمپتون و یکی از اعضای هیئت سازمان ملل در زمینه هوش مصنوعی، می گوید که گوگل برای انتشار جیمینی تحت فشار بود. برای اینکه با ساخت مدل جیمینی به موفقیت سرسام آور OpenAI با ChatGPT و Dall-E پاسخ دهد. در نتیجه این فناوری را به طور کامل آزمایش نکرد.
درخواست فرصت از سوی سازندگان جیمینی برای برطرف کردن مشکلات آن
آزمایش ایمنی برای آمادگی استفاده از نسلهای آینده این فناوری واقعاً مهم است. اما دانشمندان زمان نیاز دارند تا روی آن بیشتر کار کنند تا مشکلاتش برطرف شود. اندرو روگویسکی، از مؤسسه هوش مصنوعی مردم محور در دانشگاه ساری، میگوید که از مدلهای هوش مصنوعی مولد درخواست زیادی میشود. ما از آنها انتظار داریم که الگوهای خلاقانه، واقعی، دقیق و منعکس کننده هنجارهای اجتماعی مورد نظر ما باشند.
علاوه بر این مشکل، سازندگان و مدیران هوش مصنوعی بر این باورند که در آینده قطعا مشکلات بیشتری با مدل های هوش مصنوعی به وجود خواهد آمد. آن ها بر این باورند که هوش مصنوعی مولد هنوز به عنوان یک فناوری بسیار نابالغ است. در نتیجه برای کاهش خطرات و ضررهای این فناوری باید وقت بیشتری صرف شود و باگ های مدل های قبل برطرف شود.
بیشتر بدانید: تصاویر نامناسب از دانشجویان آیووا توسط هوش مصنوعی تولید شد!