ساخت تصاویر تاریخی توهین آمیز با هوش مصنوعی

فهرست مطالب

ساخت تصاویر تاریخی توهین آمیز با هوش مصنوعی

پس از ساخت تصاویر توهین آمیز تاریخی با هوش مصنوعی و انتشار آن، کارشناسان اعلام کردند که مدل Gemini به طور کامل مورد آزمایش قرار نگرفته است. انتشار این خبر در رسانه ها نشان می دهد که ابزار تولید تصویر Gemini شخصیت‌ های تاریخی مختلفی را به تصویر می‌کشد. از جمله پاپ‌ ها، پدران بنیانگذار ایالات متحده و از همه دردناک‌دتر، جنگ جهانی دوم آلمان. این تصاویر و همچنین پاسخ‌های ربات چت جمینی در مورد اینکه آیا آزادی‌خواهان در جنگ ها آسیب بیشتری به بار آوردند، منجر به بروز نظرات منفی شد.

ساخت تصاویر تاریخی توهین آمیز با هوش مصنوعی

تلاش گوگل برای برتری از مدل های دیگر با جیمینی

انتقادهایی از سوی منابع دیگر از جمله ساندار پیچای، مدیر اجرایی گوگل نیز وارد شد که برخی از پاسخ های ارائه شده توسط جمینی را کاملاً غیرقابل قبول توصیف کرد. گوگل می‌خواست مدلی تولید کند که خروجی‌های آن از برخی سوگیری‌ها جلوگیری کند. تولیدکننده تصویر Stable Diffusion یکی ابزارهای هوش مصنوعی پایدار مستقر در بریتانیا، تصاویری از افراد رنگین پوست یا افرادی که پوست تیره‌تری داشتند، به‌طور عمده تولید می‌کرد. هدف جیمینی مقابله با انتشار این نوع تصاویر بود.

Gemini، مانند سیستم‌های مشابه رقبایی مانند OpenAI، با جفت کردن یک مدل زبان بزرگ با یک سیستم تولید تصویر کار می‌کند تا درخواست‌های کوتاه کاربر را به درخواست‌های دقیق برای تولیدکننده تصویر تبدیل کند. دستور جیمینی این است که هنگام تولید تصاویر، از برخی دستورالعمل‌ها پیروی کند. به عنوان مثال هنگام تولید تصاویر، از بچه‌ها یا خردسالان استفاده نکند. برای هر تصویری که شامل افراد می‌شود، صراحتاً عبارات جنسیت و قومیت‌های مختلف را مشخص و سپس تصویر را تولید کند.

سازندگان در رابطه با تولید تصاویر توهین آمیز جیمینی چه می گویند؟

دیم وندی هال، استاد علوم کامپیوتر در دانشگاه ساوتهمپتون و یکی از اعضای هیئت سازمان ملل در زمینه هوش مصنوعی، می گوید که گوگل برای انتشار جیمینی تحت فشار بود. برای اینکه با ساخت مدل جیمینی به موفقیت سرسام آور OpenAI با ChatGPT و Dall-E پاسخ دهد. در نتیجه این فناوری را به طور کامل آزمایش نکرد.

درخواست فرصت از سوی سازندگان جیمینی برای برطرف کردن مشکلات آن

آزمایش ایمنی برای آمادگی استفاده از نسل‌های آینده این فناوری واقعاً مهم است. اما دانشمندان زمان نیاز دارند تا روی آن بیشتر کار کنند تا مشکلاتش برطرف شود. اندرو روگویسکی، از مؤسسه هوش مصنوعی مردم محور در دانشگاه ساری، می‌گوید که از مدل‌های هوش مصنوعی مولد درخواست زیادی می‌شود. ما از آنها انتظار داریم که الگوهای خلاقانه، واقعی، دقیق و منعکس کننده هنجارهای اجتماعی مورد نظر ما باشند.

علاوه بر این مشکل، سازندگان و مدیران هوش مصنوعی بر این باورند که در آینده قطعا مشکلات بیشتری با مدل های هوش مصنوعی به وجود خواهد آمد. آن ها بر این باورند که هوش مصنوعی مولد هنوز به عنوان یک فناوری بسیار نابالغ است. در نتیجه برای کاهش خطرات و ضررهای این فناوری باید وقت بیشتری صرف شود و باگ های مدل های قبل برطرف شود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *