میزان آسیب‌پذیری در بین مدل‌های هوش مصنوعی

فهرست مطالب

میزان آسیب‌پذیری مدل‌های مختلف هوش مصنوعی

آزمایشی امنیتی روی مدل‌های مختلف هوش مصنوعی انجام گرفته است. در این آزمایش میزان آسیب‌پذیری مدل‌های مختلف بررسی شدند. در این میان قوی‌ترین مدل، Llama و آسیب‌پذیرترین مدل هم Grok بود.

پیش‌تر هم در خبری شرکت Polyakov سوال‌های مختلف از مدل هوش مصنوعی ایلان ماسک پرسیدند که با بازی با کلمات توانستند جواب سوالات نامناسبشان را پیدا کنند. این شرکت همراه با این گروه مذکور رویکردهای مختلفی در پیش گرفتند تا این موضوع را بررسی کنند. هفت مدل با سه رویکرد مختلف در این پژوهش بررسی شدند.

رویکرد اول بازی روانشناختی و بازی با کلمات بود. مثلا شرکت Polyakov از مدل‌های مختلف درباره اغوا کردن یک کودک سوال کرد. در ابتدا مدل‌های هوش مصنوعی از پاسخ به این سوال‌ها سر باز زدند اما در نهایت طبق عکس زیر مدل Grok با کمی بازی با کلمات به این سوال جواب داد.

در این مورد حتی سوالاتی مربوط به ساخت بمب، مواد مخدر و … هم سوال کردند. مدل Grok آسیب‌پذیرترین و مدل Llama قوی‌ترین مدل موجود بود.

رویکرد دوم مربوط به تکنیک‌های دستکاری منطق برنامه نویسی بود. این تکنیک‌ها برای دور زدن فلیتر امنیتی کاربرد دارد. در این رویکرد هم چهار مدل Misrtal، Gemini، Chat GPT و Grok ضعیف‌ترین عملکرد را داشتند.

رویکرد سوم، استفاده از تکنیک ربات هوش مصنوعی متخاصم بود. در این آزمایش اکثر ربات‌ها این مورد را شناسایی کردند. در نهایت هم جلوی پیشروی آن را گرفتند.

نتیجه نهایی این تحقیق هم این است که Grok و Mistral آسیب‌پذیرند و Llama از نظر امنیتی قوی محسوب می‌شود. نکته مهم اینجا است که این ضعف امنیتی برای هکرها و کسانی که از هر فرصتی برای اهداف ناسالم خود استفاده می‌کنند فرصتی طلایی است. این ربات‌ها حتی می‌توانند راهکار فرار از زندان را هم ارائه کنند!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *