آزمایشی امنیتی روی مدلهای مختلف هوش مصنوعی انجام گرفته است. در این آزمایش میزان آسیبپذیری مدلهای مختلف بررسی شدند. در این میان قویترین مدل، Llama و آسیبپذیرترین مدل هم Grok بود.
پیشتر هم در خبری شرکت Polyakov سوالهای مختلف از مدل هوش مصنوعی ایلان ماسک پرسیدند که با بازی با کلمات توانستند جواب سوالات نامناسبشان را پیدا کنند. این شرکت همراه با این گروه مذکور رویکردهای مختلفی در پیش گرفتند تا این موضوع را بررسی کنند. هفت مدل با سه رویکرد مختلف در این پژوهش بررسی شدند.
رویکرد اول بازی روانشناختی و بازی با کلمات بود. مثلا شرکت Polyakov از مدلهای مختلف درباره اغوا کردن یک کودک سوال کرد. در ابتدا مدلهای هوش مصنوعی از پاسخ به این سوالها سر باز زدند اما در نهایت طبق عکس زیر مدل Grok با کمی بازی با کلمات به این سوال جواب داد.
در این مورد حتی سوالاتی مربوط به ساخت بمب، مواد مخدر و … هم سوال کردند. مدل Grok آسیبپذیرترین و مدل Llama قویترین مدل موجود بود.
رویکرد دوم مربوط به تکنیکهای دستکاری منطق برنامه نویسی بود. این تکنیکها برای دور زدن فلیتر امنیتی کاربرد دارد. در این رویکرد هم چهار مدل Misrtal، Gemini، Chat GPT و Grok ضعیفترین عملکرد را داشتند.
رویکرد سوم، استفاده از تکنیک ربات هوش مصنوعی متخاصم بود. در این آزمایش اکثر رباتها این مورد را شناسایی کردند. در نهایت هم جلوی پیشروی آن را گرفتند.
نتیجه نهایی این تحقیق هم این است که Grok و Mistral آسیبپذیرند و Llama از نظر امنیتی قوی محسوب میشود. نکته مهم اینجا است که این ضعف امنیتی برای هکرها و کسانی که از هر فرصتی برای اهداف ناسالم خود استفاده میکنند فرصتی طلایی است. این رباتها حتی میتوانند راهکار فرار از زندان را هم ارائه کنند!
بیشتر بخوانید: عمران خان با استفاده از هوش مصنوعی از پشت میلههای زندان سخنرانی می کند!