در سال گذشته تعداد گزارشهای آزارهای جنسی و سواستفاده از تصاویر کودکان بیش از پیش بود. دانشگاه استنفورد و مرکز ملی کودکان مفقود و مورد سواستفاده قرار گرفته یا NCMEC جداگانه این موضوع را اعلام کردند. شرکتها باید برای این موضوع اقدامات لازم را انجام دهند و قوانین محافظت از کودکان را به قوانینشان اضافه کنند.
دانشگاه استنفورد مدل Laion که اوپن سورس است را بررسی کرد و متوجه شد بخشی از دادههای تصویری آموزشی این مدل تصاویر صریح و جنسی کودکان است. احتمال دارد همین اتفاق هم برای مدل stable difussion افتاده باشد.
شرکتهای متا، گوگل و Open AI تصمیم دارند در قوانینشان تغییراتی ایجاد کنند و برنامههایشان را توسعه دهند. این کار به آنها کمک میکند تصاویری که سواستفادگران و افراد پدوفیل نیاز دارند در دسترسشان قرار نگیرد.
شرکت Meta قرارداد همکاری با Thron امضا کرد تا مدلهای هوش مصنوعیاش را توسعه دهد. این توسعه بیشتر در جهت جلوگیری از تولید محتوای صریح از کودکان است تا آسیبی به آنها نرسد.
شرکت Google میخواهد قوانینی اعمال کند و با ابزارهای یادگیری ماشین از اتفاقات مربوطه جلوگیری کند. ابزارهای یادگیری ماشین برای شناسایی و کشف محتوای مضر برای کودکان به کار خواهد رفت.
شرکت Open AI هم قوانین جدیدی برای مدل خود و مدل Dall-E میگذارد. مدل مولد تصویر این شرکت تا حد امکان تصاویری که دارای کلیدواژههای مربوط به تمایلات پدوفیلی باشد را تولید نمیکند. به علاوه دیگر تصاویر صریح از کودکان را برای بیشتر کاربران تولید نمیکند.
این تدابیر و قوانین محافظت از کودکان کمک میکند تا افراد پدوفیل و سواستفادگر نتوانند تصاویر کودکان را بسازند و با آنها اخاذی کنند.