قوانین محافظت از کودکان در برابر خطرات هوش مصنوعی

فهرست مطالب

قوانین محافظت از کودکان دربرابر خطرات تصاویر دیپ‌فیک و آزارهای جنسی توسط سه شرکت پیشرو بسته شد.

در سال گذشته تعداد گزارش‌های آزارهای جنسی و سواستفاده از تصاویر کودکان بیش از پیش بود. دانشگاه استنفورد و مرکز ملی کودکان مفقود و مورد سواستفاده قرار گرفته یا NCMEC جداگانه این موضوع را اعلام کردند. شرکت‌ها باید برای این موضوع اقدامات لازم را انجام دهند و قوانین محافظت از کودکان را به قوانینشان اضافه کنند.

دانشگاه استنفورد مدل Laion که اوپن سورس است را بررسی کرد و متوجه شد بخشی از داده‌های تصویری آموزشی این مدل تصاویر صریح و جنسی کودکان است. احتمال دارد همین اتفاق هم برای مدل stable difussion افتاده باشد.

شرکت‌های متا، گوگل و Open AI تصمیم دارند در قوانینشان تغییراتی ایجاد کنند و برنامه‌هایشان را توسعه دهند. این کار به آن‌ها کمک می‌کند تصاویری که سواستفادگران و افراد پدوفیل نیاز دارند در دسترسشان قرار نگیرد.

قوانین محافظت از کودکان دربرابر خطرات تصاویر دیپ‌فیک و آزارهای جنسی توسط سه شرکت پیشرو اضافه شد.

شرکت Meta قرارداد همکاری با Thron امضا کرد تا مدل‌های هوش مصنوعی‌اش را توسعه دهد. این توسعه بیشتر در جهت جلوگیری از تولید محتوای صریح از کودکان است تا آسیبی به آن‌ها نرسد.

شرکت Google می‌خواهد قوانینی اعمال کند و با ابزارهای یادگیری ماشین از اتفاقات مربوطه جلوگیری کند. ابزارهای یادگیری ماشین برای شناسایی و کشف محتوای مضر برای کودکان به کار خواهد رفت.

شرکت Open AI هم قوانین جدیدی برای مدل خود و مدل Dall-E می‌گذارد. مدل مولد تصویر این شرکت تا حد امکان تصاویری که دارای کلیدواژه‌های مربوط به تمایلات پدوفیلی باشد را تولید نمی‌کند. به علاوه دیگر تصاویر صریح از کودکان را برای بیشتر کاربران تولید نمی‌کند.

این تدابیر و قوانین محافظت از کودکان کمک می‌کند تا افراد پدوفیل و سواستفادگر نتوانند تصاویر کودکان را بسازند و با آن‌ها اخاذی کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *