رفتن به محتوای اصلی

نگرانی‌ها از افزایش نقش هوش مصنوعی در تولید تصاویر سوءاستفاده جنسی از کودکان+ویدئو

نگرانی‌ها از افزایش نقش هوش مصنوعی در تولید تصاویر سوءاستفاده جنسی از کودکان+ویدئو

آژانس اتحادیه اروپا برای همکاری در اجرای قانون (یوروپُل) در گزارشی نسبت به افزایش استفاده از هوش مصنوعی در تولید تصاویر سوءاستفاده جنسی از کودکان و انتشار آن‌ها در فضای مجازی هشدار داد.

یوروپل در این گزارش ۳۷ صفحه‌ای که روز دوشنبه یکم مرداد منتشر شد، اعلام کرد هوش مصنوعی به مجرمان اجازه تولید یا تغییر مطالب مرتبط با سوءاستفاده جنسی از کودکان را می‌دهد.

این آژانس پیش‌بینی کرد به‌کارگیری هوش مصنوعی برای پیشبرد این هدف مجرمانه در آینده گسترش بیشتری خواهد یافت.

به گفته یوروپل، افزایش تصاویر تولید شده با استفاده از هوش مصنوعی، شناسایی قربانیان واقعی را دشوارتر خواهد کرد.

این گزارش که خطرات دیجیتال پیش‌ روی اروپا را مورد بررسی قرار داده، همچنین هشدار داد: «حتی در مواردی که محتوا کاملا ساختگی است و هیچ قربانی واقعی به تصویر کشیده نشده است، محتوای مرتبط با سوءاستفاده جنسی از کودکان که به‌وسیله هوش مصنوعی تولید شده، به شی‌انگاری و جنسی‌سازی کودکان دامن می‌زند.»

بر اساس یافته‌های پژوهش دانشگاه ادینبرو بریتانیا که در ماه مه سال جاری میلادی منتشر شد، سالانه حدود ۳۰۰ میلیون کودک قربانی یکی از انواع سوءاستفاده جنسی در فضای مجازی می‌شوند.

این مطالعه افزود هوش مصنوعی ابعاد جدیدی به سوءاستفاده از افراد در اینترنت در قالب «دیپ‌فیک» اضافه کرده است.

روزنامه گاردین در مرداد ۱۴۰۲ نوشت بیم آن می‌رود که هوش مصنوعی سوءاستفاده جنسی از کودکان را تشدید کند.

طبق برآورد آژانس ملی جرم و جنایت بریتانیا، حدود ۸۳۰ هزار بزرگسال، یعنی ۱/۶ درصد از جمعیت بزرگسالان، درجاتی از خطر جنسی را متوجه کودکان می‌کنند.

گریم بیگار، مدیرکل این آژانس تاکید کرد تصاویر سوءاستفاده جنسی در فضای مجازی اثری «فزاینده» بر انجام این رفتار دارد و چنین پدیده‌ای را «عادی‌‌سازی» می‌‌کند.

در خرداد سال گذشته، نتایج تحقیقات مشترک روزنامه وال ‌استریت ژورنال و محققان دانشگاهی نشان داد الگوریتم‌های اینستاگرام با ترویج مطالب مربوط به سوءاستفاده جنسی از کودکان، شبکه‌ای از این حساب‌ها را به کاربران دیگر توصیه می‌کند.

بر اساس این پژوهش، سیستم توصیه اینستاگرام با وصل کردن افراد منحرف جنسی به هم، آن‌ها را به سمت فروشندگان محتوای جنسی کودکان هدایت می‌کند.

پیش‌تر نشریه وایِرد خبر داده بود سازندگان ویدیوهای دیپ‌فیک از تصاویر قربانیان قاچاق جنسی برای ساخت محتوای غیرقانونی استفاده می‌کنند.

بنا بر این گزارش، در ویدیوهای جدید، چهره‌های افراد مشهور با استفاده از هوش مصنوعی روی بدن قربانیان پرونده‌های قاچاق جنسی قرار داده شده ‌است.

پایگاه خبری اکسیوس در آذر ۱۴۰۲ گزارش داد ویدیوهای ساخته‌شده توسط نسل آینده ابزارهای هوش مصنوعی، امکان تشخیص محتوای واقعی از ساختگی را غیرممکن خواهد کرد.

دیدگاه‌ و نظرات ابراز شده در این مطلب، نظر نویسنده بوده و لزوما سیاست یا موضع ایرانگلوبال را منعکس نمی‌کند.

ایران گلوبال
برگرفته از:
ایران اینترنشنال

تصویر

تصویر

تصویر

توجه داشته باشید کامنت‌هایی که مربوط به موضوع مطلب نباشند، منتشر نخواهند شد! 

افزودن دیدگاه جدید

متن ساده

  • تگ‌های HTML مجاز نیستند.
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • نشانی‌های وب و پست الکتونیکی به صورت خودکار به پیوند‌ها تبدیل می‌شوند.

متن ساده

  • تگ‌های HTML مجاز نیستند.
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • نشانی‌های وب و پست الکتونیکی به صورت خودکار به پیوند‌ها تبدیل می‌شوند.
CAPTCHA
کاراکترهای نمایش داده شده در تصویر را وارد کنید.
لطفا حروف را با خط فارسی و بدون فاصله وارد کنید