سواد رسانهای و تکنولوژی جعل عمیق

ریال نیوز : چهل و سومین شماره ماهنامه تحلیلی کُد ویژه آذر به سواد رسانهای و مسئولیت اجتماعی پلتفرمها به عنوان پرونده ویژه این شماره پرداخته و گفتارها و نوشتارهایی از صاحبنظران حوزه تنظیمگری در فضای مجازی را منتشر کرده است.
به گزارش ریال نیوز ، چهل و سومین شماره نشریه تحلیلی کد ویژه آذرماه ۱۴۰۱ همراه با گفتارها و نوشتارهایی از مسئولان، اساتید دانشگاهها و صاحبنظران از جمله حجتالاسلام سیدمحمدرضا میرتاجالدینی، رئیس فراکسیون راهبردی مجلس شورای اسلامی، محمدحسین صفارهرندی، رئیس شورای نظارت بر سازمان صدا و سیما، غلامرضا نوری، معاون فضای مجازی سازمان صدا و سیما، سعید مقیسه، رئیس سازمان تنظیم مقررات رسانههای صوتو تصویر فراگیر (ساترا)، فرشید رضایی، سرپرست دفتر آموزش و ارتقا سلامت وزارت بهداشت و حامد ملامیرزایی، رئیس مرکز توسعه فرهنگ و هنر در فضای مجازی منتشر شد.
بنابراین گزارش، محتوای این شماره از نشریه کد، شامل انتشار سرمقاله معاون کاربران و تنظیمگری اجتماعی ساترا، گفتوگو با رئیس فراکسیون راهبردی مجلس شورای اسلامی، گفتوگو با رئیس مرکز توسعه فرهنگ و هنر در فضای مجازی وزارت فرهنگ و ارشاد اسلامی، گزارشی از همایش تبیین افق تحول ساترا تا سال ۱۴۰۵، یادداشتهای سرپرست دفتر آموزش و ارتقا سلامت وزارت بهداشت، کارشناسان معاونت کاربران و تنظیمگری اجتماعی ساترا، پژوهشگر دفتر مطالعات تنظیمگری ساترا و کارشناس معاونت فضای مجازی سازمان صدا و سیما است.
محمدصادق افراسیابی، معاون کاربران و تنظیمگری اجتماعی ساترا در این شماره از ماهنامه «کد» به تنظمگری اجتماعی و مسئولیت اجتماعی پلتفرمها پرداخته و نوشته است: برخی بر این باورند که هر نوع تنظیمگری اگر همراه با فرهنگسازی و اقدامات فرهنگی و اجتماعی نباشد منجر به افزایش تعارضها در جامعه میشود و چنانچه همراه با فرهنگسازی باشد به تحقق اهداف تنظیمگر و در عین حال وحدت ملی منجر میشود. تنظیمگری اجتماعی، یکی از حوزههای نوین تنظیمگری است؛ این مقوله با بهره گرفتن از حوزه منفعت عمومی وجود دارد، درصدد است تا تنظیمگری توسط مردم به انجام برسد.
حامد ملامیرزایی، رئیس مرکز توسعه فرهنگ و هنر در فضای مجازی درباره «هوشمندسازی نظارت از امکان تا عمل» گفته است: برای حرکت به سمت رگولاتوری عالمانه، باید در مفهومشناسی نظارت، ارزیابی و کنترل و ارزشیابی تدقیق صورت گیرد.
در مطلبی با عنوان «خشونت و مسئولیت اجتماعی پلتفرمها» آمده است: خشونت در تلویزیون به کودکان رفتار ضداجتماعی میآموزد. از حساسیت آنها نسبت به اعمال خشن میکاهد، اختلال در خواب به وجود میآورد، علائم بعد از تنش ایجاد میکند و رفتار خشونتآمیز در آنها به وجود میآورد. رسانهها به عنوان بانفوذترین ابزار ارتباطی، نقش عمدهای در گسترش زمینههای خطر برای کودکان و نوجوانان دارند. تسلط رسانهها بر تمام زندگی کودکان، منفعل بودن کودکان در مقابل پیامهای آسیبزای رسانهای، تجه گردانندگان رسانهای به اهداف سیاسی و اقتصادی، تبلیغ ناهنجاریها و ارائه الگوهای نامناسب و تبلیغ بیبندوباری در روابط جنسی، از مهمترین خطراتی است که کودکان و نوجوانان را در معرض بزهکاری قرار میدهد.
«اخبار جعلی خطرناکتر از کرونا» به نقش پلتفرمها در انتشار اخبار و محتواهای جعلی و فیک پرداخته است. فرشید رضایی، سرپرست دفتر آموزش و ارتقا سلامت وزارت بهداشت در این زمینه معتقد است: آنچه کووید ۱۹ به دنیا مشخصاً نشان داد آن بود که پلتفرمها ناظران بیتفاوت بر آنچه در دنیای شبکههای مجازی به اشتراک گذاشته میشود، نیستند و نمیتوانند از نقش ناشر بودن خود منفک باشند.
حنانه اکبری، پژوهشگر دفتر مطالعات تنظیمگری ساترا به فرصتها و چالشهای هوش مصنوعی در صنعت صوت و تصویر پرداخته است. یکی از سؤالات مهم در حوزه تنظیمگری حدود و ثغور مسئولیت فعالیتهای مبتنی بر هوش مصنوعی است. به عبراتی دیگر در صورت آسیب و صدمه ناشی از فعالیت هوش مصنوعی، چه کسی مسئول است؟
موضعگیری قاطع انجمن سواد رسانهای ایران درباره لزوم رعایت حق مالکیت معنوی آثار صدا و سیما توسط آپارات و بیان دیدگاههای برخی مسئولان و اساتید دانشگاهها از جمله محمدحسین صفارهرندی رئیس شورای نظارت بر سازمان صدا و سیما، غلامرضا نوری معاون فضای مجازی سازمان صدا و سیما، محسن قائمینسب، قائم مقام ساترا، محسن شاکرینژاد، رئیس مرکز تحقیقات سازمان صدا و سیما، محمدصالح مذنبی، مدیرکل دفتر انتشارات و فناوری آموزشی وزارت آموزش و پرورش، رضا رسولی، حقوقدان و مدرس دانشگاه، امیدعلی مسعودی، رئیس دانشکده فرهنگ و ارتباطات دانشگاه سوره و رئیس هیئت مدیره انجمن سواد رسانهای ایران، لیلا وصالی، معاون آموزش انجمن سواد رسانهای ایران، محمدمهدی مؤمنیها، سرپرست اداره کل توسعه شبکه تنظیمگران اجتماعی ساترا و در نهایت اخبار و گزارشهای خبری مربوط به فعالیتهای سازمان تنظیم مقررات رسانههای صوتو تصویر فراگیر از دیگر مطالب این شماره است.
حسین صفرعلی، کارشناس تکنولوژی در مطلبی با عنوان «سواد رسانهای و تکنولوژی جعل عمیق» گفته است: دیپفیک یک تکنولوژی نوظهور است که به کاربران اجازه میدهد تا با استفاده از هوش مصنوعی و الگوریتمهای یادگیری ماشین و نرمافزارهای متن باز، تصویر یا صدای افراد را در یک فیلم یا عکس دستکاری کنند و محتواهای جعلی بسازند. با پیشرفت روزافزون هوش مصنوعی، دیگر نمیتوانید به چشمان خود نیز اعتماد کنید. شما حتی میتوانید با تولید ویدیویی که با جعل عمیق ساخته شده است، هر حرفی را در دهان افراد قرار دهید، بدون آنکه واقعاً آن حرف را زده باشند و ویدیوهای باورپذیری تولید کنید که در واقعیت، شخص ورد نظرتان اصلاً در آن صحنه حضور نداشته است. این گونه موارد جعل عمیق، عمدتاً به میزان قابل قبولی طبیعی به نظر میرسند.
علاقهمندان میتوانند نشریه کُد را از طریق وبسایت سازمان تنظیم مقررات رسانههای صوت و تصویر فراگیر(ساترا) مطالعه کنند.
منبع : ایکنا