اخبار اتحادیهکارگاه ها

مدیر کل UNA: برنامه‌های هوش مصنوعی مستعد تعصب، کلیشه‌سازی و خدمت به دستور کارهای سیاسی و ایدئولوژیک تحت پوشش بی‌طرفی هستند.

جده (UNA) - پروفسور محمد بن عبدالرب الیامی، مدیرکل اتحادیه خبرگزاری‌های سازمان همکاری اسلامی (UNA)، بار دیگر هشدار خود را در مورد مسائل مربوط به هوش مصنوعی تکرار کرد و به راه‌های مقابله با این مسائل در محیط‌های رسانه‌ای و ارتباطی به شیوه‌ای سازگار با اصول و ارزش‌های حاکم بر کار رسانه‌ای اشاره کرد.

او در کارگاهی که توسط اتحادیه در روز چهارشنبه، ۵ نوامبر ۲۰۲۵، با همکاری مرکز بین‌المللی تحقیقات و اخلاق هوش مصنوعی (ICAIRE) با عنوان «اخلاق استفاده از فناوری‌های هوش مصنوعی و تأثیر توهمات آنها بر محتوای رسانه‌ای» برگزار شد، تأکید کرد که اتکای روزافزون به هوش مصنوعی، که خود را به عنوان یک واقعیت روزمره در زندگی متخصصان رسانه، از نظر تولید متون، تصاویر و ویدیوها و به طور کلی ساخت محتوای رسانه‌ای، تحمیل کرده است، دو سؤال محوری را مطرح می‌کند، یکی مربوط به اخلاق و دیگری مربوط به اعتبار.

الیامی در مورد مسئله اخلاقی که محور کارگاه بود، به ظهور مسائل مربوط به تعصب اشاره کرد و گفت که برنامه‌های هوش مصنوعی، اگرچه در خروجی نهایی خود خودکار به نظر می‌رسند، اما از نظر منشأ، برنامه‌نویسی، ساختار داده‌ها و توسعه الگوریتم، انسانی هستند. این بدان معناست که مانند هر تلاش انسانی، مستعد تعصب، کلیشه‌سازی و خدمت به دستور کارهای سیاسی و ایدئولوژیک تحت پوشش بی‌طرفی هستند.
او خاطرنشان کرد که پاسخ‌های ارائه شده توسط برخی از این کاربردها به یک سؤال واحد، بسته به زمینه‌های سیاسی و تاریخی مرتبط با سؤالات، متفاوت است و خواستار آگاهی از تعصبات مرتبط با این کاربردها و اجتناب از آنها و پایبندی به حداکثر درجه ممکن بی‌طرفی شد.

او توضیح داد که از جمله مشکلات مربوط به مسئله اخلاق، مسئله حریم خصوصی داده‌ها و اهمیت برخورد با آن مطابق با قوانین جاری در سطح ملی در کشورها و محیط‌های رسانه‌ای است، علاوه بر این، نیاز به تمایز صریح بین محتوایی که صرفاً از طریق تلاش انسانی یا با کمک محدود هوش مصنوعی تولید شده است و محتوایی که کاملاً با تکیه بر هوش مصنوعی تولید شده است، نیز وجود دارد.

الیامی افزود: «از جمله مسائل مربوط به مسئله اخلاقی، مسئله مالکیت معنوی است. برنامه‌های هوش مصنوعی به طور خودکار تمام متونی را که در آنها وارد می‌شود ذخیره می‌کنند و ممکن است آنها را به روش‌های دیگری که حقوق مالکیت معنوی را نقض می‌کند، دوباره استفاده کنند. در اینجا، ما باید در مورد کیفیت و ماهیت متونی که در این برنامه‌ها وارد می‌کنیم بسیار مراقب باشیم. این موضوع یکی از جدی‌ترین و حساس‌ترین مسائل در رسانه‌ها است. روزنامه آمریکایی نیویورک تایمز پیش از این علیه مایکروسافت و OpenAI شکایت کرده و این دو شرکت را به استفاده بدون اجازه از داستان‌های روزنامه برای آموزش چت‌بات‌های خود متهم کرده بود.»

او توضیح داد که در میان مسائل مربوط به اخلاق، موارد دیگری نیز وجود دارد که به مسئله اعتبار و صداقت روزنامه‌نگاری مربوط می‌شود، زیرا برنامه‌های هوش مصنوعی، با تمام مزایای خود و با تمام امکانات و پیشرفت‌هایی که به کار رسانه‌ای ارائه داده‌اند، با توجه به آنچه که از نظر فناوری‌های جعل عمیق ارائه می‌دهند و ایجاد محتوای بصری که اغلب تشخیص آن از محتوای واقعی دشوار است، به تهدیدی برای اعتبار رسانه‌ها نیز تبدیل شده‌اند.

مدیر کل UNA نسبت به برخی مدل‌های هوش مصنوعی که می‌توانند اطلاعات نادرستی را در اختیار روزنامه‌نگاران قرار دهند و بر ساخت داستان‌ها یا محتوای رسانه تأثیر بگذارند، هشدار داد. این امر می‌تواند با ارائه پاسخ‌های نادرست، دستکاری زمینه یا حذف اطلاعات حیاتی ضروری برای یک تصویر کامل حاصل شود. حتی بدتر از آن، این مدل‌ها ممکن است مرز بین واقعیت و خیال را محو کنند و افراد و رویدادهایی را خلق کنند که هرگز وجود نداشته‌اند.

او بر لزوم مقابله با این چالش‌ها از طریق تجهیز روزنامه‌نگاران به مهارت‌های تأیید و تحقیق تأکید کرد تا اعتماد عمومی به رسانه‌ها حفظ شود و از آنها در برابر خطرات اطلاعات نادرست، تحریف و جعل اطلاعات محافظت شود.

او توضیح داد که به عنوان بخشی از تلاش‌های اتحادیه ملی رسانه‌ها (UNA) برای افزایش آگاهی متخصصان رسانه در کشورهای عضو در مورد مزایا و خطرات هوش مصنوعی، این کارگاه توسط اتحادیه با همکاری مرکز بین‌المللی تحقیقات و اخلاق در هوش مصنوعی (ICAIRE) که تحت نظارت یونسکو فعالیت می‌کند، به عنوان اولین مرکز از نوع خود در جهان که به اخلاق هوش مصنوعی می‌پردازد، برگزار می‌شود.

الیامی سخنرانی خود در این کارگاه را با تشکر از شرکت‌کنندگان و برگزارکنندگان مرکز بین‌المللی تحقیقات و اخلاق هوش مصنوعی برای تلاش‌هایشان در آماده‌سازی این کارگاه به پایان رساند و ابراز امیدواری کرد که این کارگاه به نتیجه مطلوب برسد و به ایجاد مبنایی مشترک برای پرداختن به مسائل اخلاق و اعتبار در هوش مصنوعی و کاربردهای آن در زمینه رسانه کمک کند.

(تمام شد)

اخبار مرتبط

برو به دکمه بالا