
جده (UNA) - پروفسور محمد بن عبدالرب الیامی، مدیرکل اتحادیه خبرگزاریهای سازمان همکاری اسلامی (UNA)، بار دیگر هشدار خود را در مورد مسائل مربوط به هوش مصنوعی تکرار کرد و به راههای مقابله با این مسائل در محیطهای رسانهای و ارتباطی به شیوهای سازگار با اصول و ارزشهای حاکم بر کار رسانهای اشاره کرد.
او در کارگاهی که توسط اتحادیه در روز چهارشنبه، ۵ نوامبر ۲۰۲۵، با همکاری مرکز بینالمللی تحقیقات و اخلاق هوش مصنوعی (ICAIRE) با عنوان «اخلاق استفاده از فناوریهای هوش مصنوعی و تأثیر توهمات آنها بر محتوای رسانهای» برگزار شد، تأکید کرد که اتکای روزافزون به هوش مصنوعی، که خود را به عنوان یک واقعیت روزمره در زندگی متخصصان رسانه، از نظر تولید متون، تصاویر و ویدیوها و به طور کلی ساخت محتوای رسانهای، تحمیل کرده است، دو سؤال محوری را مطرح میکند، یکی مربوط به اخلاق و دیگری مربوط به اعتبار.
الیامی در مورد مسئله اخلاقی که محور کارگاه بود، به ظهور مسائل مربوط به تعصب اشاره کرد و گفت که برنامههای هوش مصنوعی، اگرچه در خروجی نهایی خود خودکار به نظر میرسند، اما از نظر منشأ، برنامهنویسی، ساختار دادهها و توسعه الگوریتم، انسانی هستند. این بدان معناست که مانند هر تلاش انسانی، مستعد تعصب، کلیشهسازی و خدمت به دستور کارهای سیاسی و ایدئولوژیک تحت پوشش بیطرفی هستند.
او خاطرنشان کرد که پاسخهای ارائه شده توسط برخی از این کاربردها به یک سؤال واحد، بسته به زمینههای سیاسی و تاریخی مرتبط با سؤالات، متفاوت است و خواستار آگاهی از تعصبات مرتبط با این کاربردها و اجتناب از آنها و پایبندی به حداکثر درجه ممکن بیطرفی شد.
او توضیح داد که از جمله مشکلات مربوط به مسئله اخلاق، مسئله حریم خصوصی دادهها و اهمیت برخورد با آن مطابق با قوانین جاری در سطح ملی در کشورها و محیطهای رسانهای است، علاوه بر این، نیاز به تمایز صریح بین محتوایی که صرفاً از طریق تلاش انسانی یا با کمک محدود هوش مصنوعی تولید شده است و محتوایی که کاملاً با تکیه بر هوش مصنوعی تولید شده است، نیز وجود دارد.
الیامی افزود: «از جمله مسائل مربوط به مسئله اخلاقی، مسئله مالکیت معنوی است. برنامههای هوش مصنوعی به طور خودکار تمام متونی را که در آنها وارد میشود ذخیره میکنند و ممکن است آنها را به روشهای دیگری که حقوق مالکیت معنوی را نقض میکند، دوباره استفاده کنند. در اینجا، ما باید در مورد کیفیت و ماهیت متونی که در این برنامهها وارد میکنیم بسیار مراقب باشیم. این موضوع یکی از جدیترین و حساسترین مسائل در رسانهها است. روزنامه آمریکایی نیویورک تایمز پیش از این علیه مایکروسافت و OpenAI شکایت کرده و این دو شرکت را به استفاده بدون اجازه از داستانهای روزنامه برای آموزش چتباتهای خود متهم کرده بود.»
او توضیح داد که در میان مسائل مربوط به اخلاق، موارد دیگری نیز وجود دارد که به مسئله اعتبار و صداقت روزنامهنگاری مربوط میشود، زیرا برنامههای هوش مصنوعی، با تمام مزایای خود و با تمام امکانات و پیشرفتهایی که به کار رسانهای ارائه دادهاند، با توجه به آنچه که از نظر فناوریهای جعل عمیق ارائه میدهند و ایجاد محتوای بصری که اغلب تشخیص آن از محتوای واقعی دشوار است، به تهدیدی برای اعتبار رسانهها نیز تبدیل شدهاند.
مدیر کل UNA نسبت به برخی مدلهای هوش مصنوعی که میتوانند اطلاعات نادرستی را در اختیار روزنامهنگاران قرار دهند و بر ساخت داستانها یا محتوای رسانه تأثیر بگذارند، هشدار داد. این امر میتواند با ارائه پاسخهای نادرست، دستکاری زمینه یا حذف اطلاعات حیاتی ضروری برای یک تصویر کامل حاصل شود. حتی بدتر از آن، این مدلها ممکن است مرز بین واقعیت و خیال را محو کنند و افراد و رویدادهایی را خلق کنند که هرگز وجود نداشتهاند.
او بر لزوم مقابله با این چالشها از طریق تجهیز روزنامهنگاران به مهارتهای تأیید و تحقیق تأکید کرد تا اعتماد عمومی به رسانهها حفظ شود و از آنها در برابر خطرات اطلاعات نادرست، تحریف و جعل اطلاعات محافظت شود.
او توضیح داد که به عنوان بخشی از تلاشهای اتحادیه ملی رسانهها (UNA) برای افزایش آگاهی متخصصان رسانه در کشورهای عضو در مورد مزایا و خطرات هوش مصنوعی، این کارگاه توسط اتحادیه با همکاری مرکز بینالمللی تحقیقات و اخلاق در هوش مصنوعی (ICAIRE) که تحت نظارت یونسکو فعالیت میکند، به عنوان اولین مرکز از نوع خود در جهان که به اخلاق هوش مصنوعی میپردازد، برگزار میشود.
الیامی سخنرانی خود در این کارگاه را با تشکر از شرکتکنندگان و برگزارکنندگان مرکز بینالمللی تحقیقات و اخلاق هوش مصنوعی برای تلاشهایشان در آمادهسازی این کارگاه به پایان رساند و ابراز امیدواری کرد که این کارگاه به نتیجه مطلوب برسد و به ایجاد مبنایی مشترک برای پرداختن به مسائل اخلاق و اعتبار در هوش مصنوعی و کاربردهای آن در زمینه رسانه کمک کند.
(تمام شد)



