Sendika Haberleriatölyeler

Yuna ve ICAIRE, 350'den fazla medya profesyonelinin katılımıyla "Yapay Zeka Teknolojilerinin Kullanımının Etiği ve Halüsinasyonlarının Medya İçeriği Üzerindeki Etkisi" başlıklı sanal bir atölye düzenliyor.

Cidde (UNA) – İslam İşbirliği Teşkilatı Haber Ajansları Birliği (UNA), Uluslararası Yapay Zeka Araştırma ve Etik Merkezi (ICAIRE) ile iş birliği içinde, 5 Kasım 2025 Çarşamba günü “Yapay Zeka Teknolojilerinin Kullanımının Etiği ve Halüsinasyonlarının Medya İçeriği Üzerindeki Etkisi” başlıklı sanal bir çalıştay düzenledi. Çalıştayın amacı, yapay zeka uygulamalarındaki gelişmeleri ve bunların kullanımının etiğini takip etmek ve halüsinasyonlarının medya içeriği üzerindeki en belirgin etkilerini belirlemekti.

İslam İşbirliği Teşkilatı üye ülkelerindeki haber ajanslarından 350'den fazla medya profesyonelinin ve diğer kuruluşlardan medya profesyonellerinin katıldığı çalıştayda, içerik oluşturmanın iyileştirilmesi ve üye ülke medyasında medya profesyonellerinin farkındalığının artırılması da amaçlandı.

İslam İşbirliği Teşkilatı Haber Ajansları Birliği (İİT) Genel Müdürü Profesör Muhammed bin Abdurrab El-Yami, yapay zekâ ile ilgili konulardaki uyarısını yineleyerek, medya ve iletişim ortamlarında bu sorunlarla medya çalışmalarını yöneten ilke ve değerlerle uyumlu bir şekilde başa çıkmanın yollarını vurguladı. Çalıştayda, yapay zekâ uygulamalarının nihai çıktılarında otomatik görünseler de, programlama, veri yapılandırma ve algoritma geliştirme süreçlerinin insan kaynaklı olduğunu vurguladı. Bu, herhangi bir insan girişimi gibi, önyargıya, kalıp yargılara ve nesnellik kisvesi altında siyasi ve ideolojik gündemlere hizmet etmeye açık oldukları anlamına gelir. Bu uygulamalardan bazılarının, sorularla ilişkili siyasi ve tarihsel bağlamlara bağlı olarak aynı soruya farklı yanıtlar vermesinin, bu uygulamalarla ilişkili önyargıların farkında olmayı ve bunlardan kaçınmayı gerektirdiğini belirtti.

El-Yami, veri gizliliği konusuna da vurgu yaparak, bu konuda ülke ve medya ortamlarında ulusal düzeyde yürürlükte olan yasalara uygun davranılmasının önemini vurguladı ve tamamen insan emeğiyle veya yapay zekânın sınırlı yardımıyla üretilen içerikler ile tamamen yapay zekâya güvenerek üretilen içerikler arasında ayrım yapılması gerektiğini söyledi.

UNA Genel Müdürü, “fikri mülkiyet” konusuna dikkat çekerek, yapay zekâ uygulamalarının içlerine eklenen tüm metinleri otomatik olarak nasıl depoladığını ve daha sonra bunları fikri mülkiyet haklarını ihlal edecek şekilde başka şekillerde nasıl yeniden kullandığını, bu konunun medyadaki en ciddi ve hassas konulardan biri olduğunu belirtti. Aynı zamanda, gazetecilere haberin veya medya materyalinin oluşturulmasını etkileyen yanlış bilgiler sağlayabilen bazı yapay zekâ modelleri konusunda da uyardı.

Uluslararası Yapay Zeka Araştırma ve Etik Merkezi Sorumlusu Dr. Abdulrahman Al-Habib, yapay zekanın kullanımının etiği, zorlukları, faydaları ve riskleri konusunda açıklamalarda bulunarak, medyanın genel olarak yapay zekadan büyük ölçüde faydalandığını ancak yapay zekanın algoritmalara bağımlı olmasının onu birçok konuda taraflı hale getirdiğini, bunun en önemli zorluklarından birinin fotoğraf ve videolardaki deepfake'ler olduğunu ve yapay zekaya tamamen bağımlı olmanın bazı insanları becerilerini unutturacak kadar etkilediğini vurguladı.

Dr. El-Habib, "halüsinasyon"un karmaşık bir konu olduğunu belirterek, bazılarının yapay zekâ sorunlarını yapay zekânın kendisiyle çözmeye yöneldiğini, bir program yapmaktan başka bir program yapmaya yöneldiğini, bazı zorlukların ise çözümünün olmadığını söyledi.

Yapay zeka kullanılarak yanlış ve uydurma makalelerin yazılması, yanlış bilgilerin yayılması ve fikri mülkiyet haklarıyla korunan içeriklerin yayınlanması gibi medya manipülasyonu konusuna da değindi.

El-Habib, yapay zeka programlarının taraflı veriler üzerine inşa edildiği göz önüne alındığında, yasal, yargısal ve sorumlulukların varlığı göz önüne alındığında, yapay zekanın risklerinin farkında olmaları ve bununla nasıl başa çıkacaklarını bilmeleri gerektiğini söyledi.

(bitti)

Alakalı haberler

Üst düğmeye git