Jeddah (UNA) – Persatuan Kantor Berita OKI (UNA) menyelenggarakan lokakarya virtual pada Rabu, 5 November 2025, bertajuk: “Etika Penggunaan Teknologi Kecerdasan Buatan dan Dampak Halusinasinya terhadap Konten Media,” bekerja sama dengan Pusat Internasional untuk Penelitian dan Etika Kecerdasan Buatan (ICAIRE). Lokakarya ini bertujuan untuk mengikuti perkembangan aplikasi kecerdasan buatan dan etika penggunaannya, serta mengidentifikasi dampak paling menonjol dari halusinasinya terhadap konten media.
Lokakarya tersebut, yang dihadiri oleh lebih dari 350 profesional media dari kantor berita di negara-negara anggota Organisasi Kerja Sama Islam, dan profesional media dari entitas lain, juga bertujuan untuk meningkatkan pembuatan konten dan meningkatkan kesadaran profesional media di media negara-negara anggota.
Direktur Jenderal Persatuan Kantor Berita OKI (UNA), Profesor Mohammed bin Abdulrab Al-Yami, kembali menegaskan peringatannya tentang isu-isu terkait kecerdasan buatan, dengan mencatat cara-cara untuk menangani isu-isu ini di lingkungan media dan komunikasi yang konsisten dengan prinsip dan nilai-nilai yang mengatur kerja media. Selama lokakarya, ia menekankan bahwa meskipun aplikasi kecerdasan buatan mungkin tampak otomatis dalam hasil akhirnya, namun pada dasarnya, aplikasi tersebut berasal dari manusia, pemrograman, penataan data, dan pengembangan algoritma. Ini berarti bahwa, seperti halnya usaha manusia lainnya, aplikasi tersebut rentan terhadap bias, stereotip, dan melayani agenda politik dan ideologis dengan kedok objektivitas. Ia menunjukkan bahwa jawaban yang berbeda dari beberapa aplikasi ini untuk pertanyaan yang sama, tergantung pada konteks politik dan historis yang terkait dengan pertanyaan tersebut, mengharuskan kesadaran akan bias yang terkait dengan aplikasi ini dan menghindarinya.
Al-Yami juga menekankan masalah privasi data dan pentingnya menanganinya sesuai dengan hukum yang berlaku di tingkat nasional di negara-negara dan lingkungan media, serta perlunya membedakan antara konten yang diproduksi melalui upaya manusia semata atau dengan bantuan terbatas dari kecerdasan buatan, dan konten yang diproduksi sepenuhnya dengan mengandalkan kecerdasan buatan.
Direktur Jenderal UNA menyoroti isu "kekayaan intelektual", dan bagaimana aplikasi kecerdasan buatan secara otomatis menyimpan semua teks yang dimasukkan ke dalamnya, lalu berupaya menggunakannya kembali dengan cara lain yang melanggar hak kekayaan intelektual. Ia menganggap isu ini sebagai salah satu isu paling serius dan sensitif di media, sekaligus memperingatkan adanya beberapa model kecerdasan buatan yang dapat memberikan informasi palsu kepada jurnalis yang memengaruhi konstruksi cerita atau materi media.
Dr. Abdulrahman Al-Habib, pembimbing Pusat Internasional untuk Riset dan Etika Kecerdasan Buatan, membahas etika pemanfaatan kecerdasan buatan, tantangan, manfaat dan risikonya. Ia menekankan bahwa media pada umumnya memperoleh manfaat besar dari kecerdasan buatan. Akan tetapi, ketergantungan kecerdasan buatan pada algoritma membuatnya bias dalam banyak topik. Hal ini menjadi salah satu tantangan paling menonjol, di samping deepfake dalam fotografi dan video, serta dampaknya yang besar pada sebagian orang hingga mereka lupa akan keterampilan mereka sendiri karena terlalu bergantung pada kecerdasan buatan.
Dr. Al-Habib menggambarkan “halusinasi” sebagai masalah yang kompleks, dan mencatat bahwa hal itu menyebabkan beberapa orang memecahkan masalah kecerdasan buatan dengan kecerdasan buatan itu sendiri, dan menyebabkan mereka berpindah dari membangun satu program ke program lain, seraya menunjukkan bahwa beberapa tantangan tidak memiliki solusi.
Ia juga menyinggung masalah manipulasi media, mengutip penulisan artikel palsu dan rekayasa menggunakan kecerdasan buatan, penyebaran informasi yang salah, dan publikasi konten yang dilindungi oleh hak kekayaan intelektual.
Al-Habib menghimbau para pelaku media untuk mewaspadai risiko kecerdasan buatan agar dapat mengetahui cara menanganinya, mengingat adanya pertimbangan hukum, peradilan, dan tanggung jawab, terutama karena program kecerdasan buatan dibangun di atas data yang bias.
(sudah selesai)



