聯盟新聞工作坊

聯合國協會總幹事:人工智慧應用容易產生偏見、刻板印象,並以客觀性為幌子服務於政治和意識形態議程。

吉達(UNA)—伊斯蘭合作組織通訊社聯盟(UNA)總幹事穆罕默德·本·阿卜杜勒拉布·亞米教授重申了有關人工智慧問題的警告,並指出在媒體和傳播環境中處理這些問題的方式應符合媒體工作的原則和價值觀。

在2025年11月5日星期三由聯盟與國際人工智慧研究與倫理中心(ICAIRE)合作舉辦的題為“人工智能技術使用倫理及其幻覺對媒體內容的影響”的研討會上,他強調,媒體從業人員越來越依賴人工智能,人工智能已成為他們日常生活中不可或缺的一部分,用於生成文本、圖像和視頻以及兩個媒體內容,這引發了人工智能,人工智能已成為他們日常生活中不可或缺的一部分,用於生成文本、圖像和視頻以及兩個構建媒體內容,這引發了人工智能,人工智能已成為他們日常生活中不可或缺的一部分,一個與關鍵倫理,與另一個

關於研討會重點討論的倫理問題,阿勒亞米指出,偏見問題日益凸顯。他表示,人工智慧應用雖然最終輸出結果看似自動化,但起源、程式設計、資料結構和演算法開發都離不開人類。這意味著,就像任何人類活動一樣,它們也容易受到偏見、刻板印象的影響,並可能披著客觀性的外衣,服務於政治和意識形態議程。
他指出,一些應用程式對同一問題的回答會因與問題相關的政治和歷史背景而有所不同,因此呼籲人們意識到這些應用程式存在的偏見並避免這些偏見,並堅持盡可能高的客觀性。

他解釋說,與倫理問題相關的問題還包括資料隱私問題,以及在各國和媒體環境中,根據國家層面的現行法律處理資料隱私問題的重要性;此外,還需要明確區分完全由人類努力或在人工智慧有限協助下製作的內容,並完全依賴人工智慧製作的內容。

阿亞米補充說:「涉及倫理問題的一個方面是智慧財產權問題。人工智慧應用程式會自動儲存所有輸入的文本,並可能以其他方式重複使用這些文本,從而侵犯智慧財產權。因此,我們必須非常謹慎地對待輸入到這些應用程式中的文本的品質和性質。這個問題是媒體領域最嚴重、最敏感的問題之一。先前,《紐約時報》曾對微軟的

他解釋說,除了倫理問題之外,還有一些問題與可信度和新聞誠信有關,因為人工智慧應用雖然帶來了諸多優勢,並為媒體工作帶來了諸多便利和改進,但鑑於其在深度偽造技術方面所提供的功能,以及創造出的視覺內容往往難以與真實內容區分開來,人工智慧應用也對媒體的可信度構成了威脅。

聯合國新聞協會(UNA)總幹事警告稱,某些人工智慧模型可能向記者提供不準確的訊息,從而影響新聞報導或媒體內容的建構。這些模型可能透過提供虛假答案、篡改情境或遺漏對呈現完整資訊至關重要的資訊來實現這一目的。更糟的是,這些模型甚至可能模糊事實與虛構的界限,捏造出從未存在過的人物和事件。

他強調,需要透過賦予記者核實和調查技能來應對這些挑戰,以維護公眾對媒體的信任,並保護媒體免受虛假資訊、偽造和捏造的危害。

他解釋說,作為聯合國協會為提高成員國媒體專業人士對人工智慧的益處和風險的認識而做出的努力的一部分,本次研討會由該協會與聯合國教科文組織下屬的人工智慧倫理研究國際中心(ICAIRE)合作舉辦,ICAIRE是世界上第一個關注人工智慧倫理的同類中心。

Al-Yami 在研討會上結束演講時,感謝與會者和國際人工智慧研究與倫理中心組織者為籌備本次研討會所付出的努力,並希望研討會能夠取得預期成效,有助於為處理人工智慧及其在媒體領域的應用所涉及的倫理和可信度問題建立共同基礎。

(結束了)

相關新聞

شاهدأيضاً
.لاق
轉到頂部按鈕