跳到主要內容

很遺憾,我們無法支援你的瀏覽器。如果可以,請升級到新版本,或使用 Mozilla Firefox、Microsoft Edge、Google Chrome 或 Safari 14 或更新版本。如果無法升級,而且需要支援,請將你的回饋寄給我們。

我們衷心感謝你對這個新體驗的回饋。告訴我們你的想法 打開新的分頁/視窗

Elsevier
與我們共同出版
Connect

負責任的 AI 開發的 6 項基本作法

2024年8月8日

Ian Evans

Stock image depicting woman using AI on a computer (Source: JohnnyGreig/E+ via Getty Images)

JohnnyGreig/E+ via Getty Images

以下是一些指導方針,您可以遵循這些方針來避免在研究中使用生成式人工智慧的陷阱,同時充分運用其能力。

新一代人工智慧 (genAI) 正以提高效率和效益的承諾,席捲整個產業,包括研究企業。要實現這些承諾,同時降低風險並確保道德使用,需要負責任的開發實務。 在最近的一場網路研討會 打開新的分頁/視窗中,兩位 Elsevier 專家強調了在開發 AI 系統時,導引負責任的設計決策所實施的防護措施的重要性。Scopus 首席產品經理 Adrian Raudaschl  打開新的分頁/視窗討論了 Elsevier Scopus AI  打開新的分頁/視窗的開發,而資料科學與負責任的 AI 資深總監 Harry Muncey 打開新的分頁/視窗 博士則建議使用 GenAI 的最佳實務。

在這篇文章中,我們將專注於 Harry 更為一般性的建議。

「負責任地開發人工智慧表示設置防線,讓我們在開發人工智慧系統時能夠做出負責任的設計決策」。

Photo of Harry Muncey, PhD

HM

Harry Muncey, PhD

Elsevier 的 Senior Director of Data Science and Responsible AI

1. 解決訓練資料中的偏差

AI 開發的基本挑戰之一是訓練資料中存在偏見,這可能會導致歧視性的結果。Harry 強調,在 AI 系統中找出並設計出偏差,以防止複製或放大現有的偏差是非常重要的。他們解釋說:

AI 通常使用大量的資料進行訓練。收集和選擇這些資料通常是因為這些資料捕捉到我們想要利用技術改善的某些決策流程或系統的特徵。透過承認並積極努力減少訓練資料中的偏見,開發人員可以努力達到公平公正的 AI 應用。

Harry 強調多樣性和包容性在 AI 發展中的重要性,並解釋說:

如果我們不努力識別和設計出這些偏見,就很可能在實作人工智慧時複製它,甚至擴大它的規模。透過促進訓練資料的多樣性,並積極解決偏見問題,開發人員可以創造出更能反映社會多元觀點與經驗的 AI 系統。

本質上,解決 AI 產品中的偏見問題可為使用者帶來更好的體驗。

「如果不投入精力去識別和設計出這種偏見,我們很可能會在實現人工智慧時複製它,甚至在規模上擴大它。透過促進訓練資料的多樣性,並積極解決偏見問題,開發人員可以創造出更能反映社會多元觀點與經驗的 AI 系統。」

Photo of Harry Muncey, PhD

HM

Harry Muncey, PhD

Elsevier 的 Senior Director of Data Science and Responsible AI

2. 瞭解 GenAI 的能力和限制

Harry 強調人工智慧產生式內容的潛在風險,可能會破壞信任並使錯誤資訊永久化:

生成式人工智慧非常擅長製作令人信服的合成內容,無論是以知名報紙或記者的風格人工產生的文章,或是政治人物說了一些實際上沒有說的尷尬話的影片。

Harry 解釋說,藉由瞭解產生式人工智慧的能力與限制,開發人員可以實施保障措施,防止誤用與誤導。

此外,他們強調需要持續進行研究與開發,以解決產生式人工智能所涉及的倫理問題。

在如何糾正這種編碼在資料中的歷史偏見方面,我們進行了許多研究和努力,但並沒有萬靈丹。透過持續學習與適應,開發人員可以領先新興的挑戰,並確保以負責任的方式使用生成式 AI 技術。

3. 在 AI 部署中,將道德和人為監督放在首位

Elsevier 對負責任的 AI 開發的承諾延伸到他們內部對 AI 和機器學習技術的使用。Harry 強調透過 AI 解決方案強化人類決策的重要性,而這些解決方案的設計目的是讓客戶和整個社會受益。他們表示:

我們的解決方案,不論是對內或對外,都是為了強化人類的決策能力而設計。而我們對企業責任的承諾也是這個方法的基礎。

透過優先考量道德與企業責任,組織可以利用 AI 技術產生正面影響,同時降低潛在的負面後果。

「我們的解決方案,不論是內部或外部,都是為了強化人類的決策能力而設計。而我們對企業責任的承諾也是這種方法的基礎」。

Photo of Harry Muncey, PhD

HM

Harry Muncey, PhD

Elsevier 的 Senior Director of Data Science and Responsible AI

4. 確保人工智慧系统的透明度和問責制

透明度與問責性對負責任的人工智慧發展至關重要。Harry 強調明確溝通和問責機制的重要性: 他們解釋說,透過培養 AI 系統的透明度和問責性,開發人員可以與使用者和利害關係人建立信任,同時推廣負責任的 AI 作法。 Harry 也強調「主動致力於增加正面影響並預防負面結果」的重要性

5. 與利害關係人合作

Harry 強調與利害關係人合作,並促進關於 AI 發展的公開對話的重要性:

深入瞭解這些問題可能會如何顯現,並在我們希望使用創造性人工智慧的特定環境中造成問題,對於能夠以負責任的方式部署和使用人工智慧確實至關重要。

透過與利害關係人積極溝通並蒐集反饋意見,開發人員可以確保以負責任、合乎道德的方式開發與部署 AI 系統。

6. 規劃持續學習與適應

隨著 AI 技術的不斷演進,開發人員必須優先進行持續學習和適應,以應對新出現的挑戰和機會。Harry 強調了 AI 開發的動態性質,他評論道:「雖然複雜的技術不斷增加,接近決策,但對人的影響也越來越大:

雖然日益複雜的技術、與決策的接近以及對人類的潛在影響帶來了新的挑戰,但同時也創造了許多機會來造福我們的客戶和社會。

透過持續瞭解人工智慧的最新進展,並積極參與持續的學習與適應,開發人員能夠在人工智慧開發的複雜性中遊刃有餘,並專注於負責任與道德的實務。

結論

負責任的 AI 開發需要多方面的方法,包括處理訓練資料中的偏見、執行產生式 AI 的保障措施、優先考量部署中的道德因素、提升透明度與問責性,以及持續學習與適應。透過遵守這些原則,開發人員可以利用 AI 技術的變革潛力,同時維護道德標準與社會價值。

貢獻者

Portrait photo of Ian Evans

IE

Ian Evans

內容與品牌編輯部資深總監

Elsevier

繼續閱讀 Ian Evans