每個人都想要負責任的人工智能,但很少有人為此采取行動

來源: 西安童程童美少兒編程培訓(xùn)碑林校區(qū) 發(fā)布時間:2023-12-12

較近的一項調(diào)查顯示,雖然近十分之九的企業(yè)-都認為制定有關(guān)人工智能(AI) 道德和企業(yè)責任的明確指導(dǎo)方針非常重要,但幾乎沒有人承認他們有這樣的指導(dǎo)方針。 

這些發(fā)現(xiàn)表明,人們對需要采取哪些方法來管理人工智能的采用感到困惑,技術(shù)專業(yè)人員需要挺身而出,其以數(shù)據(jù)為主導(dǎo)的計劃的 安全和道德發(fā)展。

該結(jié)果來自科技公司 Conversica 發(fā)布的一項基于 500 名商界觀點的調(diào)查,調(diào)查顯示:“調(diào)查中得出了一個響亮的信息:大多數(shù)受訪者認識到,制定明確的指南對于負責任地使用信息技術(shù)至關(guān)重要。公司內(nèi)部的人工智能,尤其是那些已經(jīng)采用該技術(shù)的公司。” 

近四分之三 (73%) 的受訪者表示人工智能指南不可或缺。然而,只有 6% 的人制定了明確的人工智能使用道德準則,36% 的人表示他們可能會在未來 12 個月內(nèi)制定準則。

即使在生產(chǎn)中使用人工智能的公司中,目前使用人工智能的公司中,五分的者也承認對其組織的人工智能相關(guān)政策了解有限或一無所知。超過三分(36%)的人聲稱僅“稍微熟悉”與政策相關(guān)的問題。

報告作者指出,解決負責任人工智能問題的指導(dǎo)方針和政策應(yīng)納入治理、公正的訓(xùn)練數(shù)據(jù)、偏見檢測、偏見緩解、透明度、準確性以及人類監(jiān)督。

約三分之二 (65%) 的受訪高管表示,他們已經(jīng)或計劃在未來 12 個月內(nèi)推出人工智能服務(wù)。人工智能的主要用例包括支持互動功能,例如客戶服務(wù)和營銷(39%),以及產(chǎn)生分析見解(35%)。

調(diào)查發(fā)現(xiàn),人們對人工智能輸出較關(guān)心的問題是當前數(shù)據(jù)模型的準確性、虛假信息和缺乏透明度。超過四分之三(77%)的高管對人工智能產(chǎn)生虛假信息表示擔憂。

商界表示,人工智能提供商沒有提供足夠的信息來幫助制定指導(dǎo)方針,尤其是在數(shù)據(jù)安全和透明度以及制定強有力的道德政策方面。 

大約三分之二 (36%) 的受訪者表示,他們的企業(yè)對使用生成式 AI 工具(例如Chat GPT)有規(guī)則。但 20% 的受訪者表示,在可預(yù)見的未來,他們的公司將給予員工個人使用人工智能工具的自由。

Conversica 的調(diào)查顯示,在實現(xiàn)負責任的人工智能方面存在差距。那么,技術(shù)者和業(yè)務(wù)線專業(yè)人員如何挺身而出,確保負責任的人工智能實踐到位?以下是Google 人工智能團隊分享的一些關(guān)鍵指南 :

  • 使用以人為本的設(shè)計方法: “實際用戶體驗系統(tǒng)的方式對于評估其預(yù)測、建議和決策的真實影響至關(guān)重要。內(nèi)置適當披露的設(shè)計功能:清晰度和控制對于良好的用戶至關(guān)重要在設(shè)計過程的早期對潛在的不利反饋進行建模,然后在部署之前對一小部分流量進行特定的實時測試和迭代。”
  • 與不同的用戶和用例場景互動: “在項目開發(fā)之前和整個過程中納入反饋。這將為項目構(gòu)建豐富多樣的用戶觀點,并增加從技術(shù)中受益的人數(shù)。”
  • 使用公平和包容性的具體目標來設(shè)計模型:  “考慮技術(shù)及其隨著時間的發(fā)展將如何影響不同的用例:代表誰的觀點?代表什么類型的數(shù)據(jù)?遺漏了什么?”
  • 檢查系統(tǒng)是否存在不公平偏見:  “例如,組織一群值得信賴的、多樣化的測試人員,他們可以對系統(tǒng)進行對抗性測試,并將各種對抗性輸入納入單元測試中。這可以幫助識別誰可能會遇到意想不到的不利影響。甚至低錯誤率可能會導(dǎo)致偶爾出現(xiàn)非常嚴重的錯誤。”
  • 在困難的情況下對系統(tǒng)進行壓力測試:  “這將使您能夠快速評估您的系統(tǒng)在每次更新系統(tǒng)時可能特別有害或有問題的示例上的表現(xiàn)。與所有測試集一樣,您應(yīng)該不斷更新此集隨著系統(tǒng)的發(fā)展,功能會被添加或刪除,并且您會從用戶那里獲得更多反饋。”
  • 測試、測試、測試: “學(xué)習(xí)軟件工程較佳測試實踐和質(zhì)量工程,以確保人工智能系統(tǒng)按預(yù)期工作且值得信賴。進行嚴格的單元測試,單獨測試系統(tǒng)的每個組件。進行集成測試了解各個機器學(xué)習(xí)組件如何與整個系統(tǒng)的其他部分交互。”
  • 使用黃金標準數(shù)據(jù)集來測試系統(tǒng)并確保其繼續(xù)按預(yù)期運行:  “根據(jù)不斷變化的用戶和用例定期更新此測試集,并減少在測試集上進行訓(xùn)練的可能性。進行迭代用戶測試在開發(fā)周期中納入不同的用戶需求。”
  • 應(yīng)用防錯的質(zhì)量工程原理:  “在系統(tǒng)中建立質(zhì)量檢查,以便意外故障不會發(fā)生或觸發(fā)立即響應(yīng) - 例如,如果意外丟失重要功能,人工智能系統(tǒng)將不會輸出預(yù)言。”

企業(yè)可能希望快速實施人工智能,但必須謹慎確保工具及其模型的準確和公平。雖然企業(yè)正在尋求人工智能的進步,但該技術(shù)每次都必須提供負責任的結(jié)果。

咨詢機構(gòu)
推薦課程