沒有監管的人工智能會產生倫理偏見

構建透明和信任的人工智能。

到目前為止,我們都熟悉人工智能錯誤的流行示例。人工智能(可以說是不經意的)有失偏頗的故事,是黑皮客不能正常工作的肥皂器,是白人脈血氧儀更准確的算法,甚至是對犯罪分子是否會再次坐牢的預判youtube视频推广

這些情況不僅會引起頭條新聞和社交媒體的強烈反對,還會破壞更合法的人工智能用例。這些用例將無法實現,如果我們繼續以不信任的態度看待這項技術。例如,在醫療保健領域,人工智能可以改善癌症診斷,並將高危患者標記為為了獲得額外支持而再次入院。我們看不到這些強大的解決方案的所有好處,除非我們學會建立人工智能的信任。

我從一開始就支持人工智能工作的透明度和治理理念,當時我和同行和商業領袖談論人工智能。更具體地說,這是我的建議:

真空中不能發生道德人工智能。

如果實施不當,人工智能應用程序可能會產生重大的連鎖反應。單個部門或IT團隊開始嘗試AI驅動程序個部門或IT團隊開始嘗試AI驅動。如果他們的實驗做錯了,團隊是否會認識到可能的倫理影響?是否符合公司現有的數據留存和訪問策略?這些問題都很難在沒有監管的情況下得到解答。

另外,如果沒有治理,如果出現道德錯誤,召集利益相關者改正道德錯誤可能更難。在一定的道德范圍內,監,而應被視為必要的檢查,以確保人工智能在一定的道德范圍內運行。如果CDO角色不存在,首席信息官將負責監督,監督最終應該落在他們組織的首席數據官身上手機上網Plan。

2.總有計劃。

我們看到的頭條新聞關於人工智能項目最差的問題,一般都有一個共同點,就是企業在回答問題或者說明問題的時候沒有准備好決策。監督可以解決這個問題。當組織的最高管理層了解人工智能和健康哲學時,不太可能因為問題而措手不及。

3.盡職調查和測試是強制性的。

許多人工智能偏見的經典例子可以通過更多的耐心和測試得到緩解。公司對展示其新技術的興奮最終適得其反,就像洗手液分配器的例子一樣。在產品公開發布之前,可能會發現這種偏見。此外,任何人工智能應用程序都需要從一開始就進行嚴格的審查。戰略上必須謹慎使用,因為人工智能的複雜性和不確定性的潛力。

4.考慮人工智能監督功能。

為了保護客戶隱私,金融機構投入了大量資源來管理敏感文件的訪問。為了確保只有正確的工作角色和部門才能看到每個人,他們的記錄團隊對資產進行了仔細的分類,並建立了基礎設施。該結構可作為組織人工智能治理功能的模板。一個特殊的團隊可以估計人工智能應用程序的潛在積極或消極影響,並確定需要多長時間來審查結果以及誰來審查它Au Tau。

對於尋求數字顛覆的企業來說,測試人工智能是一個重要的下一步。它解放了人類工作者的普通任務,並擴展了一些以前在財務上不謹慎的活動(如圖像分析)。但這不能掉以輕心。人工智能應用程序必須在適當的監督下仔細開發,以避免偏見。道德問題的決定和糟糕的業務結果。確保組織中的人工智能工作得到正確的培訓。最嚴重的道德錯誤往往發生在黑暗中。