檢測欺詐,推薦歌曲,優化物流,提供翻譯。智能係統正在使我們的生活變得更好。人工智能已經成為各個部門的重要工具。
在過去的幾年裏,人工智能的發展速度非常快。然而,今年,關於“人工智能倫理”的構成以及實現它需要哪些倫理要求、技術標準和最佳實踐的爭論仍在繼續。
最近在梵蒂岡城舉行的“數字時代的共同利益”技術會議上,教皇方濟各說,“如果人類所謂的技術進步成為共同利益的敵人,這將導致一種由強者法則決定的野蠻形式的不幸倒退。”
人力代理和監督
尊重人的自主權和基本權利必須成為人工智能倫理規則的核心。歐盟的指引規定了三項措施,以確保這一要求在係統中得到反映,它們是以下-
1.為確保人工智能係統不會妨礙基本權利,應在開發該係統之前進行基本權利影響評估。
2.確保人工代理,即用戶對AI係統的理解和交互達到滿意的程度。
3.機器永遠不可能完全控製,因此,總是需要人的監督。人類應該始終有可能最終推翻係統所做的決定。例如,提供一個停止按鈕或一個終止操作的過程,以確保人工控製。
技術穩健性和安全性
值得信任的人工智能要求算法足夠安全、可靠和健壯,能夠處理人工智能係統所有生命周期階段的不一致性。這是為了確保網絡安全.這就要求測試人工智能軟件係統,以理解和減輕網絡攻擊和黑客的風險。這些軟件係統必須受到保護,免受對手的利用,例如數據中毒和黑客攻擊。如果係統被黑客攻擊,將會造成很大的破壞,並可能導致係統關閉。這些問題還可能導致數據損壞或數據濫用,從而對安全構成威脅。
私隱及資料保障
在構建和運行人工智能係統時,人工智能社區應該確保隱私和個人數據得到保護。人們應該完全控製自己的數據,如果個人數據被泄露,對當事人來說可能是極其危險的。而一旦因為隱私泄露這樣的重大原因而失去信任,就很難找回自己。AI開發者應該應用數據加密等設計技術來保證隱私和數據保護。此外,數據的質量必須是確定的,即避免錯誤、偏差和錯誤。
透明度
透明度是最重要的。為了確保透明度,一種方法是記錄用於構建AI係統的數據集和過程。AI係統應該是可識別的。人類應該意識到,他們是在與人工智能係統互動。此外,AI係統的行為和決策遵循可解釋性和意義原則;它們應該能夠被人類理解和追蹤。許多公司、研究人員和公民倡導者建議,政府監管是保持透明度的好方法,通過這種方式,也可以實現對人的問責。其他人則認為這可能會減緩創新的速度。聯合國、歐洲聯盟和許多國家正在不斷努力尋找管理透明度的戰略。
多樣性、非歧視和公平
為了避免不公平的偏見,AI開發者應該確保算法的設計沒有偏見。應該谘詢可能直接或間接受到人工智能係統影響的人,並讓他們參與開發和實施。在設計人工智能係統時,應考慮到人類各種能力、技能和需求,確保殘疾人無障礙。
社會和環境福祉
人工智能係統應該促進積極的社會變革,並鼓勵可持續性。換句話說,應該鼓勵確保人工智能係統的環境友好性的措施,例如,選擇有害的能源消耗較少的方法。還必須考慮和監測這些係統對人們身心健康的影響。此外,還應評估對社會和民主的影響。人工智能倫理是確保我們不會對環境造成比現有環境更大的破壞的好方法。在一個人們為氣候正義而戰的世界裏,重要的是要記住,我們不應該造成進一步的破壞。
問責製
應建立機製,確保對人工智能係統及其結果的責任和問責。內部和外部審計應到位。應提供人工智能係統的負麵影響報告和影響評估工具。企業應該能夠保護客戶的個人數據,並在出現技術故障的情況下承擔責任。確保人權和尊嚴至關重要。機器學習算法具有不可預測的本質,很難預測它對個人的影響,這挑戰了責任的傳統概念。因此,當我們在業務中采用人工智能時,應該遵循人工智能倫理。
用我們的人工智能和機器學習課程主題了解更多!