道德對標:劃定AI創新的路徑與邊界

要引導AI變得道德,應允許技術公司成為道德主體,科學技術和開展善行應該由道德底線被遵守,創造人類社會的福祉,推動積極的變化應成為模特存在和科技公司的發展。道德和法律規則發出AI使用者也迫切。

Facebook、微軟和谷歌等公司的高層代表,以及科學家和學者早些時候聚集在日內瓦,在首屆瑞士全球數字峰會上討論與人工智慧(AI)相關的全球道德標準。與會代表同意在明年1月的達沃斯世界經濟論壇上就這一議題進行更廣泛和深入的討論。

沒有人會懷疑人工智慧將是推動創新和變革的最強大的科技力量,公眾正以極大的寬容甚至狂熱的態度接受人工智慧的最新成果。由於“光暈效應”的影響,人工智慧產生的道德問題往往沒有得到明確的理解和足夠的重視。例如,以ZAO在最近的世界人工智慧會議上推出的“AI臉改變應用”為例,使用者只需要正面的表情,就可以用影視作品中的人物來代替,生成以使用者為主導的影片剪輯。然而,經過片刻的興奮和興奮,人們相信所有的使用者都會被ZAO協議所束縛。

看ZAO使用者協議是:釋出使用者上傳的內容後,表示“有權同意或保證人像補助‘早’完全免費及其關聯公司全球範圍內的,不可撤銷的,永久的,可轉授權,並再次承諾對‘星和’侵權。肖像,如果起訴對方,對於所有使用者的最終責任“在這方面,使用者可能希望作出以下問題:如果換臉明星告你,如果有人做這種假影片和栽在你如果你的臉是要為別人刷的臉,你會怎麼辦?聽他們會有什麼反應是什麼。

其實,類似“換臉App”引起的AI道德拷問已不計其數。AI突破道德底線並淪為作惡工具的程度已超過了人們的想象。對此,目前的主流判斷是,技術無罪,但操控技術的人一定有過。按照墨菲定理,如果一件事情有可能出錯,那就一定會出錯。也就是說,如果做某項工作有多種方法,而其中有一種方法必然導致錯誤,那一定有人會按這種方法去做。依據一項針對1010名英國科技工作者的研究,90%的人認為科技是一種正能量,但59%身處人工智慧領域的人則表示,他們從事的專案可能對社會有害,有18%的人因倫理道德問題而辭職。儘管AI違背或踐踏道德只是少數技術操作者的行為,也就是墨菲定理所指的個別人犯錯,但這種錯誤極易被更多人模仿,而且藉助網路傳播的力量會無限放大,最終造成的社會危害無法估量。

可是,如何平衡AI創新與AI道德又是一個非常棘手的難題。今天,飛速前行的技術需要更多創新成果來提供貼近生產與生活的各種服務,這就要求企業不斷尋求突破。只是,如果套上更多條條框框,又勢必抑制與捆綁AI 探索的腳步與空間。拿AI的基礎資料來說,使用者的身份、職業、年齡及閱讀、購物等行為偏好,都是最佳化推薦演算法的關鍵依據,科技公司獲取的這些隱私資料越多,就越能讓AI的服務更精確地貼合公眾需求,利於商業主體精準發力。如果注入了道德元素,資料的限制與缺失不僅會使AI的服務功能大打折扣,會面臨著資本的反制。

然而,閘門沒有任何的創新不能拿機器的控制,使人類以來,非常智慧,讓它也成為走在邊界劃定指定的路徑,這樣的情況下,其AI也可以使用自動校正功能時使用跨境等等。這樣一來,不管是什麼樣的機器學習的有才華,我們可以把它在決策時表現得像人們對與錯的前提下的感知。

要引導人工智慧道德化,首先要讓科技企業成為道德主體。科技要善待成為道德底線的遵守者和執行者,創造人類福祉,推動社會的積極變革應成為科技企業生存與發展的標準。在這方面,所有人工智慧企業都有必要建立一個由工程師、科學家、律師和公司領導組成的監管機構,就像微軟設立的人工智慧道德委員會一樣,負責對每一個人工智慧產品進行道德和道德風險評估,並對其進行內部和外部審查和實施。相應的改進機制。

與企業對人工智慧的自檢相比,行業協會是控制人工智慧的第一個外部道德門戶。目前,除了世界電氣和電子工程師協會(Ieee)在“人工智慧設計道德準則”中,世界100多家科技巨頭,如谷歌和蘋果(Apple),亞馬遜(Amazon)、微軟(Microsoft)也在人工智慧領域建立了非營利性、人工智慧合作伙伴關係,提出了公平、無傷害、公開透明和問責等倫理框架。對於每個行業來說,這都是建立各自的人工智慧道德評價矩陣和評價過程的參考。與企業的自我道德評價相比,第三方的行業道德評價能夠有效地克服前者在企業索賠和道德訴求中的角色衝突,過濾掉企業道德評價中的不合理因素,從而保證AI評價結論的公正性和可行性。為了更廣泛地反映不同社會群體的基本需要,該行業的道德監督機構應最大限度地讓更多的利益攸關方參與。

AI制定道德準則是義不容辭的責任政府來衡量一國的人工智慧不僅是技術規格級別的水平,也已經成為一個新的道德維度高地AI競爭的國家。從倫理角度切割,歐盟開創了覆蓋了人們的積極性和監督能力,安全性,保密性,資料管理,透明,包容,社會福利和問責機制AI道德規範7頁的內容。中國有“網路安全法”和“個人資訊保安的資訊保安技術規範”,相關機構還發布了“北京共識人工智慧”,但在AI的道德界限和道德標準加以提煉仍有提煉和加工。

人工智慧使用者也不應該成為道德盲區。現在還不是引入人工智慧使用者道德和法律規則的時候。建立可監控的人工智慧平臺,迫使科技企業調整和校準研發活動,使人工智慧倫理成為公眾信任的基礎。

道德對標:劃定AI創新的路徑與邊界