近年來,隨著人工智能技術(shù)在各行各業(yè)中得到廣泛應(yīng)用,AI對人類社會(huì)的影響可謂是滲透到了方方面面。在這種背景下,國內(nèi)也誕生了眾多AI科技公司,比如專注于AI+視頻的極鏈科技、又比如說近日推出了城市級全棧式AI解決方案,還介紹了集全局管理能力為一體的城市物聯(lián)網(wǎng)操作系統(tǒng)的曠視科技等等。可以說,人工智能技術(shù)正在這顆星球上如火如荼的進(jìn)行展開。
但與此同時(shí),人工智能的推進(jìn)其實(shí)也產(chǎn)生了不少問題。例如最近較為火爆的換臉技術(shù)產(chǎn)生的數(shù)據(jù)安全問題、大數(shù)據(jù)產(chǎn)生的“殺熟”問題、自動(dòng)駕駛的安全責(zé)任問題、人臉識別產(chǎn)生的隱私問題等。路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室的羅曼教授發(fā)表的《人工智能和網(wǎng)絡(luò)安全:人工智能的失敗》便列舉過十項(xiàng)重大的人工智能失敗案例。比如說特斯拉自動(dòng)駕駛汽車造成人員傷亡、機(jī)器人傷人事件、保險(xiǎn)公司利用臉書數(shù)據(jù)預(yù)測事故發(fā)生率涉嫌存在偏見等等。這些失敗案例可以歸結(jié)為人工智能系統(tǒng)在學(xué)習(xí)階段的錯(cuò)誤,也可以歸結(jié)為人工智能技術(shù)的不確定性所帶來的道德風(fēng)險(xiǎn)。
人工智能產(chǎn)品除了符合自然規(guī)律這個(gè)物理性之外,還具有意向性,即人工智能產(chǎn)品也會(huì)體現(xiàn)人類的意志和愿望。隨著技術(shù)的發(fā)展,技術(shù)改變社會(huì)的作用增強(qiáng),技術(shù)的發(fā)展可能會(huì)遠(yuǎn)離人類的最初目的和控制。因此,正確而全面的認(rèn)識人工智能的潛在道德風(fēng)險(xiǎn),并對其進(jìn)行規(guī)避顯得十分必要。
一、人工智能發(fā)展引發(fā)智能機(jī)器的道德主體地位的思考
人工智能離不開算法,而算法是由人類輸入的數(shù)據(jù),出了問題究竟由誰來負(fù)責(zé)呢?機(jī)器以及算法是否具備成為主題的資格和條件呢?人工智能是否具有道德主體地位呢?這些問題涉及對于道德主體地位的溯源,還涉及人類的道德推理能力是先天賦予還是后天學(xué)習(xí)的討論。根據(jù)人工智能的現(xiàn)有發(fā)展速度和規(guī)模,人工智能或許在未來能夠發(fā)展出具有自我意識的智能產(chǎn)品,這些人類制造出來的智能機(jī)器是否也該被賦予與人類同等的權(quán)利和地位呢?上述問題都涉及對人工智能產(chǎn)品的主體地位的思考,是我們所必須考慮的。
二、人工智能發(fā)展引發(fā)新理論問題
人工智能正在以更快的發(fā)展速度和水平融入人類社會(huì)的方方面面,甚至可以說半個(gè)多世紀(jì)的人工智能發(fā)展遠(yuǎn)遠(yuǎn)超過了過去幾百年的科技發(fā)展水平。而人工智能一旦獲得同人類相近的思維能力和推理能力,如何界定人工智能與人類的道德地位將面臨道德倫理挑戰(zhàn):人工智能的高效率和低失誤率在司法領(lǐng)域的使用,會(huì)給傳統(tǒng)司法審判帶來巨大的法律倫理挑戰(zhàn);人工智能手術(shù)機(jī)器人將給醫(yī)療衛(wèi)生領(lǐng)域帶來醫(yī)療倫理挑戰(zhàn)。面對如此多的倫理挑戰(zhàn),我們將如何發(fā)展或者改進(jìn)現(xiàn)有的倫理理論體系,使之更好地適應(yīng)人工智能的發(fā)展。既要人工智能更好地服務(wù)于人類,又要限制其負(fù)面效應(yīng),這是人工智能發(fā)展面臨的巨大挑戰(zhàn)。
三、人工智能引發(fā)新的社會(huì)安全和公平正義問題
人工智能的發(fā)展帶來信息安全風(fēng)險(xiǎn)。人工智能產(chǎn)品在很多領(lǐng)域已經(jīng)與人類形成了服務(wù)和被服務(wù)的關(guān)系,如手機(jī)語音助手、機(jī)動(dòng)車的軌道偏離糾正等。當(dāng)這些人工智能產(chǎn)品和人類進(jìn)行交互時(shí),如何保證使用者的信息安全,或者說使用者的信息一旦被上傳到遠(yuǎn)程終端之后,又將如何保證信息安全,這是一個(gè)問題。而且人工智能機(jī)器人工作效率高、出錯(cuò)率低、維護(hù)成本好、能保證工作的連續(xù)性,其在各領(lǐng)域的運(yùn)用可能會(huì)造成對人類就業(yè)的沖擊。許多人的工作安全和穩(wěn)定會(huì)直接收到人工智能發(fā)展的影響,特別是那些不需要專業(yè)技術(shù)與專業(yè)能力的工作。這將導(dǎo)致勞動(dòng)者失業(yè)率和未就業(yè)人口總量的提高,這些都不利于社會(huì)的穩(wěn)定和安全。
目前社會(huì)已經(jīng)逐步認(rèn)識到了問題的嚴(yán)重性,也嘗試提出了解決方案:
首先,人工智能的道德風(fēng)險(xiǎn)是預(yù)置的,是人類在涉及人工智能之初就預(yù)先設(shè)置好的。人工智能涉及具有意向性,嵌入了人類的目的,也即道德。在具體的人工智能產(chǎn)品設(shè)計(jì)上就應(yīng)該進(jìn)行道德風(fēng)險(xiǎn)評估,對人工智能可能引起的道德風(fēng)險(xiǎn)有個(gè)準(zhǔn)確的把握,這樣才能防范人工智能可能帶來的道德風(fēng)險(xiǎn)。
其次,人工智能需要以不傷害人類為前提。人工智能的設(shè)計(jì)不應(yīng)僅僅局限于某一種狀態(tài),從設(shè)計(jì)者的設(shè)計(jì)理念到人工智能產(chǎn)品都應(yīng)該規(guī)范與約束,才能保障人工智能發(fā)展不損害人類利益,不傷害人類。
最后,正義是一個(gè)社會(huì)健康發(fā)展的重要基石,是人類社會(huì)發(fā)展的價(jià)值追求。人工智能在設(shè)計(jì)、開發(fā)之初就應(yīng)該關(guān)注社會(huì)的公平和正義。人工智能的設(shè)計(jì)不應(yīng)擴(kuò)大主體間權(quán)利與地位的差距,導(dǎo)致實(shí)質(zhì)上的不公平。例如,無人機(jī)的技術(shù)需要大量的成本,并非所有人都能享受該項(xiàng)技術(shù)成果,這就會(huì)導(dǎo)致一些落后國家和地區(qū)的公平性喪失;使用無人機(jī)送快遞會(huì)造成現(xiàn)有快遞人員的失業(yè),導(dǎo)致技術(shù)結(jié)果的不公平。簡而言之,人工智能的設(shè)計(jì)中要確保其設(shè)計(jì)目的是為了人類的整體利益而非個(gè)人。
綜上所述,人工智能技術(shù)使技術(shù)安全性及隱私保護(hù)等各方面的問題變得更加重要且緊迫,因此需要內(nèi)化技術(shù)設(shè)計(jì)、決策主體的責(zé)任意識;并且完善技術(shù)設(shè)計(jì)制度,并促成各類技術(shù)主體之間的合作。只有這樣,才能有效地規(guī)避人工智能道德風(fēng)險(xiǎn),更好地促進(jìn)人工智能的健康發(fā)展。