公務(wù)員期刊網(wǎng) 論文中心 正文

互聯(lián)網(wǎng)下的人工智能發(fā)展倫理

前言:想要寫出一篇引人入勝的文章?我們特意為您整理了互聯(lián)網(wǎng)下的人工智能發(fā)展倫理范文,希望能給你帶來靈感和參考,敬請(qǐng)閱讀。

互聯(lián)網(wǎng)下的人工智能發(fā)展倫理

摘要:本文以互聯(lián)網(wǎng)背景下人工智能的發(fā)展中的倫理為分析對(duì)象,首先介紹了人工智能概述,接著分析了互聯(lián)網(wǎng)背景下人工智能出現(xiàn)倫理問題及其成因,最后論述了互聯(lián)網(wǎng)背景下人工智能技術(shù)倫理問題解決措施,以便引導(dǎo)人工智能技術(shù)為人類社會(huì)造福。

關(guān)鍵詞:互聯(lián)網(wǎng);人工智能;倫理

隨著信息技術(shù)快速發(fā)展,當(dāng)前我們已經(jīng)步入了互聯(lián)網(wǎng)時(shí)代?;ヂ?lián)網(wǎng)時(shí)代是一個(gè)科技爆炸時(shí)代,各種科技創(chuàng)新層出不窮,促進(jìn)了人類社會(huì)高度繁榮。在眾多創(chuàng)新中,人工智能屬于創(chuàng)新的一項(xiàng)內(nèi)容,人工智能包含有自然語言處理、機(jī)器學(xué)習(xí)、系統(tǒng)推薦、人工神經(jīng)網(wǎng)絡(luò)等各方面內(nèi)容。

1人工智能概述

早在20世紀(jì)50年代,人工智能就被人們所提出,當(dāng)前已經(jīng)經(jīng)歷了數(shù)十年的發(fā)展歷程,人工智能也從最開始無人問津變成了炙手可熱的一門學(xué)科。人工智能主要是模仿并拓展人類智能,是計(jì)算機(jī)與神經(jīng)學(xué)相融合的全新學(xué)科。人工智能試圖理解人類智慧,創(chuàng)造出全新智慧機(jī)器,這一機(jī)器可以使用人類智能處理各項(xiàng)信息。一般而言,人工智能應(yīng)用主要分布在機(jī)器學(xué)習(xí)、自然語言處理、計(jì)算機(jī)視覺處理、人工神經(jīng)網(wǎng)絡(luò)等方面。機(jī)器學(xué)習(xí)是人工智能的一項(xiàng)重要分支,主要是利用機(jī)器處理各項(xiàng)數(shù)據(jù)信息。自然語言處理主要是利用循環(huán)神經(jīng)網(wǎng)絡(luò)處理各項(xiàng)數(shù)據(jù)。計(jì)算機(jī)視覺處理主要是充分發(fā)掘計(jì)算機(jī)的視覺功能,處理并獲取周邊信息的一門學(xué)科。人工神經(jīng)網(wǎng)絡(luò)主要是在計(jì)算機(jī)學(xué)習(xí)和認(rèn)知領(lǐng)域的神經(jīng)網(wǎng)絡(luò),是一種模仿生物神經(jīng)網(wǎng)絡(luò)和人類大腦結(jié)構(gòu)的網(wǎng)絡(luò)體系。

2互聯(lián)網(wǎng)背景下人工智能出現(xiàn)倫理的問題及其成因

(1)人工智能出現(xiàn)倫理的問題第一,人權(quán)倫理問題。人權(quán)是每一個(gè)人生下來所擁有的權(quán)利,因此人權(quán)具有普世性特點(diǎn),平等是人權(quán)的一項(xiàng)重要內(nèi)容。近些年來,隨著人工智能技術(shù)和機(jī)器學(xué)習(xí)技術(shù)的快速發(fā)展,人工智能技術(shù)已經(jīng)從實(shí)驗(yàn)室走進(jìn)了人們生活之中。在人們理念中,人工智能技術(shù)會(huì)按照既定程序完成各項(xiàng)工作,會(huì)使人們工作、學(xué)習(xí)、生活受益。但是事實(shí)并非如此,就像科幻片人工智能中所描寫的一樣,機(jī)器人可以為人類付出100%愛,但是人類對(duì)于機(jī)器人的愛卻不用負(fù)責(zé)。在人工智能時(shí)代,如果人工智能突破了技術(shù)瓶頸出現(xiàn)了情感,對(duì)人類社會(huì)傳統(tǒng)倫理會(huì)造成巨大挑戰(zhàn),人類社會(huì)應(yīng)當(dāng)如何看待一個(gè)擁有情感的人智能,這個(gè)問題挑戰(zhàn)了當(dāng)前社會(huì)倫理底線,值得我們深思。第二,經(jīng)濟(jì)倫理問題。經(jīng)濟(jì)倫理問題是倫理與經(jīng)濟(jì)交叉問題。在人工智能技術(shù)不斷發(fā)展的今天,人工智能技術(shù)在經(jīng)濟(jì)領(lǐng)域中的運(yùn)用變得越來越廣闊。例如,前幾年被網(wǎng)絡(luò)曝光的滴滴公司利用人工智能技術(shù)殺熟的案例。消費(fèi)者在用滴滴打車之時(shí),其所花費(fèi)費(fèi)用相較于一般出租車更高,但是出發(fā)點(diǎn)和終點(diǎn)位置卻沒有發(fā)生任何變化。一些乘客已經(jīng)使用滴滴APP數(shù)年之久,每年都會(huì)在滴滴上花費(fèi)上萬元。在人們傳統(tǒng)觀念之中,如果是老客戶常常會(huì)有所優(yōu)惠,但是在智能信息技術(shù)影響之下,事實(shí)并非如此。滴滴公司利用人工智能技術(shù)了解到客戶出行規(guī)律,對(duì)于一些常用滴滴軟件的客戶采取殺熟手段,提高客戶出行價(jià)格,違背了傳統(tǒng)倫理思想。從滴滴這一現(xiàn)象也暴露出人工智能技術(shù)產(chǎn)業(yè)并不透明,暴露出人工智能技術(shù)對(duì)傳統(tǒng)經(jīng)濟(jì)理論和傳統(tǒng)道德思想造成了沖擊。第三,隱私安全倫理問題。雖然人工智能技術(shù)快速發(fā)展,人工智能技術(shù)可以實(shí)時(shí)采集人們所產(chǎn)生的各項(xiàng)數(shù)據(jù),人工智能技術(shù)還可以根據(jù)人們喜好調(diào)節(jié)室內(nèi)燈光,播放人們喜愛的音樂,甚至還可以通過分析人們飲食以及鍛煉軌跡判斷人們的身體健康狀況。雖然人工智能技術(shù)給人們生活帶來了便利,但是人工智能技術(shù)由此也獲得了個(gè)人隱私問題,進(jìn)而可能會(huì)導(dǎo)致網(wǎng)絡(luò)隱私安全問題的出現(xiàn)。一些別有用心的工作人員常常會(huì)通過人工智能技術(shù)收集他人隱私信息,以此獲得他人行動(dòng)軌跡,以達(dá)到不可告人的秘密,嚴(yán)重威脅他人網(wǎng)絡(luò)安全。

(2)人工智能出現(xiàn)倫理問題的成因第一,技術(shù)局限性。目前,世界上沒有一項(xiàng)技術(shù)是完美無缺的,任何一項(xiàng)技術(shù)有利必然有弊,人工智能技術(shù)作為一項(xiàng)科技技術(shù)也必然存在有利有弊的特點(diǎn),存在著技術(shù)局限性。例如,人工智能技術(shù)缺乏跨領(lǐng)域推理能力,這是人工智能技術(shù)和人相比最為明顯的一塊智慧缺陷。正常人都擁有舉一反三和觸類旁通的能力,而人工智能技術(shù)目前并不具備這項(xiàng)能力。與此同時(shí),人工智能技術(shù)還缺乏抽象能力。抽象能力是人類最為重要的能力之一,抽象能力推動(dòng)了人類文明向前發(fā)展。目前,人工智能技術(shù)所擁有的抽象能力尚不及一個(gè)三歲小孩,人工智能技術(shù)本身就具有局限性,容易出現(xiàn)倫理道德問題。除此之外,人工智能技術(shù)還缺乏基本常識(shí)、缺乏審美能力,正是由于人工智能技術(shù)存在眾多局限性,導(dǎo)致人工智能技術(shù)在運(yùn)用的過程之中可能會(huì)出現(xiàn)倫理風(fēng)險(xiǎn)問題。第二,缺乏倫理規(guī)則。伴隨著人工智能技術(shù)快速發(fā)展,弱人工智能已經(jīng)逐步融入人們生活之中,強(qiáng)人工智能依舊處于研發(fā)階段。例如,當(dāng)前已經(jīng)出現(xiàn)的機(jī)器人可以與人類進(jìn)行簡(jiǎn)單交流,同時(shí)還可以與人類談情說愛,但是這個(gè)機(jī)器人是一個(gè)沒有靈魂的機(jī)器人,他的一言一行都是基于程序設(shè)定,是從若干程序中尋找出最佳答案的一種回答模式??茖W(xué)家在設(shè)置人工智能技術(shù)之時(shí)并沒有為其設(shè)置倫理規(guī)則,導(dǎo)致倫理規(guī)則缺失,而人工智能倫理規(guī)則非常復(fù)雜,需要倫理學(xué)家、生物學(xué)家、法學(xué)家、哲學(xué)家等等一起努力制定倫理規(guī)則,而當(dāng)前這一規(guī)則依舊處于空白階段,沒有任何一個(gè)國(guó)家或者公司能夠制定出來。

3互聯(lián)網(wǎng)背景下人工智能技術(shù)倫理問題的解決措施

(1)科學(xué)管理人工智能技術(shù)和產(chǎn)品第一,加強(qiáng)人工智能流程進(jìn)程的管控,加強(qiáng)網(wǎng)絡(luò)安全。為了科學(xué)規(guī)范人工智能技術(shù)倫理問題,我們需要加強(qiáng)人工智能流程進(jìn)程監(jiān)督,記錄下人工智能技術(shù)決策過程,以防止出現(xiàn)任何潛在風(fēng)險(xiǎn)問題。例如,在無人駕駛過程之中,人工智能技術(shù)常常會(huì)判別道路狀況,我們需要對(duì)無人技術(shù)判別過程進(jìn)行全程記錄,分析人工智能技術(shù)在決策中可能出現(xiàn)的漏洞,同時(shí)還分析是否存在黑客攻擊行為,確保不會(huì)出現(xiàn)由于黑客攻擊而導(dǎo)致人工智能網(wǎng)絡(luò)安全問題的出現(xiàn),以便加強(qiáng)人工智能流程監(jiān)督,確保不會(huì)出現(xiàn)任何倫理問題。第二,建立起完善的追責(zé)制度。為了解決人工智能倫理道德問題,我們需要加強(qiáng)科學(xué)追責(zé)制度。為此,每一款人工智能產(chǎn)品都可以為其標(biāo)識(shí)獨(dú)立的身份識(shí)別碼,每個(gè)身份識(shí)別碼與人工智能產(chǎn)品一一對(duì)應(yīng),身份識(shí)別碼信息包含有制造商信息、檢查員信息,同時(shí)也包含有購(gòu)買人工產(chǎn)品人員信息,這些信息不僅僅可以保證在發(fā)生事故的第一時(shí)間追查到事故的責(zé)任人,同時(shí)還可以完善人工智能技術(shù),減少出現(xiàn)倫理道德風(fēng)險(xiǎn)的現(xiàn)象。

(2)提升公民倫理素質(zhì)第一,加強(qiáng)科學(xué)家社會(huì)責(zé)任。為了防范人工智能技術(shù)可能出現(xiàn)的倫理道德問題,我們需要加強(qiáng)人工智能技術(shù)開發(fā)科學(xué)家的社會(huì)責(zé)任,加強(qiáng)科學(xué)家道德責(zé)任感,使他們對(duì)人工智能技術(shù)充滿敬畏,在內(nèi)心深入可以認(rèn)知到人工智能技術(shù)既可以造福人類又可以有禍害人類,在發(fā)展人工智能技術(shù)同時(shí)為人工智能技術(shù)設(shè)置基本倫理規(guī)則。與此同時(shí),我們還需要加強(qiáng)科學(xué)家倫理道德教育工作,使科學(xué)家不會(huì)用于個(gè)人金錢利益或者權(quán)力驅(qū)使而研發(fā)出破壞人類社會(huì)的人工智能。除此之外,我們還需要培養(yǎng)科學(xué)家熱愛和平的思想,把和平理念融入科學(xué)家心中,使科學(xué)家研發(fā)出更多有利于社會(huì)發(fā)展的人工智能,減少出現(xiàn)人工智能倫理問題的情況。第二,不斷提高廣大民眾知識(shí)素養(yǎng)。首先,我們需要讓廣大民眾了解人工智能技術(shù)本質(zhì),了解人工智能技術(shù)是為人類服務(wù)的一項(xiàng)技術(shù),不能讓人工智能技術(shù)危害社會(huì),出現(xiàn)任何違反倫理道德的行為。其次,政府部門需要加大對(duì)民眾的引導(dǎo),使民眾可以冷靜思考人工智能技術(shù)中的倫理問題,理性看待人工智能技術(shù),給社會(huì)帶來的倫理問題,提高公眾對(duì)人工智能技術(shù)的認(rèn)知水平,這也是解決人工智能倫理問題的有效途徑。

(3)重視立法研究第一,加強(qiáng)立法工作。人工智能技術(shù)已經(jīng)步入千家萬戶,為此我們需要加強(qiáng)人工智能技術(shù)立法,防止人工智能技術(shù)出現(xiàn)任何倫理問題。在法律中,立法者可以強(qiáng)制性規(guī)定要求人工智能技術(shù)必須以保護(hù)人類安全作為基本底線,要求生產(chǎn)廠商都必須將這一規(guī)定寫入到人工智能技術(shù)之中,使人工智能技術(shù)不會(huì)出現(xiàn)危害人類生命財(cái)產(chǎn)安全的行為。第二,加強(qiáng)法律執(zhí)行力度。在完成立法之后,我們需要加強(qiáng)法律執(zhí)行尤其需要對(duì)法律合法性合理性進(jìn)行判別,加強(qiáng)法律修繕,提高法律可操作性。當(dāng)人工智能產(chǎn)品出現(xiàn)倫理事故之時(shí),出現(xiàn)傷害他人人身財(cái)產(chǎn)安全之時(shí),工作人員可以根據(jù)法律規(guī)定理清人工智能產(chǎn)品的責(zé)任,同時(shí)根據(jù)法律的規(guī)定認(rèn)定人工智能生產(chǎn)者的責(zé)任,做到權(quán)責(zé)一致,使人工智能可以朝著有利于人類社會(huì)發(fā)展的角度發(fā)展。

(4)完善監(jiān)督機(jī)制為了加強(qiáng)人工智能監(jiān)督工作,我們還需要建立起多種渠道的監(jiān)督體系,尤其是發(fā)揮廣大民眾在監(jiān)督中的重要作用。由于民眾的數(shù)量眾多,因此監(jiān)督力量更大,看問題角度也更加完善,而且普通民眾是人工智能產(chǎn)品的消費(fèi)者和體驗(yàn)者,他們對(duì)于人工智能中出現(xiàn)的倫理問題更加具有發(fā)言權(quán),因此需要將普通民眾納入到監(jiān)督體系之中。除了民眾之外,科學(xué)家的監(jiān)督也必不可少,因?yàn)槿斯ぶ悄芗夹g(shù)的道德情感都是由科學(xué)家所編織的,因此科學(xué)家的道德觀也直接會(huì)影響到人工智能技術(shù)道德觀,科學(xué)家需要及時(shí)修復(fù)人工智能技術(shù)中出現(xiàn)的道德漏洞或者是缺陷,不斷完善人工智能技術(shù),防止出現(xiàn)人工智能倫理道德問題。除了科學(xué)家之外,我們還可以要求哲學(xué)家以及倫理學(xué)家加強(qiáng)監(jiān)督,制定倫理道德準(zhǔn)則,引導(dǎo)人工智能技術(shù)向前發(fā)展。

4結(jié)語

綜上所述,為了解決互聯(lián)網(wǎng)背景之下人工智能技術(shù)出現(xiàn)的倫理道德問題,我們需要加強(qiáng)倫理制度建設(shè),科學(xué)管理人工智能技術(shù)及其產(chǎn)品,同時(shí)還需要加強(qiáng)公民素質(zhì),做好立法工作,完善監(jiān)督機(jī)制,以便使人工智能技術(shù)服務(wù)人類社會(huì),減少出現(xiàn)倫理道德問題的可能。

參考文獻(xiàn):

[1]黃凱鋒,蔡棟.人工智能與人的自我完善[J].湖北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,47(01).

[2]王東浩.人工智能體引發(fā)的倫理困境探賾[J].人工智能體,2018(4).

作者:張崢嶸 楚國(guó)鋒 單位:國(guó)防科技大學(xué)信息通信學(xué)院試驗(yàn)訓(xùn)練基地